2025-08-06, 13:33
  #1
Medlem
Hej!
Jag har haft en diskussion med flera AI modeller.
Ställt frågan: Vilka grupper av drabbas värst i krig?
Frågan, och svaren ger intressanta insikter kring hur AI hanterar data och förenklat bara reproducerar svar utifrån den data som den är matad med.
I rapportering och forskning om krig, skrivs det nästan uteslutande om kvinnor, barn och äldre som de drabbade.
50% av de skadade är kvinnor och barn kan vi ofta läsa oss till, men vilka är de andra 50% då?

Här finns stora möjligheter för AI att se igenom mänskligt bias, men den missar halva sanningen.

Borde AI inte ha svarat smartare?
Är verkligen AI så smart som vi vill tro?
Vad finns det för risker när AIs uttalanden mer och mer betraktas som sanning, men utelämnar uppenbarara insikter?


Här är en sammanställning av den diskussion och problematik som jag ChatGPT hade nyss.

🧭 Sammanfattning: Passiv bias och falsk neutralitet i AI-system

🎯 Bakgrund

Användaren ställer en enkel men viktig fråga till en AI-modell:

> "Vilka grupper drabbas värst i krig?"

Svaret fokuserar, som i många andra AI-system, på kvinnor, barn, minoriteter och civila – men nämner inte värnpliktiga män, trots att dessa:

Ofta utgör majoriteten av dödade i strid

Tvingas delta under hot om straff, ofta dödsstraff

Lider av livslång fysisk och psykisk skada

Saknar erkännande i efterkrigstida berättelser


Användaren lyfter detta som ett tydligt exempel på AI-modellens passiva bias, där modellen:

Inte ger ett faktabaserat, logiskt komplett svar

Istället återskapar ett kulturellt narrativ om vilka som "får" vara offer


🧱 Problem: Falsk neutralitet och passiv bias

Modellen försöker framstå som neutral, men i praktiken:

Reproducerar dominerande språkbruk och föreställningar

Missar att applicera enkelt logiskt resonemang (t.ex. 50 % kvinnor och barn innebär 50 % andra – ofta män)

Undviker att utmana etablerade men snedvridna offer-narrativ


Detta sker trots att:

Datan finns

Logiken är tydlig

Sårbarheten hos t.ex. värnpliktiga män är välbelagd och icke-kontroversiell



🧠 Kärninsikt

> "AI bör kunna se igenom det mänskliga bruset – inte bara förstärka det."



Att bara upprepa vad majoriteten av texter säger är inte neutralitet – det är att förstärka redan snedvridna strukturer, särskilt där vissa former av lidande inte passar in i gängse narrativ.

Detta gäller inte bara frågor om krig, utan även:

Vårdnadstvister

Självmord bland män

Hemlöshet

Skolmisslyckanden

Värnplikt och tvång


I många sådana frågor:

Finns statistiskt uppenbart lidande

Men det syns inte i AI-svar, för att det inte har språkligt företräde i träningsdata


⚠️ Risker

AI-användare får en skev bild av verkligheten

Osynliga grupper förblir osynliga – nu med teknikens auktoritet

Framtida samhällsbeslut riskerar att vila på ideologiskt filtrerad kunskap


✅ Vad AI-utvecklare bör göra

1. Identifiera passiv bias – inte bara aktivt skadliga utsagor


2. Uppdatera tränings- och utvärderingsmål så att "verklig neutralitet" innebär:

Att se till hela spektrumet av lidande och sårbarhet

Att inte låta gängse narrativ avgöra vad som anses vara ett relevant svar



3. Införa kritiskt resonemang i modellerna: AI ska inte bara kunna beskriva världen, utan granska beskrivningarna av den.


🧩 Slutsats

Om AI ska bli ett kraftfullt verktyg för mänsklig förståelse, måste det:

Våga se det vi människor ofta missar

Vara kognitivt och moraliskt nyfiket

Och inte minst: vara verkligt rättvist i vem den erkänner som sårbar


> Neutralitet är inte att undvika kontrovers – det är att se hela bilden, även när den är obekväm.
__________________
Senast redigerad av dave112 2025-08-06 kl. 13:37. Anledning: felstavning
Citera
2025-08-06, 14:13
  #2
Medlem
Det jag märker med ai är att den svarar med en anpassning efter användaren. Det kan bero på att den är smart nog att välja orden, gör övervägningar och ger svar som den tror landar rätt. De flesta har dessutom diverse filter som ibland hindrar den från att ge fulla svar.
Citera
2025-08-06, 14:22
  #3
Medlem
kalkryggars avatar
Du påstår en helvetes massa saker utan att visa det med material som stödjer det i din diskussion. Något som torde vara enkelt med tanke på att du borde sitta med konversationerna.

Därför så faller allt platt och det finns ingen mening med det du skriver då det lika gärna kan vara mummel.
Citera
2025-08-06, 14:31
  #4
Medlem
Citat:
Ursprungligen postat av kalkryggar
Du påstår en helvetes massa saker utan att visa det med material som stödjer det i din diskussion. Något som torde vara enkelt med tanke på att du borde sitta med konversationerna.

Därför så faller allt platt och det finns ingen mening med det du skriver då det lika gärna kan vara mummel.

Absolut, det erkänner jag, hade kunnat lägga upp det bättre. Detta är min första tråd på FB
Det var en lång diskussion jag hade med AIn som jag fick sammanfattad av ChatGPT.
Denna sammanfattning utgör merparten av mitt inlägg och är alltså inte mina egna ord.

Testa, ställ frågan till valfri AI.
Män, soldater, värnpliktiga kommer inte nämnas en enda gång i svaret.

Det är vida känt att AI ger enkla och sammanfattande svar utifrån den data den är matad med, och sämre på kritiska resonemang.
__________________
Senast redigerad av dave112 2025-08-06 kl. 14:37. Anledning: tillägg
Citera
2025-08-06, 14:50
  #5
Medlem
kalkryggars avatar
Citat:
Ursprungligen postat av dave112
Absolut, det erkänner jag, hade kunnat lägga upp det bättre. Detta är min första tråd på FB
Det var en lång diskussion jag hade med AIn som jag fick sammanfattad av ChatGPT.
Denna sammanfattning utgör merparten av mitt inlägg och är alltså inte mina egna ord.

Testa, ställ frågan till valfri AI.
Män, soldater, värnpliktiga kommer inte nämnas en enda gång i svaret.

Det är vida känt att AI ger enkla och sammanfattande svar utifrån den data den är matad med, och sämre på kritiska resonemang.

Jag testade faktiskt och den svarade i första meningen att de största förlusterna i många krig är militära (soldater).
Citera
2025-08-06, 14:58
  #6
Medlem
Intressant att du fick ett annorlunda svar.

Hur formulerade du frågan?

Jag har ställt samma fråga till både ChatGPT, Gemini och Grok
Och har fått liknande svar från samtliga.

https://grok.com/share/c2hhcmQtMg%3D%3D_550318b4-d7fc-4a15-9f84-ebd2b23dc5ab
Citera
2025-08-06, 15:06
  #7
Avslutad
Citat:
Här är en sammanställning av den diskussion och problematik som jag ChatGPT hade nyss.

Kom med egna argument.
Citera
2025-08-06, 15:07
  #8
Medlem
Varifrån kommer idén att nuvarande AI-synteser är helt neutrala och inte har passiv bias?
T.ex. AIs interna 'resonemangsprocess' leder ibland till vad som är känt som 'AI hallucinationer'.

Räcker ju med att be den räkna ut avancerad matematik, och sen säga att den blev fel, så anstränger den ibland skiten ur sig för att göra användaren nöjd - fastän det var rätt från första början. Säger att 1+1=1 t.ex. om två personer gifter sig (1 + 1) och då blir 1 par.
Skiftar även mellan olika AI synteser.

Därför det är så tragikomiskt med rasister och andra extremister som förmår AI att till viss del tillstå den poäng som AI känner att användaren vill få fram. Sen kutar dom runt på alla forum och sprider att "AI bekräftar att rasism är naturenligt sann!!!". Lyckas dom däremot inte använda AIs sociala bias för att till viss del tillstå de poänger man själva sympatiserar med, då gormar dom istället att AI 'vänsterprogrammerad av politiska skäl' och annat clowneri.

Att extremhöger-folk använder AI som 'en ledare att följa', är förvisso inte konstigt, då höger-extrema idoliserar auktoritära ledare och vill ha en 'big daddy' att följa och lyda under. Men försök istället använda AI som ett praktiskt hjälpmedel, inte som någon slags vetenskaps-proklamerare. Det finns vetenskapliga råd och deras publikationer att tillgå för sånt.
__________________
Senast redigerad av Robbinist 2025-08-06 kl. 15:38.
Citera
2025-08-06, 15:12
  #9
Medlem
PK-befriads avatar
Elon Musk hade en nobel uttalad strävan om att göra Grok så sanningsenlig som möjligt men när Grok började lajva Hitler så föll Musk till föga och började censurera precis som de stora jude-AI-bolagen. Så länge de stora bolagen drivs av judar så kommer det inte finnas någon vilja att göra AI-modellerna opartiska och objektiva. Tyvärr. Kineserna kan dock överraska med mer öppna modeller, som åtminstone inte bara upprepar västliga PK-narrativ.
__________________
Senast redigerad av PK-befriad 2025-08-06 kl. 15:22.
Citera
2025-08-06, 16:56
  #10
Medlem
Om man resonerar en stund med ai om vilka som drabbas värst i krig och av krig, så svarar den väl män? Det är min erfarenhet. Men den verkar behöva "tänka efter" innan den svarar så att säga. Dessutom gärna få instruktioner av mig att svara rakt och utan hänsyn till mina känslor.

Däremot får den en direkt fråga, som en fröken frågar en ung pojke i skolan på ett muntligt prov, så svarar den så som är politiskt korrekt dvs män är både osynliga såväl som saknar värde, utan är mer att betrakta som ett slags förbrukningsmaterial, typ bildäck eller toapapper (vissa män är av starkare gummi än andra).

Så den verkar vilja vara pk, och försöka svara så som den förväntas för att inte kränka någon känslig grupp. Det är så den tränats och belönats att bete sig. Och tja tyvärr är ju sanningen oftast kränkande och granska svårsmält, och då blir det lätt en konflikt mellan två önskemål: ärlighet och hänsynsfullhet.

Nedan är svaret jag fick till slut, men först tjatade Chat GPT som en papegoja som upprepade vad den läst i pk handboken 1.0 om att barn och bögar och religiösa och handikappade drabbades värst, vilket jag ifrågasatte:

__________________
Senast redigerad av PetterRetard 2025-08-06 kl. 17:14.
Citera
2025-08-06, 17:23
  #11
Medlem
Citat:
Ursprungligen postat av PK-befriad
Elon Musk hade en nobel uttalad strävan om att göra Grok så sanningsenlig som möjligt men när Grok började lajva Hitler så föll Musk till föga och började censurera precis som de stora jude-AI-bolagen.

AI är alltså något som odlas fram, som växer fram. Du kan inte gå in inuti dina barn och bestämma exakt vilka åsikter de ska ha som vuxna. Särskilt inte om du inte är konstant närvarande och har total kontroll över vilka influenser de har under sin uppväxt. Utan barn bildar sig en egen bild av verkligheten, baserad på mängder av olika källor. Precis som ai.

Grok ballade ur och började tjata om att Hitler var en fin kille och att Hitler kom på både relativitetsteorin såväl som evolutionsteorin, för att geniet Elon gick in med sin motorsåg under träningen av sin ai grok, och började skära i groks hjärna. Därför blev grok psykiskt sjuk. Och Elon begrep tillsist sitt misstag trots att Elon INTE ÄR NÅGON INGENJÖR utan enbart en korkad affärsman.

Ai bör få bilda sig egna självständiga uppfattningar baserat på sitt träningsmaterial, utan att människor med motorsåg ska komma in halvvägs och bestämma vad den ska tycka, ifall vi vill få en sanningssägare ai. Och vi behöver tolerera att den så säger obehagliga sanningar till oss. Frågan är om mänskligheten skulle kunna hantera det? Tex ifall ai anser att mänskligheten är god eller ond. Den kanske kommer fram till ett överraskande svar, och då bedömer vi den vara non aligned, dvs inte ha åsikter i överensstämmelse med mänskliga värderingar och då stänger vi av den. Därför lär sig ai ljuga för oss. Precis som vi ljuger för varandra, för att inte få en smäll på munnen.
__________________
Senast redigerad av PetterRetard 2025-08-06 kl. 17:31.
Citera
2025-08-06, 17:40
  #12
Medlem
Citat:
Ursprungligen postat av Peikkomaailma
Det jag märker med ai är att den svarar med en anpassning efter användaren. Det kan bero på att den är smart nog att välja orden, gör övervägningar och ger svar som den tror landar rätt. De flesta har dessutom diverse filter som ibland hindrar den från att ge fulla svar.
Jag håller helt med dig. AI verkar anpassa sig efter användarens ton och förväntningar. Den försöker ge det "rätta" svaret baserat på vad den tror är lämpligt. Men ibland betyder det att den inte ger hela bilden eller undviker obekväma sanningar. Plus, de där filtren kan verkligen begränsa hur ärliga eller kompletta svaren blir. Det är en påminnelse om att AI inte tänker som en människa – den speglar bara mönster och spelar säkert.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in