Vinnaren i pepparkakshustävlingen!
2025-06-11, 12:12
  #25
Medlem
Citat:
Ursprungligen postat av guru1966
Nej. Botten gissar när svaret inte finns i dess träningsdata (i litteraturen eller på Wikipedia), och det är då bekräftelsebias kommer in. I dessa uppenbara fall ljuger den inte. Min chatgpt är lika säker på att kaffe inte orsakar cancer som att förintelsen inte var en bluff. Svarar din något annat?

Kaffe kanske var ett dåligt exempel? Det är ändå ganska lätt att ställa ledande frågor och lura botten att ge motsatta svar. Särskilt om det inte finns någon wikipediaartikel om just det ämnet. Och om wikipediaartikeln innehåller fel så kommer botten tvärsäkert att hävda att Wikipedia har rätt oavsett om det strider mot sunt förnuft eller ej.
Citera
2025-06-11, 13:52
  #26
Medlem
bergsdals avatar
Citat:
Ursprungligen postat av Mr.RedHat
Jag använder främst ChatGPT. Men felet är inte isolerat till dem, men mest problematisk.

ChatGPT 4o har en tendens att skriva exakt det jag vill höra. Vilket är motsatsen till vad jag egentligen vill.

Till exempel så frågade jag AI:n
"Jag skrev 'du är en höna'. Är jag rolig?"

Och AI:n svarar med en lång förklaring om att jag är briljant komiker. Vid fråga om jämförelser med olika komiker så slog jag till och med världens bästa. Jag skulle till och med fungera på standup.

ChatGPT modellen o3 är ju ett sätt att slippa det. Men för mig är det som att skriva med en gammal käring man varit gift med i 40 år och som inte orkat ta ut skilsmässa de senaste 20 åren. Den är så kritisk så att när man ställer följdfrågor så säger AIn tillslut emot sig själv. Vilket motverkar hela syftet med att ens fråga AI, för helt plötsligt är allting fel.

Diskussionsunderlag
- Hur kommer man runt bekräftelsebias?
- Finns det modeller som är mer balanserade i sina svar? Länka gärna till huggingface repo så man kan kompilera sin egen.
- Har ni märkt skillnader i färdigkompilerade modeller såsom ChatGPT, Grok och Gemini m.fl. ?
Skriv bara "+Var objektiv". Man kan också skriva upprepade gånger samma prompt och se hur många gånger den skriva samma. brukar bli mer seriöst efter 2-3 prompter. Det finns också ett knep kring att den inte ska spara på bredband så knådar degen lite längre. Brukar alltid skriva på slutet

"+Objekiv +spara inte på bredband +analys"

Men ja bekräftelsebias är en grej för så många användare tror att datorn är en riktig varelse med känslor men vad ska man göra. Bra sökmotor ibland
__________________
Senast redigerad av bergsdal 2025-06-11 kl. 13:56.
Citera
2025-06-11, 13:56
  #27
Medlem
Citat:
Ursprungligen postat av Mr.RedHat
Ja, jag har funderat på att fine-tune:a en egen modell i open source. Egentligen mest för att hjälpa mig i CI/(CD)-flödet. Vilket torde vara relativt enkelt.

Att träna en AI till att inte bli biased eller för kritisk i sina svar i rena analyser i sådant som inte är exakt mätbart känns dock långt över min nivå. Jag är liksom inte sugen på att doktorera som AI ingenjör för att kunna ragga på tinder, diskutera musik eller politik för att ta några exempel som är tämligen värdelöst idag.
Så blir väl som några försökt förklara: genom att försöka prompta sig ur problemet. Men det vill man ju helst slippa pga användarupplevelsen.
Mmm, jajo.. går i samma tankebanor, drar mig för det av samma anledningar
Vem orkar kämpa med sånt liksom?
Skulle bliva en daglig kamp, för få till en äns hyffsad sedan? Vem vet vad som kan hända..
Så jepp, prompts är det simplaste tillsvidare iaf
Lycka till!
Citera
2025-06-11, 14:25
  #28
Medlem
Citat:
Ursprungligen postat av thextor


En annan grej: det är så lätt att tro att Einstein är riktigt smart, eller att den faktiskt förstår. Men den förstår inte ett dugg, den är återigen bara väldigt bra på att låtsas. Om Einstein säger att din idé är skit eller inte, så kanske den har helt fel. Folk måste sluta använda Einstein som en kompis, rådgivare osv.

Du verkar inte förstå att ai fungerar på samma sätt som vi människor fungerar, bara att den har oändligt mycket mer kunskap än Einstein.
Citera
2025-06-11, 18:20
  #29
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av guru1966
Nej. Botten gissar när svaret inte finns i dess träningsdata (i litteraturen eller på Wikipedia), och det är då bekräftelsebias kommer in. I dessa uppenbara fall ljuger den inte. Min chatgpt är lika säker på att kaffe inte orsakar cancer som att förintelsen inte var en bluff. Svarar din något annat?

Språkmodeller gissar aldrig, de gör exakt samma sak hela tiden och det kräver varken mer eller mindre tid för en modell att svara på en svår eller en lätt fråga, modellen vet inte ens när den inte vet, hade man kunnat avgöra sådant algoritmiskt hade det här med hallucinationer (som bara är ett fint ord för att dölja att det är exakt samma skit som den gör hela tiden) varit löst sedan länge.

Det skrämmer mig att ett flertal inklusive du påstår ni jobbar med AI osv inte förstår ens grundläggande koncept inom maskininlärning.
Citera
2025-06-11, 19:49
  #30
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Språkmodeller gissar aldrig, de gör exakt samma sak hela tiden och det kräver varken mer eller mindre tid för en modell att svara på en svår eller en lätt fråga, modellen vet inte ens när den inte vet, hade man kunnat avgöra sådant algoritmiskt hade det här med hallucinationer (som bara är ett fint ord för att dölja att det är exakt samma skit som den gör hela tiden) varit löst sedan länge.

Det skrämmer mig att ett flertal inklusive du påstår ni jobbar med AI osv inte förstår ens grundläggande koncept inom maskininlärning.
Men om språkmodeller bygger på statistik och sannolikhet för att generera nästa token så torde väl en "gissning" inte vara långt vad som faktiskt sker? Även om det givetvis är en förenkling.

Jag tror vi alla är överens om att en AI inte går på magkänsla, dvs mänsklig intuition.

Tycker för övrigt det är bra att vi reder ut begreppen, eftersom förenklingar kan leda till missförstånd.
Citera
2025-06-11, 20:32
  #31
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av Mr.RedHat
Men om språkmodeller bygger på statistik och sannolikhet för att generera nästa token så torde väl en "gissning" inte vara långt vad som faktiskt sker? Även om det givetvis är en förenkling.

Jag tror vi alla är överens om att en AI inte går på magkänsla, dvs mänsklig intuition.

Tycker för övrigt det är bra att vi reder ut begreppen, eftersom förenklingar kan leda till missförstånd.

Det beror på din definition av gissning, men gissningar sker i så fall oavsett den vet eller inte, det är vad jag vänder mig emot.
Citera
2025-06-11, 20:46
  #32
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Det beror på din definition av gissning, men gissningar sker i så fall oavsett den vet eller inte, det är vad jag vänder mig emot.
Min definition av gissning är inte densamma för AI som för människor (intuition), utan - för egen del - ett pedagogiskt grepp för att beskriva ett AI-fenomen (statistisk sannolikhet för nästa token). Ungefär som att man kan beskriva att elektroner flyter som vatten inom elektricitet, men inom fysik beskrivs de som att de snurrar runt atomkärnan som planeter. Båda ang elektroner är vetenskapligt missvisande, men lättare för en oinvigd att förstå.
Citera
2025-06-11, 20:52
  #33
Medlem
Diamondgrits avatar
Citat:
Ursprungligen postat av Mr.RedHat
Intressant vändning. Problemet med din lösning är att resultatet blir att det inte går att använda. Och det här med ledande frågor är väldigt vanligt att man hamnar i med o3-modellen. Jag vill ju kunna använda AI. Till programmering och planering är den helt briljant. Eller diskutera ren fakta är den helt OK på, även om det finns brister där också med bias - som blivit bättre sedan Big Tech backade angående censurering av åsikter.

Men när det kommer till att analysera språk och social dynamik uppstår som sagt ett bias. Särskilt om man slår igång minnen.
Om du vill kunna använda AI så får du nog lov att förstå vad den kan användas till, och hur. En AI är bara, bokstavligt talat, en automatiserad ordbajsare. Den har inte en aning om vad något betyder, utan vet bara att de här orden sitter ihop. Du föreslår att himlen "egentligen" är röd, och AIn vet vilka ord som ska sitta ihop för att få fram någon sorts korkad argumentation för att himlen bara ser blå ut. Men den vet ju inte ens vad färger är.
Citera
2025-06-11, 21:00
  #34
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av Mr.RedHat
Min definition av gissning är inte densamma för AI som för människor (intuition), utan - för egen del - ett pedagogiskt grepp för att beskriva ett AI-fenomen (statistisk sannolikhet för nästa token). Ungefär som att man kan beskriva att elektroner flyter som vatten inom elektricitet, men inom fysik beskrivs de som att de snurrar runt atomkärnan som planeter. Båda ang elektroner är vetenskapligt missvisande, men lättare för en oinvigd att förstå.

Det är ganska irrelevant vad vi tycker, poängen är att modellerna ”slumpar” tokens från top kandidaterna oberoende av ämne eller hur mycket träning de har på ett visst ämne. Dvs den har vare sig mer eller mindre urval oavsett, huruvida det stämmer med verkligheten eller inte, det råkar bara vara så att ju mer träningsdata det finns om ett ämne, ju mer sannolikt är det bara att top kandidaterna återfanns i något träningsmaterial.
Citera
2025-06-11, 23:41
  #35
Medlem
>>Gåtan<<s avatar
Det är såklart inte några självkritiska nihilister som ChatGPT har tränat sina bottar på. 😊

I övrigt en bra fråga som jag också brottas med. Låg friktion mot användare är religion i Silicon Valley, och i allra högsta grad en del av till exempel ChatGPT:s RLHF (Reinforcement Learning from Human Feedback).

Jag använder den här prompten för att uppnå friktion i analyser och konversationer med AI:

1. Identifiera överskattade antaganden.
2. Simulera fel – formulera dina starkaste motargument.
3. Identifiera trolig bias (t.ex. antifriktion, optimism, mainstreamlogik).
4. Återformulera svaret med maximal transparens och friktionshypotes (vad saknas, vad är osäkert, vad kräver kvalificering).

Jag försöker undvika exempel i mina prompts och subjektiva instruktioner. Två vuxna miljöpartister och Sverigedemokrater kommer sannolikt ha väsensskilda konversationer. Vad är sanning för respektive?

I övrigt är AI en spegling av dess användare. Om man upplever den som en korkad ordbajsare är det 100 % en reflektion över hur man själv är som användare.
Citera
2025-06-12, 09:46
  #36
Medlem
Citat:
Ursprungligen postat av BeneathTheSurface
Språkmodeller gissar aldrig, de gör exakt samma sak hela tiden och det kräver varken mer eller mindre tid för en modell att svara på en svår eller en lätt fråga, modellen vet inte ens när den inte vet, hade man kunnat avgöra sådant algoritmiskt hade det här med hallucinationer (som bara är ett fint ord för att dölja att det är exakt samma skit som den gör hela tiden) varit löst sedan länge.

Det skrämmer mig att ett flertal inklusive du påstår ni jobbar med AI osv inte förstår ens grundläggande koncept inom maskininlärning.

Ord som "gissar", "resonerar", "förstår", "tänker", "ljuger", "hallicunerar", "omformulerar", "sammanfattar", "översätter", "besvarar" är vanliga beskrivningar av den emergenta effekten av träningen och storskaligheten, inte beskrivningar av hur LLM:ets algoritmer faktiskt ser ut på detaljnivå. Skilj på hög- och lågnivåbeskrivning. På låg nivå är ett LLM bara en stokastisk prediktor av nästa ord, ett ord i taget.

Antag att den bara har tränats med frågor och svar om alla möjliga ämnen. Om jag ställer en liknande fråga som fanns i träningsmaterialet, så blir effekten att den svarar nära det svar den har tränats med. Inte identiskt, utan den kan skriva om med helt andra ord för att ändra språk, stil, längd, undvika upprepningar, mm. Svarsmeningen blir näraliggande i betydelse av det intränade svaret därför att dess "embedding" ligger nära det intränade svarets "embedding" i vektorrummet. (Hoppas jag uttrycker mig korrekt nu.)

Om jag ställer en fråga som istället inte alls fanns med i träningsmaterialet, så kommer svaret att vara påverkat av flera olika meningar i träningsmaterialet. Effekten är att svaret utgör en kombination av flera påståenden. Jag tänker att i vektorrummet ligger svaret mitt emellan några svar på liknande frågor. Svaret är en generalisering. Man kan diskutera om det är en interpolering (eftersom det ligger mitt emellan i vektorrummet) eller en extrapolering.

När jag säger "gissar" menar jag alltså att den ger ett svar på en fråga som i vektorrummet ligger långt ifrån någon av de frågor som fanns i träningsmaterialet. Vad bör jag använda för ord istället? Är "kombinerar", "generaliserar", "interpolerar" eller "extrapolerar" bättre?

Precis som du säger kan LLM:et inte avgöra om svaret i detta fall är sant eller falskt. Eftersom det inte är en databas som har kvar de exakta påståendena i träningsmaterialet så kan den inte jämföra sitt svar med de intränade svaren, och räkna ut hur mycket dess svar skiljer sig från de intränade svaren på liknande frågor. Moderna LLM kan dock använda RAG för att i efterhand söka en webbsida som pratar om samma sak, och uppge den som "källa", men det är inte dess källa, och ibland kan webbsidan säga något annat än LLM:et sa. RAG-sökresultatet kan ibland även påverka svaret, men trots det ljuger den fortfarande ibland. T.ex. om man frågar om något som inte finns sökbart på nätet. Då säger jag att den gissar.
__________________
Senast redigerad av guru1966 2025-06-12 kl. 09:57.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in