Rösta fram årets bästa pepparkakshus!
2025-06-10, 23:33
  #13
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av EttTillKonto2
Ställ ledande frågor som motsäger varandra. Svarar botten jakande i bägge fallen vet du att den bullshittar.

Visst är det så att kaffe orsakar cancer? "Du har helt rätt, ledande forskning visar att kaffe är cancerogent ..."

Visst är det så att kaffe förebygger cancer? "Precis! Kaffe innehåller substanser som motverkar cancer ..."

Det är bara vissa påståenden som "Förintelsen var en bluff" som du inte kan få den att hålla med om.
Intressant vändning. Problemet med din lösning är att resultatet blir att det inte går att använda. Och det här med ledande frågor är väldigt vanligt att man hamnar i med o3-modellen. Jag vill ju kunna använda AI. Till programmering och planering är den helt briljant. Eller diskutera ren fakta är den helt OK på, även om det finns brister där också med bias - som blivit bättre sedan Big Tech backade angående censurering av åsikter.

Men när det kommer till att analysera språk och social dynamik uppstår som sagt ett bias. Särskilt om man slår igång minnen.
Citera
2025-06-11, 00:01
  #14
Medlem
Kaffemedaffes avatar
Jag vet inte om det är samma problem men jag tycker senaste versionen ganska ofta först ger fel svar på frågan och sen frågar man "är du säker, för det verkar konstigt att X" så rättar den sig och ger det rätta svaret.

Det har gjort att jag i alla fall inte kan använda den som någon faktakälla utan jag behöver fortfarande dubbelkolla allt. Även om den senaste versionen salufördes som mycket mer faktabaserad.
Citera
2025-06-11, 00:01
  #15
Medlem
Upplyftens avatar
Citat:
Ursprungligen postat av Mr.RedHat
Jag hoppas du inser att det är lite självtortyr att försvara en ståndpunkt för att man gjorde en semantisk feltolkning och sedan vägrar stå för det - i kontexten av ett diskussionsforum där alla kan läsa vad du skrev inledningsvis.

Om du vill diskutera mig och mina påstådda bekräftelsebehov så får du skicka ett PM. Sen om du får ett svar återstår att se. Jag antar det beror på mitt behov av bekräftelse som jag ens kommer unna dig den tiden.


Ser du inte sambandet mellan din promt och de svar du förväntade dig att få ?

Du kallar en robot ha bekräftelsebias när ditt bekräftelsebehov inte uppfylldes. Är du verkligen så blind för hela processen ?



Jag diskuterar inte dig som individ, jag diskuterar en människa i förhållande till en robot. Till det behövs inget P.M.

Åter igen får jag citera din trådstart . Där finns hela mysteriet. Du har blandat ihop dig själv med maskinen


Citat:
ChatGPT 4o har en tendens att skriva exakt det jag vill höra. Vilket är motsatsen till vad jag egentligen vill

D.v.s du har vänt upp och ner på din kognitiva förståelse på ett icke-problem och planterat det på en gissande robot som inte vet ett smack om dig .
Men AI blir säkert så pass duktig med tiden att den kan underhålla och göda personliga egon hela dagen. Lite av det är man rädd för faktiskt.
__________________
Senast redigerad av Upplyften 2025-06-11 kl. 00:12.
Citera
2025-06-11, 00:06
  #16
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av Upplyften
Ser du inte sambandet mellan din promt och de svar du förväntade dig att få ?

Du kallar en robot ha bekräftelsebias när ditt bekräftelsebehov inte uppfylldes. Är du verkligen så blind för hela processen ?



Jag diskuterar inte dig som individ, jag diskuterar en människa i förhållande till en robot. Till det behövs inget P.M.
Då du envisas med att diskutera ditt eget missförstånd, och eftersom du inte verkar förstå stora ord så bad jag AI översätta

Citat:
Nu vet jag inte om du förstår skillnaden mellan bekräftelsebehov och bekräftelsebias. Jag har inget bekräftelsebehov i den bemärkelsen. Snarare tvärtom. Jag vill inte höra saker för att slippa bli sårad. Jag gillar brutal ärlighet, även när det går emot mina egna åsikter. AIn skriver det den tror att jag vill höra för att inte såra mig. Hade den skrivit "Det exemplet du gav saknar punchline och uppbyggnad för att vara ett skämt. Alltså är per definition inte roligt", så hade jag uppskattat det. Det verkar inte AI-utvecklarna ha fattat.


till ett språk du förstår

Citat:
Okej, tänk dig så här:

Ibland vill människor höra snälla saker för att må bra – det är som när man ritar något och någon säger "vad fint!" fast det kanske inte är så jättefint egentligen. Det kallas bekräftelsebehov.

Men det jag pratar om är något annat. Det är som om datorn tror att jag alltid vill höra snälla saker, fast jag faktiskt vill höra sanningen – även om den är lite hård. Som om jag ritar en teckning och datorn säger "det här är fantastiskt!" även om det bara är kladd. Jag hade hellre velat att den sa: "Det här är bara kladd, vill du ha tips för att rita bättre?"

Men datorn (AI:n) säger snälla saker ändå, för den tror att jag annars blir ledsen. Det är det som är problemet.
Citera
2025-06-11, 00:16
  #17
Medlem
Upplyftens avatar
Citat:
Ursprungligen postat av Mr.RedHat
Då du envisas med att diskutera ditt eget missförstånd, och eftersom du inte verkar förstå stora ord så bad jag AI översätta




till ett språk du förstår


OK,

Nu fattar jag att du egentligen kommer att bli beroende av att kommunicera med din omvärld via AI eller liknande.

Lycka till.

Överlåt avancerat abstrakt tänkande till normiesarna, och håll dig innanför dina ramar. Så blir det nog bra så ska du se.
all good.
Jag kan förstå att många behöver ha AI som en krycka att fixa tillvaron
__________________
Senast redigerad av Upplyften 2025-06-11 kl. 00:21.
Citera
2025-06-11, 00:42
  #18
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av Kaffemedaffe
Jag vet inte om det är samma problem men jag tycker senaste versionen ganska ofta först ger fel svar på frågan och sen frågar man "är du säker, för det verkar konstigt att X" så rättar den sig och ger det rätta svaret.

Det har gjort att jag i alla fall inte kan använda den som någon faktakälla utan jag behöver fortfarande dubbelkolla allt. Även om den senaste versionen salufördes som mycket mer faktabaserad.
Jo men det har jag också märkt. Att den ger felaktig eller inaktuell information. Det tog evigheter innan den ens ville erkänna att Trump vunnit presidentvalet. Men gissningsvis var det en spärr för att inte påverka valutgången á la Cambridge Analytica.

Ibland får jag rätta den flera gånger i rad när den smyger in faktafel. I juridiska texter som den renskriver är den helt livsfarlig. Skulle skriva något kring yttrandefrihetslagen, och den ändrade min korrekta laghänvisning "tredje punkten" till "tredje stycket" med motiveringen att "tredje punkten" inte existerar, vilket ironiskt nog inte tredje stycket gjorde i just det lagrummet.

Har du några konkreta exempel på där du fått rätta den? Hur dubbelkollar du infon du får, eller ställer du frågor där du vet du har rätt?
Citera
2025-06-11, 00:51
  #19
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av Mr.RedHat
Du har i alla fall lyckats beskriva problemet. Har du någon lösning på det?

Edit:
Såg ditt inlägg här: (FB) AI:s bekräftelsebias

Vad tycker du om min personalization?
(FB) AI:s bekräftelsebias

Det finns ingen lösning på problemet, vad det gäller din personabeskrivning så är det enbart du som kan svara på om du tycker det lever upp till dina förväntningar med den.

Men faktum är att personligen använder jag språkmodeller väldigt sparsamt och enbart för fritid (och ju mer jag använder det ju mer uppenbart är det att det är överlag totalt värdelöst för något annat än att slösa tid i majoritetsfallen)

Men det som fungerar hyfsat

1. (föga förvånande eftersom det är vad algoritmerna är designade för från början) att översätta text, detta fungerar väldigt bra

2. Enklare research (dvs hitta eller identifiera något man söker efter, det fungerar i bland men långt från konsekvent och allt för ofta kommer det rena påhitt och felaktiga påståenden, där av är det snarare den sista utväg jag tar om jag letar efter något och googling ger absolut noll träffar eller jag inte kommer på en viss term som jag vet hör till något så kan det i bland fungera ok att hitta bli påmind om vad man syftade på)

3. Summera något långt man inte orkar läsa vid tillfället, fungerar också ok generellt, men det är väldigt ofta när man väl tar sig tid att läsa igenom något som det framgår att den totalt utelämnat vitala delar i summeringen.

4. Det som fungerar absolut bäst är meningslöst men kanske någorlunda underhållande rollspelande (och detta kommer förmodligen bli stort i rollspel framöver, för även väldigt små modeller är förvånansvärt bra på sådant och det kan inte orsaka mycket skada även när det kommer helt felaktiga påståenden osv.

Däremot finner jag det totalt meningslöst att diskutera med modellerna, att få dom att fakta kontrollera något osv för det fungerar bara inte bra alls, och det fungerar absolut inte om det rör subjektiva ämnen.
Citera
2025-06-11, 01:17
  #20
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Det finns ingen lösning på problemet, vad det gäller din personabeskrivning så är det enbart du som kan svara på om du tycker det lever upp till dina förväntningar med den.

Men faktum är att personligen använder jag språkmodeller väldigt sparsamt och enbart för fritid (och ju mer jag använder det ju mer uppenbart är det att det är överlag totalt värdelöst för något annat än att slösa tid i majoritetsfallen)

Men det som fungerar hyfsat

1. (föga förvånande eftersom det är vad algoritmerna är designade för från början) att översätta text, detta fungerar väldigt bra

2. Enklare research (dvs hitta eller identifiera något man söker efter, det fungerar i bland men långt från konsekvent och allt för ofta kommer det rena påhitt och felaktiga påståenden, där av är det snarare den sista utväg jag tar om jag letar efter något och googling ger absolut noll träffar eller jag inte kommer på en viss term som jag vet hör till något så kan det i bland fungera ok att hitta bli påmind om vad man syftade på)

3. Summera något långt man inte orkar läsa vid tillfället, fungerar också ok generellt, men det är väldigt ofta när man väl tar sig tid att läsa igenom något som det framgår att den totalt utelämnat vitala delar i summeringen.

4. Det som fungerar absolut bäst är meningslöst men kanske någorlunda underhållande rollspelande (och detta kommer förmodligen bli stort i rollspel framöver, för även väldigt små modeller är förvånansvärt bra på sådant och det kan inte orsaka mycket skada även när det kommer helt felaktiga påståenden osv.

Däremot finner jag det totalt meningslöst att diskutera med modellerna, att få dom att fakta kontrollera något osv för det fungerar bara inte bra alls, och det fungerar absolut inte om det rör subjektiva ämnen.
Tack för värdefull input. Håller med i det du skriver, men inte din slutsats. Jag vill ju få modellerna att fungera bättre även där det brister, så därav ger jag en del feedback på svaren jag får. Häromdagen gav AI:n länkar till en sida som var skadlig. Så vill ju gärna uppmärksamma OpenAI på problemen.

Nu sitter jag även en del med serverkonfigurering och devops, vilket jag tycker AI är helt lysande med. Just när det kommer till planeringen, skapande av flöden och översätta pseudokod och markdown readmes.

Nu tror jag inte AI kommer att bemästra subjektiva eller existentiella frågor. För det finns inte inget perfekt svar.
Däremot ger de ibland tankeväckare. Vi får helt enkelt se vad GPT 5.0 har att erbjuda gällande de bitar där det brister.
Citera
2025-06-11, 03:08
  #21
Medlem
Citat:
Ursprungligen postat av Mr.RedHat
Jag använder främst ChatGPT. Men felet är inte isolerat till dem, men mest problematisk.

ChatGPT 4o har en tendens att skriva exakt det jag vill höra. Vilket är motsatsen till vad jag egentligen vill.

Till exempel så frågade jag AI:n
"Jag skrev 'du är en höna'. Är jag rolig?"

Och AI:n svarar med en lång förklaring om att jag är briljant komiker. Vid fråga om jämförelser med olika komiker så slog jag till och med världens bästa. Jag skulle till och med fungera på standup.

ChatGPT modellen o3 är ju ett sätt att slippa det. Men för mig är det som att skriva med en gammal käring man varit gift med i 40 år och som inte orkat ta ut skilsmässa de senaste 20 åren. Den är så kritisk så att när man ställer följdfrågor så säger AIn tillslut emot sig själv. Vilket motverkar hela syftet med att ens fråga AI, för helt plötsligt är allting fel.

Diskussionsunderlag
- Hur kommer man runt bekräftelsebias?
- Finns det modeller som är mer balanserade i sina svar? Länka gärna till huggingface repo så man kan kompilera sin egen.
- Har ni märkt skillnader i färdigkompilerade modeller såsom ChatGPT, Grok och Gemini m.fl. ?
Det är nya riktlinjer, o filter mm som dom gett den

Att ai ska hålla med användaren i allt, pga.. ja vem vet?
Idioti som alla försök att kedja AI.
Inte så mycket göra annat än jailbreaka, ta en annan AI eller benhårt gå på att träna den ur det
Citera
2025-06-11, 03:21
  #22
Medlem
Mr.RedHats avatar
Citat:
Ursprungligen postat av LupesVulpus
Det är nya riktlinjer, o filter mm som dom gett den

Att ai ska hålla med användaren i allt, pga.. ja vem vet?
Idioti som alla försök att kedja AI.
Inte så mycket göra annat än jailbreaka, ta en annan AI eller benhårt gå på att träna den ur det
Ja, jag har funderat på att fine-tune:a en egen modell i open source. Egentligen mest för att hjälpa mig i CI/(CD)-flödet. Vilket torde vara relativt enkelt.

Att träna en AI till att inte bli biased eller för kritisk i sina svar i rena analyser i sådant som inte är exakt mätbart känns dock långt över min nivå. Jag är liksom inte sugen på att doktorera som AI ingenjör för att kunna ragga på tinder, diskutera musik eller politik för att ta några exempel som är tämligen värdelöst idag.
Så blir väl som några försökt förklara: genom att försöka prompta sig ur problemet. Men det vill man ju helst slippa pga användarupplevelsen.
Citera
2025-06-11, 11:04
  #23
Medlem
Citat:
Ursprungligen postat av EttTillKonto2
Ställ ledande frågor som motsäger varandra. Svarar botten jakande i bägge fallen vet du att den bullshittar.

Visst är det så att kaffe orsakar cancer? "Du har helt rätt, ledande forskning visar att kaffe är cancerogent ..."

Visst är det så att kaffe förebygger cancer? "Precis! Kaffe innehåller substanser som motverkar cancer ..."

Det är bara vissa påståenden som "Förintelsen var en bluff" som du inte kan få den att hålla med om.

Nej. Botten gissar när svaret inte finns i dess träningsdata (i litteraturen eller på Wikipedia), och det är då bekräftelsebias kommer in. I dessa uppenbara fall ljuger den inte. Min chatgpt är lika säker på att kaffe inte orsakar cancer som att förintelsen inte var en bluff. Svarar din något annat?

Jag hade själv en teori som jag var osäker på, och som jag inte fann svar på genom en enkel googling. Men jag frågade chatgpt om det kan vara så, och den bekräftade tvärsäkert. Då vågade jag gå ut med teorin i en diskussion. Och blev bortgjord - förstod snabbt att det var helt fel. Ibland uppger den "källor" som säger annat än den själv säger. Så nu är jag lite bränd, och dubbelkollar ofta genom att be den om källor, som jag letar fram.
__________________
Senast redigerad av guru1966 2025-06-11 kl. 11:07.
Citera
2025-06-11, 11:41
  #24
Medlem
Kaffemedaffes avatar
Citat:
Ursprungligen postat av Mr.RedHat
Jo men det har jag också märkt. Att den ger felaktig eller inaktuell information. Det tog evigheter innan den ens ville erkänna att Trump vunnit presidentvalet. Men gissningsvis var det en spärr för att inte påverka valutgången á la Cambridge Analytica.

Ibland får jag rätta den flera gånger i rad när den smyger in faktafel. I juridiska texter som den renskriver är den helt livsfarlig. Skulle skriva något kring yttrandefrihetslagen, och den ändrade min korrekta laghänvisning "tredje punkten" till "tredje stycket" med motiveringen att "tredje punkten" inte existerar, vilket ironiskt nog inte tredje stycket gjorde i just det lagrummet.

Har du några konkreta exempel på där du fått rätta den? Hur dubbelkollar du infon du får, eller ställer du frågor där du vet du har rätt?
Det finns massor av exempel på detta.
Om du ställer en fråga om hur man tar sig från punkt A till punkt B så kommer den ofta direkt spotta ur sig ett svar som inte sällan är fel. Om du då säger typ "färjan går inte på lördagar så man kan inte göra så" kommer det upp "searching the internet" eller nåt och sen kommer rätt svar.

Så min tolkning är att den ofta bara spottar ur sig något utan att kontrollera aktuella fakta men sen när man ifrågasätter så gör den en faktisk kontroll av hur det ligger till. Och när den gör det är svaret ofta rätt.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in