Citat:
Ursprungligen postat av
BeneathTheSurface
Språkmodeller gissar aldrig, de gör exakt samma sak hela tiden och det kräver varken mer eller mindre tid för en modell att svara på en svår eller en lätt fråga, modellen vet inte ens när den inte vet, hade man kunnat avgöra sådant algoritmiskt hade det här med hallucinationer (som bara är ett fint ord för att dölja att det är exakt samma skit som den gör hela tiden) varit löst sedan länge.
Det skrämmer mig att ett flertal inklusive du påstår ni jobbar med AI osv inte förstår ens grundläggande koncept inom maskininlärning.
Ord som "gissar", "resonerar", "förstår", "tänker", "ljuger", "hallicunerar", "omformulerar", "sammanfattar", "översätter", "besvarar" är vanliga beskrivningar av den emergenta effekten av träningen och storskaligheten, inte beskrivningar av hur LLM:ets algoritmer faktiskt ser ut på detaljnivå. Skilj på hög- och lågnivåbeskrivning. På låg nivå är ett LLM bara en stokastisk prediktor av nästa ord, ett ord i taget.
Antag att den bara har tränats med frågor och svar om alla möjliga ämnen. Om jag ställer en liknande fråga som fanns i träningsmaterialet, så blir effekten att den svarar nära det svar den har tränats med. Inte identiskt, utan den kan skriva om med helt andra ord för att ändra språk, stil, längd, undvika upprepningar, mm. Svarsmeningen blir näraliggande i betydelse av det intränade svaret därför att dess "embedding" ligger nära det intränade svarets "embedding" i vektorrummet. (Hoppas jag uttrycker mig korrekt nu.)
Om jag ställer en fråga som istället inte alls fanns med i träningsmaterialet, så kommer svaret att vara påverkat av flera olika meningar i träningsmaterialet. Effekten är att svaret utgör en kombination av flera påståenden. Jag tänker att i vektorrummet ligger svaret mitt emellan några svar på liknande frågor. Svaret är en generalisering. Man kan diskutera om det är en interpolering (eftersom det ligger mitt emellan i vektorrummet) eller en extrapolering.
När jag säger "gissar" menar jag alltså att den ger ett svar på en fråga som i vektorrummet ligger långt ifrån någon av de frågor som fanns i träningsmaterialet. Vad bör jag använda för ord istället? Är "kombinerar", "generaliserar", "interpolerar" eller "extrapolerar" bättre?
Precis som du säger kan LLM:et inte avgöra om svaret i detta fall är sant eller falskt. Eftersom det inte är en databas som har kvar de exakta påståendena i träningsmaterialet så kan den inte jämföra sitt svar med de intränade svaren, och räkna ut hur mycket dess svar skiljer sig från de intränade svaren på liknande frågor. Moderna LLM kan dock använda RAG för att i efterhand söka en webbsida som pratar om samma sak, och uppge den som "källa", men det är inte dess källa, och ibland kan webbsidan säga något annat än LLM:et sa. RAG-sökresultatet kan ibland även påverka svaret, men trots det ljuger den fortfarande ibland. T.ex. om man frågar om något som inte finns sökbart på nätet. Då säger jag att den gissar.