Citat:
Ursprungligen postat av
Enterprise
Ok, ett sätt att ge instruktioner kodat i form att be en mjukvara om “ta djupa andetag”. Så jävla dumt och tarvligt. Nästan dagens dummaste.
Det är på riktigt,
https://arxiv.org/pdf/2309.03409.pdf
Men det har inte så mycket med med vad som skrivs att göra utan fraserna "Take a deep breath" och "think step by step" förekommer i många artiklar som den blivit tränad på så det lobbar in LLMen att med högre sannolikhet hamna på en "sannolikhetskurva" som är bättre lämpad för att besvara ett givet problem.
Det är lättast att tänka på prompten som en form a fuzzy search, ju mer detaljer du kan ge ju exaktare blir träffen.
Och för att tillägga så är det här faktiskt ett bevis på raka motsatsen att modellerna är tänkande eller smarta, det är heller inte någon "golden bullet" som fungerar på allt utan råkar vara fördelaktigt för vissa problem. Hade modellen förstått vad den svarade hade prompten inte behövt masseras för att ge bättre resultat, tyvärr så missförstår majoriteten som läser sådant här som att det är någon hemlig instruktion som får modellen att tänka rationellt eller liknande vilket det inte rör sig om alls. Och det är helt värdelöst att lura in modellen på sådana banor för andra uppgifter som normalt inte innehåller liknande fraser från träningsdatat, hade det funnits en enkel instruktion som förbättrat resultatet på samtliga uppgifter hade självfallet tex OpenAI redan autoapplicerat den på alla prompter.