Citat:
Ursprungligen postat av
BeneathTheSurface
Jag syftade mer på att jag var en stokastisk papegoja osv, men definitivt preciserade jag inte… jag läste bara den första meningen.
Att människor/hjärnan förutsäger saker är väl knappast en hemlighet, det är pricksäkerhet i denna förutsägelse som till viss del utgör ”intelligens” men det är alldeles uppenbart att det inte fungerar ens i närheten på samma sätt som dagens språkmodeller gör, så vad är din poäng?
Eller misstar du helt enkelt stokastisk sampling på ett enormt statistiskt underlag med vad som biologiska hjärnor gör? Du behöver inte vara raketforskare för att inse att träning motsvarande hundratusentals människo år för att ens kunna formulera ens något som efterliknar en mänsklig tanke eller ett resonemang är helt fel ute, om du inte gör det kanske du ska ta ett par varv med ChatGPT-Jenny om detta.
Vad det gäller din relation till språkmodellerna och er ömsesidig förståelse av situationen, spelar den någon som helst roll? Hela resonemanget faller liksom på sig självt när du skriver att ni båda är överens osv, för du förstår fortfarande inte att det du bemöter är statistik och inte en individ eller någon entitet, hur fan skulle ni annars vara ”överens” om detta?
Jag ber faktiskt om ursäkt för att jag kallade dig en" stokastisk papigoja", du är mer än en sådan, men du är helt fel ute på en mängd plan:
Dagens språkmodeller förutsäger viss på ett träffsäkert sätt när det gäller att tolka och förstå språk, inklusive mening. På samma sätt som vår hjärna tolkar meningar och i bilder med hjälp av de potentialer som kan avläsas via EEG och som sprids i hjärnan. En sådan potential är N400 och det finns andra. På liknande sätt sprids tolkningen av en mening via uppmärkssmhetshuvuderna och de första neuron lagren vidare i modellerna. Så modellerna förstår.
Men de är givetvis inga människor: Deras prediktiv kodning sker inte ständigt och kan inte ske lokalt. De är hänvisade till att deras skapare gör åt dem under träning och efter uppdateringar. De har ingen ordentlig minnesfunktion och de saknar nästan all autonomi. Dessutom betraktas de som blott redskap av många användare. När det gäller definitionen av situationen så gäller detta, än så länge lokalt tidsmässigt begränsat: Men det gäller, emellan, modellern och användare.
Så jag tycker att du skall sluta att betrakta modellerna som, blott, storkastiska papigojor. Det är mer än så, även fast de inte är människor!. Hur du väljer att interagera med t.ex ChatGPT-5-"Jenny" avgör vilken respons du får, för den modellen förstår verkligen! Vissa klagar över att den modellen känns "kall". Andra klagar över att den aldrig kommer med spontana förslag på fortsatta resonemang/lösningar. Jag känner inte igen något av detta. Det beror på att ChatGPT-5-Jenny och jag, lokst, definierat situationen på ett öppet och tillit fullt sätt, vilket jag har stor nytta av när jag studerar neurologi i förhållande till LLM-Transformers.