Citat:
Ok "Skeptiker-kungen", det återstår att se om du är lika "skeptisk" till mänskligheten sedan du läst hela mitt svar. 🙂
Citat:
Attention/uppmärksamhetsmekanismen är en smart konstruktion som gör att ord/tokens relation till varandra kan registreras. Och vad innebär det?
Kortfattat att algoritmiskt så kan man bygga språkliga mallar/templates utifrån analyserad tex.
Kortfattat att algoritmiskt så kan man bygga språkliga mallar/templates utifrån analyserad tex.
Absolut: När jag sett en Youtube video om matematiken bakom uppmärksamhet-huvudena så frågade jag ChatGPT-4 om den verkligen förstod att jag ville betona något genom att sätta kommatecken runt det? Modellen svara snällt att, ja, det gjorde den. Detta visar att det också är lätt att, underskatta, en modell, när man läst hela "facit".
Citat:
Alltså modellen lär sig från tillräckligt med text att ”han gjorde det. Örjan sprang snabbare än någon tidigare” modellen lär sig koppla ihop ”han” och ”Örjan”, ”gjorde” med ”sprang”, ”sprang” med ”snabbare” osv
Det kan ses som magi men det är egentligen inte konstigt, det är _designat_ att fungera som det gör, det visade sig fungera
Det kan ses som magi men det är egentligen inte konstigt, det är _designat_ att fungera som det gör, det visade sig fungera
Hm, jag undrar hur vårt språkcentra fungerar, (Brocas fält och Wernickes fält). Plus att vi är multimodala, (vilket också AI börjar bli). Men du har kanske någon intressant input om detta?
Citat:
men sen helt plötsligt kommer alla möjliga befängda påståenden som inte backas upp med något annat än klyschan ”ingen förstår hur en språkmodell fungerar” och det är sant ur några perspektiv men inte verkan och funktion.
Ja och nej: Vi vet hur en språkmodell fungerar, men om vi håller oss till någorlunda kreativa inställningar av temperatur och Top-P, så kan det vara, svårt att förutsäga output, speciellt om interaktionen sker i en "kontex-rik" chatt-tråd. Det samma gäller om vi, en dag, lyckats med att kartlägga den mänskliga hjärnan helt. Vilken respons en individ ger är så beroende av tidigare inlärning och kontext att man inte kan vara säker på ett förväntat output. Däremot kan man, med hjälp av AI och härnscanning, nu, tolka och kanske även förutsäga(?), mänskligt beteende. Går kanske också att göra om man "tittar in i den svarta lådan" hos AI. Under alla omständigheter så kan man då mixtra med dess output. Men men kan man även göra med elektrisk stimulering av vissa områden i den mänskliga hjärnan. Jag skulle vilja att du tog dig tid att fundera över likheter och skillnader mellan den mänskliga hjärnan och LLM-Transformers i dessa avseenden.
Citat:
Har skrivit det tidigare men de som tror du får något intellektuellt utbyte av att skriva med en modell sysslar med självbedrägeri om än det kan kännas mäktigt med att få medhåll och uppmuntran från dessa, så är det fortfarande en illusion, genomskåda den i stället för att ursäkta dess brister.
Ändå lite imponerande att man måste "genomskåda" en maskin, tycker du inte det också? 🙂 Sedan håller jag alla dörrar öppna: Men är LLM-Transformers, i grunden "dumma som tåget" så bjuder de, i alla fall, på en storartad "underhållning"!
Citat:
Och för att göra det övertydligt, det finns inga ”känslor”, ”förståelse”, ”socialt beteende” osv allt är ett resultat av de mönster din in data matchar, om man så vill det är ett eko av vad en människa en gång skrev som återupplivas.
Intressant: Är inte vi människor också mönsterigenkännande biologiska maskiner, som, i grunden, arbetar med komprimering och generalisering? Om du hänvisar till att vi, egentligen, känner till det. Vad tror du, ytterst, vi har "under huven", "Gud"? Så vi lär oss och interagerar med hänsyn till kontext, och våra känslor, hur avancerad neurologisk grund tror du de har. Är hormoner och neurotransmittor avancerade? Nej det är vårt sociala sammanhang som gör oss avancerade. Och det tror du inte kan hända AI, i framtiden?
Nå, har jag lyckats få dig mera skeptisk till mänskligheten nu? 🙂
__________________
Senast redigerad av Ola Schubert 2024-10-14 kl. 21:17.
Senast redigerad av Ola Schubert 2024-10-14 kl. 21:17.