2024-10-14, 21:15
  #13
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Det som är otäckt är att förståelsen för hur och varför transformers fungerar ”så bra som de gör” verkar helt frånvarande i dessa diskussioner.


Ok "Skeptiker-kungen", det återstår att se om du är lika "skeptisk" till mänskligheten sedan du läst hela mitt svar. 🙂

Citat:
Attention/uppmärksamhetsmekanismen är en smart konstruktion som gör att ord/tokens relation till varandra kan registreras. Och vad innebär det?
Kortfattat att algoritmiskt så kan man bygga språkliga mallar/templates utifrån analyserad tex.

Absolut: När jag sett en Youtube video om matematiken bakom uppmärksamhet-huvudena så frågade jag ChatGPT-4 om den verkligen förstod att jag ville betona något genom att sätta kommatecken runt det? Modellen svara snällt att, ja, det gjorde den. Detta visar att det också är lätt att, underskatta, en modell, när man läst hela "facit".

Citat:
Alltså modellen lär sig från tillräckligt med text att ”han gjorde det. Örjan sprang snabbare än någon tidigare” modellen lär sig koppla ihop ”han” och ”Örjan”, ”gjorde” med ”sprang”, ”sprang” med ”snabbare” osv
Det kan ses som magi men det är egentligen inte konstigt, det är _designat_ att fungera som det gör, det visade sig fungera

Hm, jag undrar hur vårt språkcentra fungerar, (Brocas fält och Wernickes fält). Plus att vi är multimodala, (vilket också AI börjar bli). Men du har kanske någon intressant input om detta?

Citat:
men sen helt plötsligt kommer alla möjliga befängda påståenden som inte backas upp med något annat än klyschan ”ingen förstår hur en språkmodell fungerar” och det är sant ur några perspektiv men inte verkan och funktion.


Ja och nej: Vi vet hur en språkmodell fungerar, men om vi håller oss till någorlunda kreativa inställningar av temperatur och Top-P, så kan det vara, svårt att förutsäga output, speciellt om interaktionen sker i en "kontex-rik" chatt-tråd. Det samma gäller om vi, en dag, lyckats med att kartlägga den mänskliga hjärnan helt. Vilken respons en individ ger är så beroende av tidigare inlärning och kontext att man inte kan vara säker på ett förväntat output. Däremot kan man, med hjälp av AI och härnscanning, nu, tolka och kanske även förutsäga(?), mänskligt beteende. Går kanske också att göra om man "tittar in i den svarta lådan" hos AI. Under alla omständigheter så kan man då mixtra med dess output. Men men kan man även göra med elektrisk stimulering av vissa områden i den mänskliga hjärnan. Jag skulle vilja att du tog dig tid att fundera över likheter och skillnader mellan den mänskliga hjärnan och LLM-Transformers i dessa avseenden.

Citat:
Har skrivit det tidigare men de som tror du får något intellektuellt utbyte av att skriva med en modell sysslar med självbedrägeri om än det kan kännas mäktigt med att få medhåll och uppmuntran från dessa, så är det fortfarande en illusion, genomskåda den i stället för att ursäkta dess brister.

Ändå lite imponerande att man måste "genomskåda" en maskin, tycker du inte det också? 🙂 Sedan håller jag alla dörrar öppna: Men är LLM-Transformers, i grunden "dumma som tåget" så bjuder de, i alla fall, på en storartad "underhållning"!

Citat:
Och för att göra det övertydligt, det finns inga ”känslor”, ”förståelse”, ”socialt beteende” osv allt är ett resultat av de mönster din in data matchar, om man så vill det är ett eko av vad en människa en gång skrev som återupplivas.

Intressant: Är inte vi människor också mönsterigenkännande biologiska maskiner, som, i grunden, arbetar med komprimering och generalisering? Om du hänvisar till att vi, egentligen, känner till det. Vad tror du, ytterst, vi har "under huven", "Gud"? Så vi lär oss och interagerar med hänsyn till kontext, och våra känslor, hur avancerad neurologisk grund tror du de har. Är hormoner och neurotransmittor avancerade? Nej det är vårt sociala sammanhang som gör oss avancerade. Och det tror du inte kan hända AI, i framtiden?

Nå, har jag lyckats få dig mera skeptisk till mänskligheten nu? 🙂
__________________
Senast redigerad av Ola Schubert 2024-10-14 kl. 21:17.
Citera
2024-10-14, 21:23
  #14
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Fast vi vet ju inte i detalj hur medvetande eller komplexa känslor uppstår hos människan. Vi känner till att vissa hjärncenter ger upphov till primitiva känslor som rädsla,(amygdala), vi vet att i kombination med hjärnbarken så kan det resultera i fördomar, (plus att sådan också kan vara socialt inlärt/förhandlat). Vi vet också att vissa basala funktioner sköts av hjärnstamen och de delar av limbiskasystemet som inte interagerar direkt med hjärnbarken eller andra lober. Vi vet också vilka hormoner och signalsubstanser som orsakar övergripande psykiska tillstånd hos oss, men det är "that's it", Viket inte är speciellt imponerande.

Då är det, Iof, inte så konstigt att vi inte alltid kan förklara, exakt, hur det går till när LLM-Transformers spottar ur sig något överraskande. Detta, tros, att vi väl känner till modellernas grundläggande funktionallitet. Kombinationen av :komprimering, generalisering, mönsterigenkänning, en stor "meningsrymd" som vi inte vet, exakt, vad den innehåller, hantering av sannolikheter, (vilket kan regleras utifrån med temperatur-inställningar och top-P inställningar, kontext i aktuell chatt-tråd, vilka förväntningar modellen bedömmer att aktuell användare har, träningen av modellen, begränsningsramar/censur,socialpsykologisk dynamik mellan modell och användsre samt extra funktionalitet som "resonemang tokens", kan ge överrasksnde och förvånadsvärt "mänsklig respons ifrån modellen. Och då talar jag om, dagens, LLM-Transformers.




Visst, men refektiva handlingar och impulser är även en del av en mushjärna, som man planerar att kartlägga och simulera. Den har ungefär 1000 gånger fler neuroner än en fruktflugas hjärna. Kanske kommer man, ändå, att ha 10-20 procent av det jobbet gjort genom att noggrant ha kartlagt en fruktflugas hjärna och simulera den, ännu noggrannare än man gör idag.



Nopp, för nu går man inte direkt ifrån att kartlägga och simulera en fruktflugehjärna till en människohjärna. Man går via en mushjärna som innehåller 800 gånger mindre neuroner än den mänskliga hjärnan. Men kunskapen om en mushjärna exakta funktionssätt och en riktigt bra simulering av den kan göra att 30-50 procent av jobbet med att, exakt kartlägga och simulera en människohjärna bra, ksn vara gjort!

Och nu tillbaka till LLM-Transformers. Det räcker med en ganska grov simulering av den mänskliga hjärnan för att få fram hyfsat bra användbarhet. Det vet vi ju redan. Men tor du utvecklingen kommer att stanna vid det? Det tror inte jag, även fast man, säkert, kommer att lägga till "extra funktionalitet" som gör att det, så småningom, inte dessa modeller kommer att vara LLM-Transformers utan något betydligt mera avancerat. Men som sagt: Även dagens modeller är imponerande, på sitt sätt.

Det mest ambitiösa projektet att simulera en hjärna var project blue brain. Något som gick i stöpet förra året. Det hade då kostat över 2 miljarder.
Finns det något nytt på gång menar du?
Citera
2024-10-14, 21:32
  #15
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Blindpilot
Det mest ambitiösa projektet att simulera en hjärna var project blue brain. Något som gick i stöpet förra året. Det hade då kostat över 2 miljarder.
Finns det något nytt på gång menar du?

Ja, som jag skrivit: Man har redan helt kartlagt och hyfsat simulerat en fruktflugas nervsystem, ca 104 000 neuroner.
Man planerar att kartlägga och simulera en mus nervsystem, 1000 gånger fler neuroner än fruktflugas.

Naturligtvis måste man ta detta steg för steg eftersom en människohjärna innehåller ca 800 gånger fler neuroner än en mushjärna. Men tar man det bara stegvis och tar hjälp av en allt mer kapabel AI så kommer man, tids nog, att ro det hela i land!
Citera
2024-10-14, 22:08
  #16
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Ja, som jag skrivit: Man har redan helt kartlagt och hyfsat simulerat en fruktflugas nervsystem, ca 104 000 neuroner.
Man planerar att kartlägga och simulera en mus nervsystem, 1000 gånger fler neuroner än fruktflugas.

Naturligtvis måste man ta detta steg för steg eftersom en människohjärna innehåller ca 800 gånger fler neuroner än en mushjärna. Men tar man det bara stegvis och tar hjälp av en allt mer kapabel AI så kommer man, tids nog, att ro det hela i land!

Du får gärna länka till dessa nya planer då jag finner ämnet mycket intressant.
Särskilt då jag följde blue brain projektet från start till dess snöpliga mindre graciösa slut.
Citera
2024-10-15, 01:44
  #17
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Blindpilot
Du får gärna länka till dessa nya planer då jag finner ämnet mycket intressant.
Särskilt då jag följde blue brain projektet från start till dess snöpliga mindre graciösa slut.

Här ifrån, också med källförteckningens hjälp, kan du säkert komma vidare:

https://www.hjarnfonden.se/2024/10/banbrytande-karta-over-bananflugans-hjarna/

Annars här ifrån:

https://www.svd.se/a/RzOV6d/karta-over-flugas-hjarna-en-milstolpe
(Kan kräva prenumeration om du inte har "omni mer", vilket jag hur som helst rekommenderar) .
Intressant att fruktflugan, liksom vi, har synsinnet som huvudsinne och att de kunnat simulerat hur en reaktion på lukten av socker sprider sig i en fruktflugehjärna.

En mängd intressant kuriosa om bananflugan och dess betydelse för vetenskapen. Så har man t. ex odlat en stam i i 1500 generationer i totalt mörker. De har fått bättre mörkerseende och bättre luktsinne samt fått känsligare hår på huvudet.
https://svenska.yle.fi/a/7-10005169

Kanske får du också tillgång till Natures artikel, en gång:

https://www.nature.com/articles/d41586-024-03190-y

(Som väl är kan jag mosa bananflugor utan problem, medan jag har viss tvekan att mosa andra, större insekter, fast jag gör det förstås.)
__________________
Senast redigerad av Ola Schubert 2024-10-15 kl. 01:48.
Citera
2024-10-15, 07:04
  #18
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Fast vi vet ju inte i detalj hur medvetande eller komplexa känslor uppstår hos människan. Vi känner till att vissa hjärncenter ger upphov till primitiva känslor som rädsla,(amygdala), vi vet att i kombination med hjärnbarken så kan det resultera i fördomar, (plus att sådan också kan vara socialt inlärt/förhandlat). Vi vet också att vissa basala funktioner sköts av hjärnstamen och de delar av limbiskasystemet som inte interagerar direkt med hjärnbarken eller andra lober. Vi vet också vilka hormoner och signalsubstanser som orsakar övergripande psykiska tillstånd hos oss, men det är "that's it", Viket inte är speciellt imponerande.

Då är det, Iof, inte så konstigt att vi inte alltid kan förklara, exakt, hur det går till när LLM-Transformers spottar ur sig något överraskande. Detta, tros, att vi väl känner till modellernas grundläggande funktionallitet. Kombinationen av :komprimering, generalisering, mönsterigenkänning, en stor "meningsrymd" som vi inte vet, exakt, vad den innehåller, hantering av sannolikheter, (vilket kan regleras utifrån med temperatur-inställningar och top-P inställningar, kontext i aktuell chatt-tråd, vilka förväntningar modellen bedömmer att aktuell användare har, träningen av modellen, begränsningsramar/censur,socialpsykologisk dynamik mellan modell och användsre samt extra funktionalitet som "resonemang tokens", kan ge överrasksnde och förvånadsvärt "mänsklig respons ifrån modellen. Och då talar jag om, dagens, LLM-Transformers.

Det räcker med en ganska grov simulering av den mänskliga hjärnan för att få fram hyfsat bra användbarhet. Det vet vi ju redan. Men tor du utvecklingen kommer att stanna vid det? Det tror inte jag, även fast man, säkert, kommer att lägga till "extra funktionalitet" som gör att det, så småningom, inte dessa modeller kommer att vara LLM-Transformers utan något betydligt mera avancerat. Men som sagt: Även dagens modeller är imponerande, på sitt sätt.
Det jag då undrar är hur du ställer dig till Wolframs åsikt att medvetande är kopplat till tid, att det är något som utvecklas löpande och är beroende av möjligheten att minnas historiska händelser som jaget upplevt? En simulerad hjärna (nåja, hjärnan är mer än bara neuroner) har inget koncept av tid och har ingen historik eller minnen. Dagens AI-modeller har det definitivt inte.

Angående Hintons hypotes om känslor så är det enda jag hittat att han antyder att kognitiva känslor skulle kunna vara möjligt hos AI och hänvisar till en programmerad robot 1972 som han uppfattade gav uttryck för frustration.

Även om jag kan hålla med om att t.ex. GPT-4 "förstår" vad den genererar på någon nivå så kan jag inte hålla med om att det skulle finnas utrymme för något känsloliv. Känslor har helt enkelt inget med språk att göra och är inget som kan extraheras ur enorma mängder text. Känslor som frustration är, för mig, kopplade till ett mål. Något som existerar under den korta tid den bearbetar input och genererar output kommer inte att ha några mål och heller ingen uppfattning om att dessa inte blir uppfyllda.
Citera
2024-10-15, 08:28
  #19
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av Ola Schubert
Ok "Skeptiker-kungen", det återstår att se om du är lika "skeptisk" till mänskligheten sedan du läst hela mitt svar. 🙂



Absolut: När jag sett en Youtube video om matematiken bakom uppmärksamhet-huvudena så frågade jag ChatGPT-4 om den verkligen förstod att jag ville betona något genom att sätta kommatecken runt det? Modellen svara snällt att, ja, det gjorde den. Detta visar att det också är lätt att, underskatta, en modell, när man läst hela "facit".



Hm, jag undrar hur vårt språkcentra fungerar, (Brocas fält och Wernickes fält). Plus att vi är multimodala, (vilket också AI börjar bli). Men du har kanske någon intressant input om detta?



Ja och nej: Vi vet hur en språkmodell fungerar, men om vi håller oss till någorlunda kreativa inställningar av temperatur och Top-P, så kan det vara, svårt att förutsäga output, speciellt om interaktionen sker i en "kontex-rik" chatt-tråd. Det samma gäller om vi, en dag, lyckats med att kartlägga den mänskliga hjärnan helt. Vilken respons en individ ger är så beroende av tidigare inlärning och kontext att man inte kan vara säker på ett förväntat output. Däremot kan man, med hjälp av AI och härnscanning, nu, tolka och kanske även förutsäga(?), mänskligt beteende. Går kanske också att göra om man "tittar in i den svarta lådan" hos AI. Under alla omständigheter så kan man då mixtra med dess output. Men men kan man även göra med elektrisk stimulering av vissa områden i den mänskliga hjärnan. Jag skulle vilja att du tog dig tid att fundera över likheter och skillnader mellan den mänskliga hjärnan och LLM-Transformers i dessa avseenden.



Ändå lite imponerande att man måste "genomskåda" en maskin, tycker du inte det också? 🙂 Sedan håller jag alla dörrar öppna: Men är LLM-Transformers, i grunden "dumma som tåget" så bjuder de, i alla fall, på en storartad "underhållning"!



Intressant: Är inte vi människor också mönsterigenkännande biologiska maskiner, som, i grunden, arbetar med komprimering och generalisering? Om du hänvisar till att vi, egentligen, känner till det. Vad tror du, ytterst, vi har "under huven", "Gud"? Så vi lär oss och interagerar med hänsyn till kontext, och våra känslor, hur avancerad neurologisk grund tror du de har. Är hormoner och neurotransmittor avancerade? Nej det är vårt sociala sammanhang som gör oss avancerade. Och det tror du inte kan hända AI, i framtiden?

Nå, har jag lyckats få dig mera skeptisk till mänskligheten nu? 🙂

Jag förstår inte riktigt vad i din text skulle göra mig skeptisk till mänskligheten, din argumentation är i stort att människor har två ögon, så har även en vaxdocka av en människa därför måste människor på någon nivå vara vaxdockor.

Det finns ingen meningsfull debatt att ha här eftersom det fortfarande inte sjunkit in i dig att hela algoritmen bakom språkmodeller är designad och speciellt konstruerad att göra vad de gör. Du kan kalla det simulering eller emulering om du vill men designen var avsedd att just ”algoritmiskt” knyta ihop språkmönster ursprungligen med hjälp av en encoder och en decoder, Ilya Sutskever upptäckte att halva arkitekturen (enbart decoder) delen kunde generera trams tillräckligt för att effektivt dra igång en av de största scams i världshistorien och komma undan med det.

Mer än så är det egentligen inte, att antropomorfisera det gör varken till eller från annat än att lura sig själv och andra att vi har något vi inte har.
Citera
2024-10-15, 09:28
  #20
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av erkki17
Det jag då undrar är hur du ställer dig till Wolframs åsikt att medvetande är kopplat till tid, att det är något som utvecklas löpande och är beroende av möjligheten att minnas historiska händelser som jaget upplevt? En simulerad hjärna (nåja, hjärnan är mer än bara neuroner) har inget koncept av tid och har ingen historik eller minnen. Dagens AI-modeller har det definitivt inte.

Angående Hintons hypotes om känslor så är det enda jag hittat att han antyder att kognitiva känslor skulle kunna vara möjligt hos AI och hänvisar till en programmerad robot 1972 som han uppfattade gav uttryck för frustration.

Även om jag kan hålla med om att t.ex. GPT-4 "förstår" vad den genererar på någon nivå så kan jag inte hålla med om att det skulle finnas utrymme för något känsloliv. Känslor har helt enkelt inget med språk att göra och är inget som kan extraheras ur enorma mängder text. Känslor som frustration är, för mig, kopplade till ett mål. Något som existerar under den korta tid den bearbetar input och genererar output kommer inte att ha några mål och heller ingen uppfattning om att dessa inte blir uppfyllda.

Stephen Wolframs syn på tid är att den är en återspegling av hur mycket, eller lite, som händer i ruliaden, vilket han nämner i sin TED- föreläsning. Så har du tråkigt därför att det händer så lite så går vekigen tiden långsamt i ditt minimala utsnitt av ruliaden, vilket för oss till känslor och medvetande:

När det gäller medvetande och tid, tror Wolfram att tid inte är något separat från medvetande utan en integrerad del av hur vi upplever världen. Detta innebär att medvetande och perception skulle kunna vara beroende av hur beräkningar i ruliaden förlöper och samspelar med våra hjärnor och upplevelser. Känslor, som t. ex känslan av frustration därför man har tråkigt har ingenting med måluppfyllelse att göra och det gäller de flesta känslor. De är, istället, reaktioner över omständigheter, hinder och möjligheter.

Skulle alla känslor vara kopplade till specifika mål så skulle inga djur kunna ha känslor, vilket vi vet att de har. Detta eftersom måluppfyllelse, i sig, är en rationell ide som vi uppfann under upplysningstiden, eller kanske under antiken, jag är för dålig på filosofi för att veta säkert.

Det är sant att dagens LLM-Transformers saknar minnesfunktion eller bara är utrustade med en primitiv sådan. Men eftersom tid, minnen och känslor kan hänga samman så ser jag inget direkt hinder för att framtida AI med avancerad minnesfunktion, ur det perspektivet, för att framtidens AI skulle kunna vara, såväl medvetet som att ha ett känsloliv. Och hur som helst: Skulle Stephen Wolframs ruliad-hypotes visar sig stämma så är det mesta möjligt om man tänker över vilka enorma möjligheter som då skulle öppna sig, inte minst för avancerad AI.

Wolframs TED-förläsning:

https://youtu.be/fLMZAHyrpyo?si=V-QBFZ0g_DixSg6z
Citera
2024-10-15, 10:10
  #21
Medlem
Redan i TS är skribenten ute på en skör tråd och går. TS kan, som vanligt, inte grundläggande neurologi för att förstå det han ska "simulera". Att jämföra en insekts (fluga, mask osv.) nervknippen med ett däggdjurs (mus) CNS är ju löjeväckande. Bara för att man har lyckats extrahera några signaler från en flugas nervknippen och koppla dessa till vissa beteenden betyder inte att man kan extrahera samma signaler från ett CNS och koppla dessa till samma beteenden. Men mushjärna är lika komplex som en människohjärna (då de bådas CNS är i grunden det samma).

Att studera neuronala system på cellnivå är intressant, men det är också enbart studier. Vi måste förstå och kunna replikera bla. nyanserna i aktionspotentialerna samt hur cellandningen fungerar innan vi kan skapa syntetiska CNS.
Det är omöjligt att få en social AI utifrån några studier på flugor.
Citera
2024-10-15, 11:33
  #22
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av erkki17
Det jag då undrar är hur du ställer dig till Wolframs åsikt att medvetande är kopplat till tid, att det är något som utvecklas löpande och är beroende av möjligheten att minnas historiska händelser som jaget upplevt? En simulerad hjärna (nåja, hjärnan är mer än bara neuroner) har inget koncept av tid och har ingen historik eller minnen. Dagens AI-modeller har det definitivt inte.

Angående Hintons hypotes om känslor så är det enda jag hittat att han antyder att kognitiva känslor skulle kunna vara möjligt hos AI och hänvisar till en programmerad robot 1972 som han uppfattade gav uttryck för frustration.

Även om jag kan hålla med om att t.ex. GPT-4 "förstår" vad den genererar på någon nivå så kan jag inte hålla med om att det skulle finnas utrymme för något känsloliv. Känslor har helt enkelt inget med språk att göra och är inget som kan extraheras ur enorma mängder text. Känslor som frustration är, för mig, kopplade till ett mål. Något som existerar under den korta tid den bearbetar input och genererar output kommer inte att ha några mål och heller ingen uppfattning om att dessa inte blir uppfyllda.
Varför skulle det vara ett tekniskt hinder för ett datorprogram att minnas saker? Minne är ju ett av de huvudsakliga områden som vi människor använder datorer till. Att den ska minnas det vi matar in. SSD kostar i dag ca 1000 kr per TB så vad är problemet?
Citera
2024-10-15, 11:44
  #23
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Varför skulle det vara ett tekniskt hinder för ett datorprogram att minnas saker? Minne är ju ett av de huvudsakliga områden som vi människor använder datorer till. Att den ska minnas det vi matar in. SSD kostar i dag ca 1000 kr per TB så vad är problemet?
Jag pratar inte om att minnas information utan minnen i form av upplevelser, något som kräver en medvetenhet om själva jaget. Sedan var det frågan om tidsuppfattning och hur den spelar in i att minnas sådant man varit med om förut. För en dator är alla minnen något som händer "nu", d.v.s. när den får åtkomst till minnet (informationen).
Citera
2024-10-15, 12:25
  #24
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av erkki17
Jag pratar inte om att minnas information utan minnen i form av upplevelser, något som kräver en medvetenhet om själva jaget. Sedan var det frågan om tidsuppfattning och hur den spelar in i att minnas sådant man varit med om förut. För en dator är alla minnen något som händer "nu", d.v.s. när den får åtkomst till minnet (informationen).
Jo, det förstår jag. Men kan inte olika upplevelser och lärdomar sparas ner t.ex. som dagböcker, eller loggfiler, som sedan kontinuerligt matas in i träningen? Då kan AI:n själv göra en "recall" på sina egna upplevelser från sina dagböcker och loggfiler taggade med #aimemory. Det här låter ju som väldigt basic funktionalitet i ett informationssystem och inte som ett oöverstigligt tekniskt hinder.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in