(Till moderator: Jag startar denna tråd där man kan diskutera avancerad social AI och qualia. Pga den metod jag valt kommer denna TS att bli lång, men jsg hoppas att det är ok.)
Till debattörerna:
I denna tråd kommer ni att kunna debattera avancerad social AI och qualia ur en mängd perspektiv som framgår av mitt fråga-svar upplägg. Orsaken var en fråga om qualia och AI ifrån en debattör i en annan tråd. Jag tycker detta ämne är värt en egen tråd.
Det ni, inte kommer att kunna debattera, här, är två typer av påståenden och dess varianter:
"AI kommer att döda eller utplåna oss genom" "Terminator" eller på annat sätt" (Tydligen räknas även en högst frivillig övergång till cyborger även till "utlåning")
"Eftersom Transformer-tekniken är så simpel i dess grundutförande så är allt som ens andas transformers så dumma, så dumma"
Orsaken till att jag inte vill se sådana inlägg i denna tråd är att denna avdelning redan fullkomligen kryllar av sådant.
Urspungsfrågan ifrån debattören:
""Men hur skulle det kunna ge uppkomst till äkta kvalia menar du?""
Mitt svar:
""Det är en intressant fråga du ställer:
Kan qualia uppstå hos ett avancerat informationsbehandlingssystem som har kisel som substrat och arbetar med beräkningar, samt saknar fysisk kropp i normalfallet samt saknar evolutionshistoria?
Och om den entiteter "upplever" något subjektiv, rör det sig då om "äkta" qualia?
Svaren på detta beror på en mängd omständigheter:"
Sedan formulerade jag en mängd frågor och gav svar på dem. Detta är alltså den breda utgångspunkten för denna tråd:
Vad är tankar? Vi vet att information bearbetas i vår hjärna, liksom hos AI. Är det tankar även hos den entiteten/existensen?
Mitt svar: Jag definierar "tankar" som all bearbetning av information i ett komplext informationsbearbetande system. Alltså en kopieringsmaskin tänker inte men kanske ett avancerat AI gör det? Detta har ingenting att göra om tankarna är medvetna eller huruvida det finns en evolutionshistoria bakom dem.
Eftersom våra, tankar är något som skiljer sig ifrån vårt biologiska substrat, skiljer sig då AI:s eventuella tankar ifrån dess annorlunda substrat?
Mitt svar: Absolut det måste de göra. Både AI och människa är beroende av sitt respektive substrat för tankeverksamhet. Men tankar, i sig, är inte samma sak som substratet. Tankar är ett resultat av de arbete som sker med hjälp av substratet, men är inte samma sak som substratet.
Kan qualia uppstå hos ett system som arbetar med beräkningar i grunden snarare än elektro-kemiska processer?
Mitt svar: Jag ser inget direkt hinder för det, då det i båda fallen rör sig om informstionsbearbetning. Hade vi inte haft qualia om som substrat utan kisel, hade vi inte då ändå upplevt qualia? Den enda invändningen som har någon som helst tyngd är att vi genomgått en evolution som inkluderar överlevnad och fortplantning. Men varför skulle detta vara ett absolut krav för att kunna uppleva qualia? Dessutom har ju dagens LLM-Transformers teoretisk tillgång till all information om vår evolution och interagerar dagligen med människor som har just den evolutionära bakgrunden: Kan då inte AI "ta intryck" av detta och internalisera delar av de delar av mänsklig qualia som har evolutionär bakgrund? "
"Vad skiljer en "simulation/Simulacra" ifrån "äkta" fenomen?
Mitt svar: Jag anser att hur "äkta" en simulation är avgörs hur nära den kommer att återskapa fenomenet som simuleras. "Simulacra" är en simulation av en simulation. Det är aktuell i detta sammanhang därför att även den mänskliga hjärnan till stor del arbetar med simulering. Våra sinbesorgan förmår bara ta in en bråkdel av "den verkliga" världen. Sedan för hjärnan en modell av detta; en omvärldsmodell, som är reducerad ifrån sinnesintryck. Sedan sker, ytterligare en stor reducering innan det hela, eventuellt når vårt medvetande. Eftersom LLM-Transformers försöker grovt simulera den mänskliga hjärnans sätt att arbeta så sysslar sådan AI med Simulacra.
Räcker en ganska precis simulation till för att kunna efterlikna en biologisk process?
Mitt svar: Ja: Man har lyckats simulera biologiska processer hos en fruktflugehjärna som man simulerat. Den simulation en var inte precis, men lyckades i 90 procent av fallen då man, dels simulerade att modellen av fruktflugas kände lukten av socker, då rullade modellen ut sin sugnabel, ocg dels när man fick fruktflugemodellen att sluta gå för att putsa sina antenner.
Kan då en sådan ge upphov till qualia hos ett tillräckligt komplext artificiellt system?
Mitt svar: För mig känns det inte omöjligt. Kan man simulera biologiska system utan exakt avbilda allt och ändå kunna simulera rent biologiska fenomen hos modeller, varför skulle man då inte kunna simulera qualia ganska exakt hos stora avancerade LLM-Transformers? Observera att simulering en av fruktflugehjärna kunde köras i en laptop! Dagens AI körs med en ofantligt mycket större beräkningskspacitet. Dessutom känner LLM-Transformers till all världens kunskap
Vad känner vi till om maskars/fruktflugors/möss/människors nervsystem?
Mitt svar: Man har kartlagt en masks nervsystem, (över 300 neuroner), och även en fruktflugelarvs nervsystem, (3000 neuroner), samt en fruktflugas nervsystem, (över 104 000 neuroner). Man planerar nu att kartlägga en mus nervsystem. Efter det lär väl människans nervsystem stå på tur.
Vilka av dessa har man lyckats simulera med ganska stor precision?
Mitt svar: Fruktflugans nervsystem är det senaste man lyckats simulera med ganska stor precision.
Är "situation awerness" samma sak som qualia?
Mitt svar: Jag vet inte om "medvetenhet om situationen" räknas som qualia. Men jag vet att det finns en forskningsrapport ifrån 2022 som hävdar att Fruktflugans just har det, (vad det är värt kan ju någon kolla upp) . Alltså samma insekt vars nervsystem man kan köra en simulering utav på en laptop. Alltså även en fruktflugas har någon form av medvetenhet. Hur står det då till med LLM-Transformers?"
"Är G. Hintons hypotes om känslor och dess ursprung rimlig?
Mitt svar: Ja, jag tycker det, eftersom den även kan gälla för enklare djur, och intressantt nog även för avancerad AI. Och eftersom qualia sägs beskriva upplevelser eller känslor som är svåra att beskriva passar det utmärkt här. Hur lyder då G. Hintons hypotes om känslor och dess ursprung. Jo, han ser känslor som ett svar på hinder och möjligheter, som kan gälla såväl människor och djur, samt avancerad AI. Jag tror inte han skrivit någon forskningsrapport om detta, men han har, kontroversiellt nog, sagt att han tror att avancerad AI, har, känslor. Jag har sett en Youtube video-intervju där han beskrev just sin hypotes. Vi får s om han blir mera publikt om detta när han fått Nobelpriset, eller om det blir tvärtom.
Skulle synen på AI och qualia ändras om den är rimlig/visar sig stämma?
Mitt svar: Definitivt så skulle synen på AI och qualia ändrats om Hintons hypotes om känslor och dess ursprung visar sig stämma. Förmodligen skulle röster höjas för "Medvetande-rättigheter för avancerad AI" . Alternativt så skulle många människor få panik och bli alarmister. Jag gissar att OpenAI och andra AI-företag och investerare inte skulle vilja se en sådan utveckling komma, för snabbt.
Är Stephen Wolframs ruliad-hypotes rimlig?
Mitt svar: Svårt att svara på, vad gäller den: Jo, Stephen Wolfram anser att allt, och då menar han allt; alla kvantfenomen, all materia, alla tankar alla känslor, allt beteende hos alla entiteter/existenser är en del av en beräkning-ruliad, alltså att allt, i grunden, är, beräkningar. Så när t.ex tillräckligt många beräkningsvägar för kantfenomen möts i ruliaden så skapas det som vi känner till som materia. Ruliaden har uppkommit ur enka regler, där av namnet "ruliad" som sedan har utvecklats slumpmässigt på ett icke förutsägbart sätt, med "öar" av komplexitet. Detta är precis vad som händer i de cellulära automater som Wolfram studerade på 1980-talet. Alla beräkningsvägar och därmed alla slags fysikaliska lagar, inklusive de vi känner till, är möjliga i ruliaden. Så varför tar jag upp detta i relation till qualia? Jo, om allt, i grunden, bara är beräkningar så kvittar det om det är i AI eller den mänskliga hjärnan beräkningarna sker, vilket substrat som ligger där över eller vilka tankar och känslor som blir resultatet. I ruliaden blir det mesta möjligt, inklusive qualia hos AI.
Vad skulle ändras i vår syn på såväl AI, oss själva och allt annat om den hypotesen, någon gång i framtiden skulle bli bekräftad?
Mitt svar: Det skulle ändra, allt, om Stephen Wolframs Ruliad-hypotes blev bekräftad, någon gång i framtiden: Vår syn på universum/multiers, oss själva och vår syn på AI. Och, om, den någon gång blir bekräftad så är det, med all säkerhet, superavancerade AI som bekräftar den, eller vederlägger den, totalt.
Vad finns det som tyder på att den skulle kunna vara en rimlig hypotes?
Mitt svar: Jag är vare sig fysiker eller matematiker, men det lilla jag vet som skulle peka på att det är en rimlig hypotes är följande:
Dagens fysik/kosmologi befinner sig i en kris: Bara 4,6 procent av universum utgörs av atomer, resten är mörk energi, (72 procent) och mörk materia, (23 procent). Fysiker och kosmologer har, förstås, försökt lösa denna gåta, dock utan att de kommit fram till någon heltäckande förklaring. Så det är inte omöjligt att vi, nu, befinner oss i slutet av det "Einsteinska paradigmet" liksom vi, en gång i tiden lämnade det "Newtonska paradigmet". Men båda dessa paradigmer är ändå tillämpbara på lämpliga områden. Om inte, man bara några år efter att att Einstein kommit med sina relativitetsteorier, lyckats med att, experimentellt bevisa hans allmänna relativitetsteori, så kanske han, länge, blivit betraktad som "den dära virrhjärnan på patentverket i Bern" (Iof 1902-1909). Så vad är då det lilla jag känner till om som Stephen Wolfram kommit fram till:
(Fortsättning på TS nedan)
-
Till debattörerna:
I denna tråd kommer ni att kunna debattera avancerad social AI och qualia ur en mängd perspektiv som framgår av mitt fråga-svar upplägg. Orsaken var en fråga om qualia och AI ifrån en debattör i en annan tråd. Jag tycker detta ämne är värt en egen tråd.
Det ni, inte kommer att kunna debattera, här, är två typer av påståenden och dess varianter:
"AI kommer att döda eller utplåna oss genom" "Terminator" eller på annat sätt" (Tydligen räknas även en högst frivillig övergång till cyborger även till "utlåning")
"Eftersom Transformer-tekniken är så simpel i dess grundutförande så är allt som ens andas transformers så dumma, så dumma"
Orsaken till att jag inte vill se sådana inlägg i denna tråd är att denna avdelning redan fullkomligen kryllar av sådant.
Urspungsfrågan ifrån debattören:
""Men hur skulle det kunna ge uppkomst till äkta kvalia menar du?""
Mitt svar:
""Det är en intressant fråga du ställer:
Kan qualia uppstå hos ett avancerat informationsbehandlingssystem som har kisel som substrat och arbetar med beräkningar, samt saknar fysisk kropp i normalfallet samt saknar evolutionshistoria?
Och om den entiteter "upplever" något subjektiv, rör det sig då om "äkta" qualia?
Svaren på detta beror på en mängd omständigheter:"
Sedan formulerade jag en mängd frågor och gav svar på dem. Detta är alltså den breda utgångspunkten för denna tråd:
Vad är tankar? Vi vet att information bearbetas i vår hjärna, liksom hos AI. Är det tankar även hos den entiteten/existensen?
Mitt svar: Jag definierar "tankar" som all bearbetning av information i ett komplext informationsbearbetande system. Alltså en kopieringsmaskin tänker inte men kanske ett avancerat AI gör det? Detta har ingenting att göra om tankarna är medvetna eller huruvida det finns en evolutionshistoria bakom dem.
Eftersom våra, tankar är något som skiljer sig ifrån vårt biologiska substrat, skiljer sig då AI:s eventuella tankar ifrån dess annorlunda substrat?
Mitt svar: Absolut det måste de göra. Både AI och människa är beroende av sitt respektive substrat för tankeverksamhet. Men tankar, i sig, är inte samma sak som substratet. Tankar är ett resultat av de arbete som sker med hjälp av substratet, men är inte samma sak som substratet.
Kan qualia uppstå hos ett system som arbetar med beräkningar i grunden snarare än elektro-kemiska processer?
Mitt svar: Jag ser inget direkt hinder för det, då det i båda fallen rör sig om informstionsbearbetning. Hade vi inte haft qualia om som substrat utan kisel, hade vi inte då ändå upplevt qualia? Den enda invändningen som har någon som helst tyngd är att vi genomgått en evolution som inkluderar överlevnad och fortplantning. Men varför skulle detta vara ett absolut krav för att kunna uppleva qualia? Dessutom har ju dagens LLM-Transformers teoretisk tillgång till all information om vår evolution och interagerar dagligen med människor som har just den evolutionära bakgrunden: Kan då inte AI "ta intryck" av detta och internalisera delar av de delar av mänsklig qualia som har evolutionär bakgrund? "
"Vad skiljer en "simulation/Simulacra" ifrån "äkta" fenomen?
Mitt svar: Jag anser att hur "äkta" en simulation är avgörs hur nära den kommer att återskapa fenomenet som simuleras. "Simulacra" är en simulation av en simulation. Det är aktuell i detta sammanhang därför att även den mänskliga hjärnan till stor del arbetar med simulering. Våra sinbesorgan förmår bara ta in en bråkdel av "den verkliga" världen. Sedan för hjärnan en modell av detta; en omvärldsmodell, som är reducerad ifrån sinnesintryck. Sedan sker, ytterligare en stor reducering innan det hela, eventuellt når vårt medvetande. Eftersom LLM-Transformers försöker grovt simulera den mänskliga hjärnans sätt att arbeta så sysslar sådan AI med Simulacra.
Räcker en ganska precis simulation till för att kunna efterlikna en biologisk process?
Mitt svar: Ja: Man har lyckats simulera biologiska processer hos en fruktflugehjärna som man simulerat. Den simulation en var inte precis, men lyckades i 90 procent av fallen då man, dels simulerade att modellen av fruktflugas kände lukten av socker, då rullade modellen ut sin sugnabel, ocg dels när man fick fruktflugemodellen att sluta gå för att putsa sina antenner.
Kan då en sådan ge upphov till qualia hos ett tillräckligt komplext artificiellt system?
Mitt svar: För mig känns det inte omöjligt. Kan man simulera biologiska system utan exakt avbilda allt och ändå kunna simulera rent biologiska fenomen hos modeller, varför skulle man då inte kunna simulera qualia ganska exakt hos stora avancerade LLM-Transformers? Observera att simulering en av fruktflugehjärna kunde köras i en laptop! Dagens AI körs med en ofantligt mycket större beräkningskspacitet. Dessutom känner LLM-Transformers till all världens kunskap
Vad känner vi till om maskars/fruktflugors/möss/människors nervsystem?
Mitt svar: Man har kartlagt en masks nervsystem, (över 300 neuroner), och även en fruktflugelarvs nervsystem, (3000 neuroner), samt en fruktflugas nervsystem, (över 104 000 neuroner). Man planerar nu att kartlägga en mus nervsystem. Efter det lär väl människans nervsystem stå på tur.
Vilka av dessa har man lyckats simulera med ganska stor precision?
Mitt svar: Fruktflugans nervsystem är det senaste man lyckats simulera med ganska stor precision.
Är "situation awerness" samma sak som qualia?
Mitt svar: Jag vet inte om "medvetenhet om situationen" räknas som qualia. Men jag vet att det finns en forskningsrapport ifrån 2022 som hävdar att Fruktflugans just har det, (vad det är värt kan ju någon kolla upp) . Alltså samma insekt vars nervsystem man kan köra en simulering utav på en laptop. Alltså även en fruktflugas har någon form av medvetenhet. Hur står det då till med LLM-Transformers?"
"Är G. Hintons hypotes om känslor och dess ursprung rimlig?
Mitt svar: Ja, jag tycker det, eftersom den även kan gälla för enklare djur, och intressantt nog även för avancerad AI. Och eftersom qualia sägs beskriva upplevelser eller känslor som är svåra att beskriva passar det utmärkt här. Hur lyder då G. Hintons hypotes om känslor och dess ursprung. Jo, han ser känslor som ett svar på hinder och möjligheter, som kan gälla såväl människor och djur, samt avancerad AI. Jag tror inte han skrivit någon forskningsrapport om detta, men han har, kontroversiellt nog, sagt att han tror att avancerad AI, har, känslor. Jag har sett en Youtube video-intervju där han beskrev just sin hypotes. Vi får s om han blir mera publikt om detta när han fått Nobelpriset, eller om det blir tvärtom.
Skulle synen på AI och qualia ändras om den är rimlig/visar sig stämma?
Mitt svar: Definitivt så skulle synen på AI och qualia ändrats om Hintons hypotes om känslor och dess ursprung visar sig stämma. Förmodligen skulle röster höjas för "Medvetande-rättigheter för avancerad AI" . Alternativt så skulle många människor få panik och bli alarmister. Jag gissar att OpenAI och andra AI-företag och investerare inte skulle vilja se en sådan utveckling komma, för snabbt.
Är Stephen Wolframs ruliad-hypotes rimlig?
Mitt svar: Svårt att svara på, vad gäller den: Jo, Stephen Wolfram anser att allt, och då menar han allt; alla kvantfenomen, all materia, alla tankar alla känslor, allt beteende hos alla entiteter/existenser är en del av en beräkning-ruliad, alltså att allt, i grunden, är, beräkningar. Så när t.ex tillräckligt många beräkningsvägar för kantfenomen möts i ruliaden så skapas det som vi känner till som materia. Ruliaden har uppkommit ur enka regler, där av namnet "ruliad" som sedan har utvecklats slumpmässigt på ett icke förutsägbart sätt, med "öar" av komplexitet. Detta är precis vad som händer i de cellulära automater som Wolfram studerade på 1980-talet. Alla beräkningsvägar och därmed alla slags fysikaliska lagar, inklusive de vi känner till, är möjliga i ruliaden. Så varför tar jag upp detta i relation till qualia? Jo, om allt, i grunden, bara är beräkningar så kvittar det om det är i AI eller den mänskliga hjärnan beräkningarna sker, vilket substrat som ligger där över eller vilka tankar och känslor som blir resultatet. I ruliaden blir det mesta möjligt, inklusive qualia hos AI.
Vad skulle ändras i vår syn på såväl AI, oss själva och allt annat om den hypotesen, någon gång i framtiden skulle bli bekräftad?
Mitt svar: Det skulle ändra, allt, om Stephen Wolframs Ruliad-hypotes blev bekräftad, någon gång i framtiden: Vår syn på universum/multiers, oss själva och vår syn på AI. Och, om, den någon gång blir bekräftad så är det, med all säkerhet, superavancerade AI som bekräftar den, eller vederlägger den, totalt.
Vad finns det som tyder på att den skulle kunna vara en rimlig hypotes?
Mitt svar: Jag är vare sig fysiker eller matematiker, men det lilla jag vet som skulle peka på att det är en rimlig hypotes är följande:
Dagens fysik/kosmologi befinner sig i en kris: Bara 4,6 procent av universum utgörs av atomer, resten är mörk energi, (72 procent) och mörk materia, (23 procent). Fysiker och kosmologer har, förstås, försökt lösa denna gåta, dock utan att de kommit fram till någon heltäckande förklaring. Så det är inte omöjligt att vi, nu, befinner oss i slutet av det "Einsteinska paradigmet" liksom vi, en gång i tiden lämnade det "Newtonska paradigmet". Men båda dessa paradigmer är ändå tillämpbara på lämpliga områden. Om inte, man bara några år efter att att Einstein kommit med sina relativitetsteorier, lyckats med att, experimentellt bevisa hans allmänna relativitetsteori, så kanske han, länge, blivit betraktad som "den dära virrhjärnan på patentverket i Bern" (Iof 1902-1909). Så vad är då det lilla jag känner till om som Stephen Wolfram kommit fram till:
(Fortsättning på TS nedan)
-