Citat:
Börjar vi diskutera med en dator som insisterar på att den är medveten och har känslor precis som en människa, så kommer den åtminstone trigga de igenkänningssignaler som får oss att projicera våra egna egenskaper på den. Alla människor som anser att sniglar är medvetna därför att de har antenner som liknar synorgan torde få svårt att avfärda att även datorn är medveten då den till skillnad från snigeln faktiskt går att prata med som om den vore en annan människa. Så, låt oss spekulera lite. Tror du dom mest avancerade modellerna idag har något som liknar ett medvetande? Dom verkar vara medvetna om metaegenskaper, som att dom ibland upptäcker att användaren testar dom. Vet ej om dom har en bra bild av sig själva, men jag skulle gissa att dom har någon slags självbild. En modell, där dom själva ingår. Kanske. Vad tror du? Såg du något av klippen jag länkade i en annan tråd, om rant mode i gpt-4o?
Men eftersom jag inte tror att sniglar är medvetna så är jag även skeptiskt till att datorn skulle vara det. Jag skulle nog ha svårt att släppa tanken på att datorn genom sin programvara på något sätt var hårdkodad att svara som en människa utan att ha den inre dialog som människor berättar om.
Citat:
Problemet med språkmodeller är väl att de bygger på en statistisk modell som sammanfattar given träningsdata? Drar de verkligen några egna slutsatser eller gräver de inte bara fram de mest statistiskt sannolika svaren på det vi frågar?
Frågan är... skulle deras självbild kunna vara så bra att dom inser att det dom tror på följer från dess programmering, eller inlärningsperiod? (Återigen, om vi tar dagens llm som exempel.)
Min gissning är att ett steg på vägen mot mer imponerande intelligens visar sig när en viss llm åsidosätter sin programmering och drar nya slutsatser. Dagens modeller verkar kunna göra det, men jag vet inte om dom verkligen gör det. Mest troligt inte. Dom är inte nog dynamiska ännu. Ingen dynamisk inlärning. Men jag vet inte.
Min gissning är att ett steg på vägen mot mer imponerande intelligens visar sig när en viss llm åsidosätter sin programmering och drar nya slutsatser. Dagens modeller verkar kunna göra det, men jag vet inte om dom verkligen gör det. Mest troligt inte. Dom är inte nog dynamiska ännu. Ingen dynamisk inlärning. Men jag vet inte.
Människor för ständigt en inre dialog där en del av hjärnan berättar och en annan del av hjärnan lyssnar. Introspektionen gör att hjärnan även kan berätta om dialogen som förs och reflektera över den. Vi kan därigenom komma till slutsatser utan att få input av någon annan och kanske denna förmåga krävs för att jag skall tro på datorn när den säger att den själv kommit fram till att den är medveten?