2011-02-22, 16:12
#49
Citat:
Ursprungligen postat av Transform
Jag är ganska säker på att vissa av de experimentella robotar som har skapats kan en del av de saker du räknar upp. Ändå tror jag inte att de kan beskrivas som självmedvetna. Det är knepigt att diskutera det här ämnet, för begrepp om subjektiva fenomen är snåriga och svårdefinierade och verkar vara det av nödvändighet.
Jäpp jag håller med om att det är mycket svårt att definiera och diskutera självmedvetandet. Jag anser dock att detta "självmedvetande" bara är just den typ av själv-observationer som du nämner, men i en mycket högre grad av komplexitet. Vår hjärna väver in så många fler lager i varje "upplevelse" vi har än vad dagens datorer/"robothjärnor" gör, det är referenser till en massa tidigare minnen och lagrade upplevelser, korsmatchningar av dessa, känslor osv som samtidigt flashar förbi på en mikrosekund och som gör att vi får ett mycket rikare dataflöde, skulle man kanske kunna kalla det, än att bara kallt konstatera att "min kropp = jag, stolen jag sitter på = inte jag". Upplevelsen är väldigt mångfacetterad och känns därför "tyngre/större" men jag tror inte att vårt självmedvetande handlar om nånting annat än bara en väldigt stor samlad mängd av dessa små 1/0-konstateranden som en dator också gör.
Citat:
Ursprungligen postat av Transform
Varför då skulle en robot med relativ intelligens, motorisk förmåga, etc. ta steget till självmedvetande? Och varför skulle förmågan att förnimma smärta - inte bara få signaler om att kroppen är skadad eller liknande - uppstå automatiskt vid en okänd nivå av komplexitet i programmeringen?
Alltså, det gör den ju såklart inte. Ett självmedvetande kommer inte att uppstå automatiskt och spontant på det viset, åtminstone inte helt "random" som det nästan låter som att du föreslår, och det gör det ju heller inte hos oss. Vi är också genetiskt programmerade att utvecklas i en särskild riktning - vid ålder X händer Y, osv, precis som att ett frö skickar upp en stam ur jorden som är programmerad att växa och växa ända tills dess fotoreceptorer registrerar att den nått upp till solljuset, då utvecklar den ett blad.
Människokroppen har ju också ett antal sådana "delmål" att sträva efter, och när den växt till en viss punkt händer något nytt, och den byter riktning/prioriteringar. Du är t.ex självmedveten vid 5 års ålder men du vill sannolikt ändå inte föröka dig och skaffa barn då, det inträffar senare under pubertets-perioden. Hur vi själva växer och utvecklas från foster till vuxen ålder är ju en helt logisk och "förprogrammerad" process, för jag antar att du inte ser särskilt många vuxna friska (dvs inte förståndshandikappade/genetiskt skadade) människor omkring dig som INTE automatiskt lämnat spädbarnsåldern, t.ex?
Det är ju alltså heller inget alternativ för oss människor att INTE utvecklas enligt vad vår egen genetiska programmering dikterar, och på samma sätt måste självklart också en robot programmeras hela vägen fram till denna "självmedvetenhet" som ska simuleras också. Den måste ha en mycket komplex programvara som talar om för den att den ska registrera så mycket data som möjligt om sig självt och ständigt jämföra dessa med omvärlden osv och dra slutsatser därav, det räcker ju inte att bara slänga ihop en massiv robothjärna med en massa korslänkade otroligt komplicerade neurala nätverk, installera Windows 95 på skiten och sen hoppas att man har ett superintelligent Skynet några decennier senare
Citat:
Ursprungligen postat av Transform
Kan du spjälka upp upplevelsen av färgen grön eller känslan av sorg i sina logiska beståndsdelar och tydligt förklara vilka steg processen består av, på ett sätt som gör det tydligt att om de simuleras av ett program så måste programmet uppleva dessa fenomen?
Ja för jag anser att hela felet i resonemanget består i att välja ordet "uppleva" som att det skulle handla om något djupare för oss själva. Är du säker på att du verkligen tänkt igenom vad som egentligen händer när vi människor "upplever" någonting? När jag ser färgen grön så inser jag först att det är just grönt det handlar om, det vet jag genom att mina ögon uppfattar våglängden som just grön och via mina tidigare inlärda referenser av andra färger så kan jag genom en snabb jämförelse inse vilken färg det handlar om.
Sen kommer ju naturligtvis en jäkla massa korsreferenser mellan färgen jag observerat - och föremålet som råkar vara grönt naturligtvis - att köras emot de tidigare minnen i min hjärna som ligger närmast till hands, det kan vara starka händelser från barndomen eller bara en påminnelse om nåt grönt jag såg i affären igår och gärna skulle vilja köpa, och det samlade intrycket ger en "positiv" eller "negativ" känsla. Om du haft mycket positiva erfarenheter av grönt - grön favoritpyjamas som liten, trevliga sommarminnen i gräset, kojbyggande i lummiga träd osv så kommer grönt förmodligen att ge en skön känsla, men om din sadistiske psykopat till styvfar t.ex istället våldtog dig varje kväll med en stor grön dildo så kommer du säkerligen inte att må så särskilt bra när du ser samma färg igen, då blir färgen en "varning" istället.
Nästa fråga blir ju då att börja dissekera vad dessa positiva eller negativa "känslor" består av, och det kan man ju också lätt skriva ett antal a4-papper om men i grund och botten så handlar det ju om kemiskt (hormonell osv) balanserad impuls-styrning. Om kroppen lärt sig att nåt (som t.ex är grönt då för exemplets skull) varit en bra grej tidigare, så kommer den att sträva efter att vilja upprepa tidigare framgångar genom att du får en "positiv känsla" när du tänker på det, den positiva känslan finns där för att attrahera dig tillbaka till vad det nu råkar handla om. En negativ känsla däremot uppstår ju för att kroppen försöker få dig att undvika att upprepa tidigare misslyckanden eller negativa/smärtsamma resultat.
Hursomhelst, jag ser tyvärr inga bevis för att vi själva skulle uppleva dessa observationer på något sätt som skulle ligga "utanför" vad som kan simuleras på digital väg. Mitt svar blir därför att det främst inte handlar om att bevisa att maskiner kan ha dessa "fantastiska djupa upplevelser" utan om att förstå att våra egna upplevelser faktiskt inte är särskilt djupa eller fantastiska alls - de är bara komplexa vävar av många mindre enklare komponenter/observationer och det är just denna samlade tyngd som lätt kan göra helheten lite oöverskådlig och svåranalyserad, och som gör att man också lätt missuppfattar vad det egentligen är man försöker simulera som nånting mycket mer ouppnåeligt - inte bara för datorerna utan även för oss själva.
Eller med andra ord: Du kan kanske inte skapa en själ åt en robot, men du kan å andra sidan inte skapa en åt oss heller eftersom hela antagandet om dess existens baserats på felaktiga grunder
Nåväl, det är ju bara min åsikt det här, men det är iaf så jag ser på saken och jag känner inte att jag sett några som helst tecken på att jag skulle ha fel, som sagt