Vinnaren i pepparkakshustävlingen!
2016-07-22, 14:30
  #1
Medlem
David Chalmers definierar the hard problem of consciousness som problemet med att förklara upplevelse. Om en dator programmerades till att tänka som en människa skulle den bli en filosofisk zombie, som säger sig tro att den är en tänkande människa, men som saknar förmåga att uppleva som en människa gör.

Daniel Dennet menar att problemet inte existerar. Människans självbild kan liknas vid en illusion där hjärnan tror det den är konstruerad att tro. Och tror den att den känner upplevelse så gör den det, oavsett fakta. Det finns då inget principiellt hinder för att programmera en dator som känner likadant och det ena medvetandet kommer inte att vara mer äkta än det andra.

Själv tycker jag som Dennet att det är ett icke-problem. Den dagen vi kan programmera datorer till att förstå som en människa förstår, så skulle det vara ett tämligen litet ingrepp att hårdkoda en känsla av upplevelse.

Vad är argumentet emot detta?
Citera
2016-07-22, 20:39
  #2
Medlem
starke_adolfs avatar
Jag skulle vilja påstå att vi inte vet vilken natur upplevelsen har och därför inte kan bekräfta eller förkasta huruvida en känsla av upplevelse har uppnåtts. Vi vet inte vad en upplevelse är och kan därför inte dra några slutsatser om det är möjligt att hårdkoda en upplevelse eller inte, innan dess vi vet vad det är.

Dennets hypotes låter lite ad hoc. Vad finns det för grund till att anta att "människans självbild kan liknas vid en illusion där hjärnan tror det den är konstruerad att tro"?

Ligger upplevelser utanför den språkliga ramen? Går det ens att beskriva och i förlängningen koda en upplevelse?
Citera
2016-07-22, 21:15
  #3
Medlem
Citat:
Ursprungligen postat av starke_adolf
Jag skulle vilja påstå att vi inte vet vilken natur upplevelsen har och därför inte kan bekräfta eller förkasta huruvida en känsla av upplevelse har uppnåtts. Vi vet inte vad en upplevelse är och kan därför inte dra några slutsatser om det är möjligt att hårdkoda en upplevelse eller inte, innan dess vi vet vad det är.
Jag tolkar det som att det är en del av Dennets kritik, att upplevelsen är något subtilt och svårdefinierat och att alla slingrar sig när man ber dem precisera sig.

I vetenskapen har den enklaste förklaringsmodellen företräde. Varför kan man då inte nöja sig med att upplevelsen är en illusion istället för att dra in nya magiska naturlagar som inte behövs till något annat, om man ändå inte kan sätta fingret på varför så skulle behövas?
Citat:
Dennets hypotes låter lite ad hoc. Vad finns det för grund till att anta att "människans självbild kan liknas vid en illusion där hjärnan tror det den är konstruerad att tro"?
Han har en mängd exempel, ofta i form av bilder, som demonstrerar att hjärnan ofta lurar sig själv därför att det är enklast för den att göra så.

Typfallet är att vi har en fullständigt inkomplett sinnesbild av något vi tänker på. Istället för att lägga energi på att måla upp en komplett bild med detaljer, så räcker det att hjärnan intalar sig själv att bilden är komplett med detaljer. Vi märker ändå ingen skillnad. Det är först om en person i omgivningen frågar om detaljerna som vi inser att vi inte har fyllt i dem ännu. Vår egen hjärna har helt enkelt inget incitament att avslöja bluffen.

Dennet jämför med en illusionist som sågar en dam i två delar. Naturligtvis gör han aldrig det, han får oss bara att tro att vi ser honom göra det. Och för illusionisten är det mycket enklare än om han skulle tvingas göra det på riktigt. Vi märker ju ändå ingen skillnad.
Citat:
Ligger upplevelser utanför den språkliga ramen? Går det ens att beskriva och i förlängningen koda en upplevelse?
Upplevelse räknas som qualia, dvs. sinnesintryck likt rött eller blått som inte fullständigt kan beskrivas i ord. Men jag tror inte heller att en självreflekterande dator skulle kunna beskriva vad som händer när den får ett interrupt och bilden från en webkamera skrivs in som en jpeg-kodad bitström i minnet. Inte utan att interrupt-rutinen är tillgänglig för det självreflekterande programmet.
Citera
2016-07-22, 22:12
  #4
Medlem
Citat:
Ursprungligen postat av starke_adolf
Ligger upplevelser utanför den språkliga ramen? Går det ens att beskriva och i förlängningen koda en upplevelse?
Skall man få en dator att tänka som en människa så måste man nog programmera den med den mänskliga hjärnan som modell.

Det mänskliga medvetandet har bara tillgång till abstraktioner, inte till hårdvaran i form av enskilda neuroners tillstånd eller rådata i form av pixlarna som ögonen ser. Medvetandet ser bara objekt, mönster och strukturer, utan att ha en blekaste aning om att ögonen ser något helt annat som sedan bearbetats på vägen genom tre eller fyra hjärncentra. Minnet är associativt, så ser vi ett bord så kan vi beskriva det som en skiva med fyra ben. Men är bordet rött så kan vi inte beskriva det i form av något annat, då vi inte ser rött som en blandning av andra färger. I en associativ modell kan inte allt beskrivas i form av något annat. Det måste finnas vissa startpunkter (rotnoder) som är fördefinierade. Vi kan kalla dessa rotnoder för qualia och rött är en sådan rotnod.

En traditionell dator som kör ett maskinnära program kommer att se ett numeriskt adresserat minne med numeriska värden. I RGB-färgrymden har rött färgkoden 0x00FF0000, och naturligtvis kan en röd pixel skickas från en dator och läsas av en annan dator med bibehållen betydelse. Men ett intelligent självreflekterande program som skall efterlikna den mänskliga hjärnan kan inte att ha en maskinnära data och abstraktionsmodell, eftersom hjärnan den skall efterlikna inte har tillgång till de enskilda neuronernas tillstånd. Programmet behöver byggas upp av associativa abstraktioner, visserligen implementerade som hashmappar på maskinnära minne, men algoritmerna kan bara få tillgång till den abstrakta associativa funktionaliteten. Rött kommer att vara ett fördefinierat värde som för algoritmerna utgör en obeskrivbar rotnod. För programmets medvetande kommer rött att vara qualia på samma sätt som det är för vårt medvetande. Skillnaden mellan datorn och människan finns bara så länge abstraktionsmodellerna skiljer, men abstraktionsmodellerna kräver inte att vi använder den ena eller den andra hårdvaran.
Citera
2016-07-23, 00:52
  #5
Medlem
Citat:
Ursprungligen postat av WbZV
David Chalmers definierar the hard problem of consciousness som problemet med att förklara upplevelse. Om en dator programmerades till att tänka som en människa skulle den bli en filosofisk zombie, som säger sig tro att den är en tänkande människa, men som saknar förmåga att uppleva som en människa gör.

Daniel Dennet menar att problemet inte existerar. Människans självbild kan liknas vid en illusion där hjärnan tror det den är konstruerad att tro. Och tror den att den känner upplevelse så gör den det, oavsett fakta. Det finns då inget principiellt hinder för att programmera en dator som känner likadant och det ena medvetandet kommer inte att vara mer äkta än det andra.

Själv tycker jag som Dennet att det är ett icke-problem. Den dagen vi kan programmera datorer till att förstå som en människa förstår, så skulle det vara ett tämligen litet ingrepp att hårdkoda en känsla av upplevelse.

Vad är argumentet emot detta?

Filosofi är full av professionella ordbajsare och Dan Dennett är en utav de. Inser inte folk att en förklaring som grundar sig i att det är en illusion, inte förklarar varför en illusion - i så fall - upplevs?
Du är tillbaka till ruta ett och du förstår inte det!
Jag vet att folk i allmänhet tyr sig till förklaringsmodeller som slutar i logiska cirklar, för så har man gjort i tusentals år, främst då religioner men säkert också annat.
Jag tror det kan vara en tänkvärd tanke för dig.
Citera
2016-07-23, 03:10
  #6
Medlem
Citat:
Ursprungligen postat av AdamVanDoom
Filosofi är full av professionella ordbajsare och Dan Dennett är en utav de. Inser inte folk att en förklaring som grundar sig i att det är en illusion, inte förklarar varför en illusion - i så fall - upplevs?
Du är tillbaka till ruta ett och du förstår inte det!
Jag vet att folk i allmänhet tyr sig till förklaringsmodeller som slutar i logiska cirklar, för så har man gjort i tusentals år, främst då religioner men säkert också annat.
Jag tror det kan vara en tänkvärd tanke för dig.
Hur vet du att du själv inte är en zombie? Skulle du känna annorlunda då?

Jag antar att du utgår ifrån något form av dualism. Att din hjärna är hårdvaran och att dina tankar är ett lager ovanpå. Om du istället utgår ifrån att din hjärna också är maskinen som tänker åt dig och att den tänker att du upplever, då blir det din övertygelse. Hade den istället tänkt att du var ett träd så hade du varit övertygad om det istället.
Citera
2016-07-23, 13:09
  #7
Medlem
Överliggarens avatar
Citat:
Ursprungligen postat av WbZV
Själv tycker jag som Dennet att det är ett icke-problem. Den dagen vi kan programmera datorer till att förstå som en människa förstår, så skulle det vara ett tämligen litet ingrepp att hårdkoda en känsla av upplevelse.

Vad är argumentet emot detta?

Är det inte exakt där problemet ligger? Hur gör du för att hårdkoda en känsla?

Sjäv har jag svårt att begripa hur Daniel Dennet ens resonerar...
Citera
2016-07-23, 13:23
  #8
Medlem
Överliggarens avatar
Citat:
Ursprungligen postat av WbZV
Rött kommer att vara ett fördefinierat värde som för algoritmerna utgör en obeskrivbar rotnod. För programmets medvetande kommer rött att vara qualia på samma sätt som det är för vårt medvetande.

Jag håller inte med. Det är skillnad på ett konkret något (och vad jag kallar) "markören" för något. Tänk dig en pistol som ska avlossas. I ena fallet har du en riktig revolver som smäller, blixtrar och avger lukten av svartkrut när gasexpansionen får kulan att flyga iväg. I det andra fallet har du en leksakspistol som rullar ner en liten flagga med texten: "Pang!" på.

Dataprogrammet är fullt nöjt med det senare som "rotnod". Det behöver bara en liten markör, en flagga för att utlösa den fortsatta algoritmen.

Vad du skapar med din intelligenta hjärndator är bara ett kinesiskt rum. Inte på något vis ett medvetande...

https://en.wikipedia.org/wiki/Chinese_room
__________________
Senast redigerad av Överliggaren 2016-07-23 kl. 13:46.
Citera
2016-07-23, 13:47
  #9
Medlem
Citat:
Ursprungligen postat av Överliggaren
Är det inte exakt där problemet ligger? Hur gör du för att hårdkoda en känsla?
Vi kommer ju inte ifrån att vi först måste skriva ett datorprogram som kan tänka i abstraktioner likt en människa. Jag påstår inte att det skulle vara en lätt uppgift.

Givet att jag har en fungerande abstraktionsmodell så finns det en abstraktion som representerar rött. Det behövs också semantiska regler (inlärda och hårdkodade) som sammankopplar abstraktioner, så att när jag ser rött så aktiveras med automatik andra abstraktioner i den mentala modellen.

Det hela handlar om att acceptera att våra tankar inte lever sitt eget liv i en extra dimension, utan är fysiska tillstånd som arrangeras av hjärnan. Vi vet inte att vi upplever. Vi vet att vi tänker att vi upplever. Är den tanken hårdkodad så tänker vi att vi upplever oavsett hur det faktiskt förhåller sig. Och jag är fullt lycklig med det, för jag kan ändå inte känna någon skillnad.
Citat:
Ursprungligen postat av Överliggaren
Jag håller inte med. Det är skillnad på ett konkret något (och vad jag kallar) "markören" för något. Tänk dig en pistol som ska avlossas. I ena fallet har du en riktig revolver som smäller, blixtrar och avger lukten av svartkrut när gasexpansionen får kulan att flyga iväg. I det andra fallet har du en leksakspistol som rullar ner en liten flagga med texten: "Pang!" på. Dataprogrammet är fullt nöjt med det senare. Det behöver bara en liten markör, en flagga för att utlösa den fortsatta algoritmen.
Vad som triggar algoritmen väljer jag som programmerare. Det finns inget skäl till att det inte skulle gå att kräva en kombination av villkor för att utlösa en viss reaktion. Typ "if a>2 and b<3 and c<4 then foo()".
Citat:
Vad du skapar med din intelligenta hjärndator är bara ett kinesiskt rum. Inte på något vis ett medvetande...

https://en.wikipedia.org/wiki/Chinese_room
Jag tycker John Searle har en infantil syn på datorer, kanske han växte upp med hålkortsmaskiner och tror att vi är kvar på den nivån. En dators grindar är precis som människans neuroner. Likt myror som bygger en stack vet de inte vad, hur eller varför de gör vad de gör. Det är inget hinder för att bygga högre abstraktionsnivåer ovanpå det dumma fundamentet, så att varje lager kan lite mer än lagret under.
Citera
2016-07-23, 14:35
  #10
Medlem
Överliggarens avatar
Citat:
Ursprungligen postat av WbZV
Vi kommer ju inte ifrån att vi först måste skriva ett datorprogram som kan tänka i abstraktioner likt en människa. Jag påstår inte att det skulle vara en lätt uppgift.

Givet att jag har en fungerande abstraktionsmodell så finns det en abstraktion som representerar rött. Det behövs också semantiska regler (inlärda och hårdkodade) som sammankopplar abstraktioner, så att när jag ser rött så aktiveras med automatik andra abstraktioner i den mentala modellen.

En avgörande del av ditt problem är att ett quale inte är en tänkt abstraktion utan tvärtom en konkret upplevd påtaglighet. Slå dig själv i huvudet med en hammare så får du se! Misstaget du återigen gör är att förväxla representationen av något med ett något i sig. Färgen rött är exempelvis inte en digital sifferföljd utan den sömlösa sensationen rött. Verkligheten är analog, inte digital, och i den finns inga diskreta tal. Matematik är bara ett symbolspråk som vi använder för att tolka verkligheten, inte verkligheten i sig. Som sagt, den symboliska representationen för något är inte detta något i sig.

Citat:
Det hela handlar om att acceptera att våra tankar inte lever sitt eget liv i en extra dimension, utan är fysiska tillstånd som arrangeras av hjärnan. Vi vet inte att vi upplever. Vi vet att vi tänker att vi upplever. Är den tanken hårdkodad så tänker vi att vi upplever oavsett hur det faktiskt förhåller sig. Och jag är fullt lycklig med det, för jag kan ändå inte känna någon skillnad.

Jag lovar dig, du kan känna skillnad på en virtuell hammare som slår dig i huvudet på en dataskärm jämfört med en riktig hammare av rostfritt stål! Och att du upplever detta vet du definitivt, först för att du känner det, sedan för att du efteråt tänker på det (men i termer av medvetandeförekomst är känslan primär, inte intellektet).

Hur vet du förresten att "tankar" (det är bättre att tala om sensationer, faktiskt, så täcker vi in alla former av mentala fenomen - tankar är trots allt en försvinnande liten del ovanpå känslolivet) är fysiska fenomen som arrangeras av hjärnan och inte lever sitt eget liv i en extra dimension? Du har inte en aning om detta utan antar bara. Man kan lika gärna anta att sensationerna bara förmedlas genom hjärnan som ett slags fysiskt membram mellan en fysisk och en andlig dimension (dualism). Med tanke på medvetandets gåtfulla natur är det fråga värt om inte den senare hypotesen faktiskt förklarar mer än det materialistiska paradigmet.

Citat:
Vad som triggar algoritmen väljer jag som programmerare. Det finns inget skäl till att det inte skulle gå att kräva en kombination av villkor för att utlösa en viss reaktion. Typ "if a>2 and b<3 and c<4 then foo()".

Varför skulle en kombination av markörer som triggar algoritmen ändra något i princip? Det är fortfarande bara markörer för något, som det är fråga om.


Citat:
Jag tycker John Searle har en infantil syn på datorer, kanske han växte upp med hålkortsmaskiner och tror att vi är kvar på den nivån. En dators grindar är precis som människans neuroner. Likt myror som bygger en stack vet de inte vad, hur eller varför de gör vad de gör. Det är inget hinder för att bygga högre abstraktionsnivåer ovanpå det dumma fundamentet, så att varje lager kan lite mer än lagret under.

Visst "kan" det mer, men är de högre abstraktionsnivåerna medvetna? En myra är medveten. Den känner i alla fall något när vi trampar på den. Stacken som byggs skulle jag säga inte är medveten om något överhuvudtaget.

John Searles kinesiska rum utgör en principiell invändning som håller streck oavsett komplexitetsnivå. Enkelheten i tankeexperimentet utgör i själva verket en fördel.
__________________
Senast redigerad av Överliggaren 2016-07-23 kl. 14:40.
Citera
2016-07-23, 15:11
  #11
Medlem
gulguls avatar
Citat:
Ursprungligen postat av WbZV
Om en dator programmerades till att tänka som en människa skulle den bli en filosofisk zombie, som säger sig tro att den är en tänkande människa, men som saknar förmåga att uppleva som en människa gör.

Nja, ett rimligt (?) antagande med det är fortfarande bara ett antagande. Det är fullt möjligt att en dator som är programmerad att tänka som en människa faktiskt har upplevelser, och är således inte någon filosofisk zombie. En filosofisk zombie saknar upplevelser men är omöjlig att särskilja från en människa med upplevelser.

Citat:
Daniel Dennet menar att problemet inte existerar. Människans självbild kan liknas vid en illusion där hjärnan tror det den är konstruerad att tro. Och tror den att den känner upplevelse så gör den det, oavsett fakta. Det finns då inget principiellt hinder för att programmera en dator som känner likadant och det ena medvetandet kommer inte att vara mer äkta än det andra.

Vad spelar det för roll hur vi anser att vi upplever en upplevelse? Chalmers anser väl att upplevelser är mentala fenomenen av icke-fysisk karaktär? Och då är ju egentligen grundproblemet att förklara hur något fysiskt kan ge upphov till något icke-fysiskt? Kropp–själ-problemet påminner mycket om problematiken, hur kan ett påstått icke-materiellt medvetande påverka en materiell kropp? Om medvetandet är materiellt så försvinner hela problematiken. Dennet anser att medvetande (och även upplevelse) kan förklaras med fysiska egenskaper.
Citera
2016-07-23, 15:49
  #12
Medlem
Citat:
Ursprungligen postat av Överliggaren
En avgörande del av ditt problem är att ett quale inte är en tänkt abstraktion utan tvärtom en konkret upplevd påtaglighet. Slå dig själv i huvudet med en hammare så får du se! Misstaget du återigen gör är att förväxla representationen av något med ett något i sig. Färgen rött är exempelvis inte en digital sifferföljd utan den sömlösa sensationen rött. Verkligheten är analog, inte digital, och i den finns inga diskreta tal. Matematik är bara ett symbolspråk som vi använder för att tolka verkligheten, inte verkligheten i sig. Som sagt, den symboliska representationen för något är inte detta något i sig.
Jag påstod att rött måste utgöra en rotnod i en associativ modell för att implementera qualia. Däremot kommer rött fortfarande att vara 0x00FF0000 i lägre lager, precis som synintrycken från ögonen representeras av pixlar i synnerven utan att för den skull vara tillgängliga som pixlar i övre lager (medvetandet).
Citat:
Jag lovar dig, du kan känna skillnad på en virtuell hammare som slår dig i huvudet på en dataskärm jämfört med en riktig hammare av rostfritt stål! Och att du upplever detta vet du definitivt, först för att du känner det, sedan för att du efteråt tänker på det (men i termer av medvetandeförekomst är känslan primär, inte intellektet).
Nu är mina nervtrådar inte kopplade till datorn. Om en hjärnkirurg opererade in sladdar från datorn till min hjärnas smärtcentrum, så skulle jag inte kunna avgöra om det var en riktig hammare eller en virtuell hammare som träffade mig. Kopplar han in sladdarna på andra ställen så hör jag istället olika toner eller ser olika färger. De förnimmelser vi känner är medvetandets etiketter på olika signaler.
Citat:
Hur vet du förresten att "tankar" (det är bättre att tala om sensationer, faktiskt, så täcker vi in alla former av mentala fenomen - tankar är trots allt en försvinnande liten del ovanpå känslolivet) är fysiska fenomen som arrangeras av hjärnan och inte lever sitt eget liv i en extra dimension? Du har inte en aning om detta utan antar bara. Man kan lika gärna anta att sensationerna bara förmedlas genom hjärnan som ett slags fysiskt membram mellan en fysisk och en andlig dimension (dualism). Med tanke på medvetandets gåtfulla natur är det fråga värt om inte den senare hypotesen faktiskt förklarar mer än det materialistiska paradigmet.
Om vi antar dualism så finns det naturligtvis inte något problem. Medvetandet är den duala komponenten som är förmögen att uppleva. Frågan är om det finns ett problem med att förklara upplevelse utan dualism, då en förklaring som inte kräver extra naturlagar har företräde enligt enkelhetspresumtionen.
Citat:
Varför skulle en kombination av markörer som triggar algoritmen ändra något i princip? Det är fortfarande bara markörer för något, som det är fråga om.
Du hävdade att en dator av princip inte kan skilja mellan en flagga där det står pang och ett riktigt skott, detta eftersom det senare triggar en kombination av samtida insignaler. Så är det naturligtvis inte.
Citat:
Visst "kan" det mer, men är de högre abstraktionsnivåerna medvetna? En myra är medveten. Den känner i alla fall något när vi trampar på den. Stacken som byggs skulle jag säga inte är medveten om något överhuvudtaget.
Skillnaden tror jag är att du har lättare att identifiera dig med myran än med stacken. När du trampar på myran så ser du dig själv klämmas genom dina spegelneuroner. När du trampar på stacken gör du inte det. Men en besökare från yttre rymden som varken kunde identifiera sig med myran eller stacken skulle i båda fallen se tecken på panikreaktioner, i det ena fallet när myrans celler försöker reparera myrans skadade kropp och i det andra fallet när myrorna försöker laga den skadade stacken.
Citera

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback