Citat:
Ursprungligen postat av
Bara-Robin
Jag tycker inte att det där är varken applicerbart, de nödvändigtvis rimliga följderna eller att följderna inte vore mer rimliga konsekvenser från det andra. Jag vill nog bolla lite mer om detta innan jag skulle övertygas om vi gick vidare i argumenten. Jag skriver vad jag tänker så kanske du ser hur du kan leda oss till samma spår.
Väger inte du in någonting annat då när du menar att det är värdefullt om strävan motiveras av det du menar är värdefullt om man tror sig ha fri vilja? Om man utan fri vilja agerar alls så kan ju ett agerande vara att genomföra schackpartiet precis som en schackdator gör, så antingen är det ju bara en fråga om kapacitet eller så är det ju den som tror sig ha fri vilja som väger in någonting annat i situationen, då sin vilja.
Kanske motstånd i schackpartiet påverkar viljan att fortsätta fortsätta på det mest effektiva sättet? Om inte så fyller inte den tron på viljan någon roll om man utgår från att även den utan tro på fri vilja också genomför schackpartiet. Varför vore det en fördel om strävan berodde på tro på fri vilja än om strävan inte spelade någon roll och schackpartiet ändå genomfördes med samma kapacitet?
Om bägge robotar har samma hårdvara och i övrigt samma mjukvara så skulle ju den roboten som slösat bort en del av mjukvaran till det som utgör tron på fri vilja som skulle ha begränsad kapacitet. Den informationsslingan på hårddisken kunde använts till mer information om schack och om tron på vilja också ska vägas in i beräkningen så upptar den även en del av minneskapaciteten och processorns kapacitet. Utan tron på fri vilja så räcker det ju att motivationen är 1 istället för 0.
Annars vore det ju som att säga att om båda robotarna vore lika skickliga schackspelare så skulle den roboten som blev en mindre skicklig schackspelare för att tro på fri vilja, som blir en mer skicklig schackspelare.
Kan inte den roboten utan tro på fri vilja hantera samma faktorer som gav roboten som tror på fri vilja en fördel då, men utan att bry sig om denne har fri vilja eller inte och dedikera det utrymmet åt fler schack-faktorer?
Eller, om faktorer utanför schack ger fördel i schack, varför skulle inte även annat kunna ge fördelar som vore bättre? Som tro på en förutbestämd framtid där man vinner?
Fast det är ju det som är mitt argument. Tron på piggsvinstaggarna är ju tron på någonting som inte är objektivt sant precis som tron på fri vilja.
Roboten utan tro på fri vilja skulle ju inte heller tro att det var dåligt att bli av med sin dam tidigt om den inte hade räknat på det.
Det du säger är ju istället att det är en generell sanning att det alltid ger en fördel att tro att man har fri vilja. Annars så skulle ju roboten utan tro på fri vilja, bortsett från att ha lite mer kapacitet över till schack istället för tro på fri vilja också ha en fördel varje gång det vore en nackdel för den andra roboten att ha en tro på fri vilja.
Vad som vore det bästa draget är ju en fråga om schack, så hur skulle frågan kunna avgöras bättre av att göra det till en fråga om annat? Samt, varför skulle detta andra man fick en fördel av om man tog hänsyn till som var någonting annat än schack vara tro på fri vilja och inte tro på någonting annat?
Vad menar du att den roboten som tror på fri vilja skulle ta hänsyn till som gav en fördel och hur skulle denna hänsyns-process beräknas som inte skulle kunna beräknas utan det hos processen som utgör "hänsynen", eller då tron på fri vilja?
Varför? Varför är en robot som inte tror utan bara genomför samma agerande som roboten som tror att denne kan påverka partiets utgång och blir glad av att tro det, att vara sämre på schack för att denne inte blir glad av någonting denne inte har någon vetskap om att denne skulle kunna ha vetskap om att kunna tro?
Vad utgörs förmågan av och vad utgörs den inte av?
Att agerande innebär påverkan kräver ju ingen tro på att bli glad av att man tror att detta sker genom fri vilja. Det är ju objektivt sant att dragen som roboten som inte bryr sig också påverkar framtiden, så varför vore det en fördel om roboten också bryr sig?
Datorer byggs upp av abstraktionslager.
I John Searles "kinesiska rum" så likställs en dator med en människa som skyfflar runt lappar med meddelande genom att följa givna instruktioner. Människan i rummet gör inget annat än att följa instruktionerna utan att fatta några egna beslut eller ens förstå vad arbetet syftar till.
Med en dator menar vi vanligtvis inte bara hårdvaran som följer givna instruktioner, utan även ovanpåliggande mjukvarulager som gör att datorn kan lösa givna problembeskrivningar som kommer utifrån, men att den själv har en viss frihet i att välja hur den skall lösa de beskrivna problemen. Exempelvis kan en webbsidas utseende beskrivas i html. En Android-telefon som använder Chrome för att visa html gör det med andra instruktioner än en iphone som använder Safari för att visa samma webbsida.
När jag som tankeeperiment beskriver en robot som är intelligent, men som inte vet något om världen, så tänker jag mig en dator som tar en problembeskrivning som indata, analyserar problemet som beskrivs och därefter söker efter en optimal lösning på problemet så som det är beskrivet. Den följer alltså inte givna instruktioner som kommer utifrån, utan den följer inre instruktioner som är en del av det som utgör datorns identitet.
Om datorn eller roboten har obegränsad beräkningskapacitet så kommer den alltid att hitta den optimala lösningen till det problem som beskrivs, då den alltid kan göra det genom att enumerera alla lösningar och välja ut den bästa. Hur bra lösning den hittar kan då bara bero på problembeskrivningen och inget annat. En problembeskrivning som har ett bättre optimum kommer leda till en bättre lösning än en problembeskrivning som har ett sämre optimum.
Vill vi lösa ett verkligt problem så beror lösningens kvalitet då enbart på hur bra vi lyckas beskriva problemet. Om det i verkligheten är ofarligt att befinna sig nära ett piggsvin utan att nudda vid dess piggar, så får vi inte en bättre lösning om vi beskriver problemet som att det är farligt att befinna sig närmare än en meter från piggsvinet. Vi kan bara få en likvärdig eller sämre lösning genom att beskriva problemet annorlunda än vad det verkligen är. En problembeskrivning vars optimala lösning är optimal till det verkliga problemet är en sann beskrivning eftersom det inte finns någon bättre beskrivning att tillgå.
Ovanstående gäller alltså om vi alltid har tillräckligt med beräkningskapacitet för att hitta den optimala lösningen. Har vi inte det så kan vi lyckas bättre om vi löser ett modifierat problem, som visserligen kanske har en något sämre optimal lösning, men som inte är svårare än att vi kan hitta lösningen.
Beskriver vi ett problem som att datorns egen ansträngning inte påverkar framtiden eftersom den redan är huggen i sten, så implicerar det att den första lösningen datorn hittar måste vara optimal oavhängigt den ordning som datorn enumererar lösningarna. Det finns då inget skäl för datorn att leta vidare då alla tillåtna lösningar enligt problembeskrivningen måste vara likvärdiga.
Om den första lösningen datorn hittar inte visar sig vara en optimal beskrivning till det verkliga problemet, så kan det inte vara en korrekt beskrivning av verkligheten att datorn inte kan påverka framtiden genom att anstränga sig hårdare. Det måste då vara osant.