2019-02-15, 20:49
  #1
Medlem
jipeesss avatar
borde myndigheterna ha rätt att storma in och stoppa tilltaget, och på vilka grunder?

har de rätt att lägga sig i "liv" som jag ensam tillverkat?

hypotesen är att jag bygger en spektakulärt avancerad hjärnscanner, kopierar och laddar ner en spegling av mig själv, och laddar upp mitt klonade medvetande till en lika spektakulärt avancerad dator som via skärmen återger grafer, kurvor, ljud, aktuatorer etc som reagerar på div stimuli jag utsätter "mig" för, med samma intensitet och resultat som jag själv skulle återge..
Citera
2019-02-15, 22:01
  #2
Medlem
Det finns en massa knepiga frågeställningar att förhålla sig till när ett djur utvecklar en sådan intelligens och medvetenhet om sin egen och andras situation, att djuret inte längre är ett djur bland andra utan någonting helt annat – någon slags överintelligent rymdapa vars herravälde breder ut sig i universum på såväl mikro- som makronivå (en såväl komisk som kanske även skrämmande tanke! Resonerar man som så att vi kanske t.o.m. ur ett kosmiskt perspektiv befinner oss i ett tidigt skede av universums historia (åtminstone utifrån dagens förståelse med Big Bang som referensram) så blir tanken än mer överväldigande – tänk om vi faktiskt "är först!"). I dagsläget är din frågeställning ännu helt spekulativ och vårt kulturella självmedvetande och reflexiva förmåga är dessutom ännu i sin linda – enligt min bedömning är förståelsen för oss själva mer primitiv än vår teknologi (som även den är primitiv jämte de möjligheter vi i dag har börjat ana – även om vi samtidigt, särskilt utifrån vissa tolkningar av Fermiparadoxen, befinner oss i ett väldigt instabilt skede av vår utveckling!).

Okej, med det sagt, så är ju det första problemet att vi inte vet vilka system i universum som är medvetna, eftersom att all den moderna forskningens bragder har byggt på att konceptuellt abstrahera bort vårt eget (och andras) medvetande(n), ungefär som att en intelligent fisk skulle abstrahera bort vattnet (inte en perfekt analogi, men jag hoppas att den illustrerar situationen tillräckligt tydligt ändå) för att bättre undersöka de olika fenomen som finns i havet. Därför står vi nu tämligen handfallna (och fortfarande förbryllande ointresserade) inför att förklara varför subjektiva upplevelser existerar, även om det är det enda som vi har någon erfarenhet av.

Enligt vissa medvetandeteorier så skulle en simulerad komplexitet identisk med vår egen hjärna ändå inte vara medveten, just därför att den är simulerad (ett simulerat (o)väder är ju inte heller "vått"), men det leder ju till en del märkliga följder, som t.ex. att om ett system som är konstruerat mer som vår egen hjärna ("neuromorphic computing") stegvis byggs om till en ekvivalent von Neumann-arkitektur så skulle det gå från fullt medvetet, till helt omedvetet, helt utan förändrad funktionalitet. Andra medvetandeteorier beskriver medvetandet som ett epifenomen utan påverkan, vilket gör medvetandediskussioner väldigt lustiga, då det då skulle vara omedveten hjärnaktivitet som diskuterar med annan omedveten hjärnaktivitet huruvida de medvetna upplevelserna, som de restprodukter de är, verkligen är nödvändiga. Mycket märkligt.

Okej, med även det sagt, så tänker jag att när vi människor (eller om vi människor) kan konstruera medvetanden artificiellt, så bör dessa vara mottagare av moralisk hänsyn, på motsvarande sätt som biologiskt medvetna system bör vara det, då det (anser jag) inte är rimligt att en varelse som reflekterar moraliskt (som vi människor har börjat göra) utan skrupler ska anse att "might is right", utan måste respektera den subjektiva upplevelsen hos andra varelser.

Det är förstås ingen lätt frågeställning. Precis som att det inte är enkla frågeställningar huruvida "fria" människor i ett "fritt" samhälle ska få uppfostra sina barn hur som helst, eller behandla sina djur hur som helst. I det auktoritära Sverige – med helt säregna auktoritära begrepp som värdegrund – är ju t.o.m. hemundervisning förbjudet.

Som sista ord så kan man poängtera att:

Hur man får behandla sina datorbaserade medvetanden, är moraliskt analogt med hur man får behandla sina djur och barn.

Hur man får konstruera datorbaserade medvetanden, är moraliskt analogt med hur man får avla på djur.

En rimlig tanke är ju att det bör ses som direkt omoraliskt att tillverka ett slavmedvetande (som i likhet med ett barn eller ett avlat tamdjur inte kan ta hand om sig själv), varför man enbart skulle få tillverka medvetna system som kan ta hand om sig själva, och därutöver inte heller får "äga" dessa medvetanden, då de bör ses som autonoma i samma grad som vuxna människor.
__________________
Senast redigerad av Frigjord 2019-02-15 kl. 22:10.
Citera
2019-02-16, 01:05
  #3
Medlem
jipeesss avatar
Citat:
Ursprungligen postat av Frigjord
Det finns en massa knepiga frågeställningar att förhålla sig till när ett djur utvecklar en sådan intelligens och medvetenhet om sin egen och andras situation, att djuret inte längre är ett djur bland andra utan någonting helt annat – någon slags överintelligent rymdapa vars herravälde breder ut sig i universum på såväl mikro- som makronivå (en såväl komisk som kanske även skrämmande tanke! Resonerar man som så att vi kanske t.o.m. ur ett kosmiskt perspektiv befinner oss i ett tidigt skede av universums historia (åtminstone utifrån dagens förståelse med Big Bang som referensram) så blir tanken än mer överväldigande – tänk om vi faktiskt "är först!"). I dagsläget är din frågeställning ännu helt spekulativ och vårt kulturella självmedvetande och reflexiva förmåga är dessutom ännu i sin linda – enligt min bedömning är förståelsen för oss själva mer primitiv än vår teknologi (som även den är primitiv jämte de möjligheter vi i dag har börjat ana – även om vi samtidigt, särskilt utifrån vissa tolkningar av Fermiparadoxen, befinner oss i ett väldigt instabilt skede av vår utveckling!).

Okej, med det sagt, så är ju det första problemet att vi inte vet vilka system i universum som är medvetna, eftersom att all den moderna forskningens bragder har byggt på att konceptuellt abstrahera bort vårt eget (och andras) medvetande(n), ungefär som att en intelligent fisk skulle abstrahera bort vattnet (inte en perfekt analogi, men jag hoppas att den illustrerar situationen tillräckligt tydligt ändå) för att bättre undersöka de olika fenomen som finns i havet. Därför står vi nu tämligen handfallna (och fortfarande förbryllande ointresserade) inför att förklara varför subjektiva upplevelser existerar, även om det är det enda som vi har någon erfarenhet av.

Enligt vissa medvetandeteorier så skulle en simulerad komplexitet identisk med vår egen hjärna ändå inte vara medveten, just därför att den är simulerad (ett simulerat (o)väder är ju inte heller "vått"), men det leder ju till en del märkliga följder, som t.ex. att om ett system som är konstruerat mer som vår egen hjärna ("neuromorphic computing") stegvis byggs om till en ekvivalent von Neumann-arkitektur så skulle det gå från fullt medvetet, till helt omedvetet, helt utan förändrad funktionalitet. Andra medvetandeteorier beskriver medvetandet som ett epifenomen utan påverkan, vilket gör medvetandediskussioner väldigt lustiga, då det då skulle vara omedveten hjärnaktivitet som diskuterar med annan omedveten hjärnaktivitet huruvida de medvetna upplevelserna, som de restprodukter de är, verkligen är nödvändiga. Mycket märkligt.

Okej, med även det sagt, så tänker jag att när vi människor (eller om vi människor) kan konstruera medvetanden artificiellt, så bör dessa vara mottagare av moralisk hänsyn, på motsvarande sätt som biologiskt medvetna system bör vara det, då det (anser jag) inte är rimligt att en varelse som reflekterar moraliskt (som vi människor har börjat göra) utan skrupler ska anse att "might is right", utan måste respektera den subjektiva upplevelsen hos andra varelser.

Det är förstås ingen lätt frågeställning. Precis som att det inte är enkla frågeställningar huruvida "fria" människor i ett "fritt" samhälle ska få uppfostra sina barn hur som helst, eller behandla sina djur hur som helst. I det auktoritära Sverige – med helt säregna auktoritära begrepp som värdegrund – är ju t.o.m. hemundervisning förbjudet.

Som sista ord så kan man poängtera att:

Hur man får behandla sina datorbaserade medvetanden, är moraliskt analogt med hur man får behandla sina djur och barn.

Hur man får konstruera datorbaserade medvetanden, är moraliskt analogt med hur man får avla på djur.

En rimlig tanke är ju att det bör ses som direkt omoraliskt att tillverka ett slavmedvetande (som i likhet med ett barn eller ett avlat tamdjur inte kan ta hand om sig själv), varför man enbart skulle få tillverka medvetna system som kan ta hand om sig själva, och därutöver inte heller får "äga" dessa medvetanden, då de bör ses som autonoma i samma grad som vuxna människor.

intressanta reflektioner,

tja
en tänkbar model eller tumregel vore kanske att utforma ett ai-"etiskt" ratingsystem enlig liknande modell som gäller organiskt liv;

att av nyfikenhet disikera en levande molusk eller primitiv manet upprör knappt någon, men ju större, eller formodat intelligentare organismen blir, och kapabel att lida, ökar ju känslan av att man gör något moraliskt förkastligt mot den,

en extremt intelligent, känslig och social ai, borde kanske få åtnjuta fullständigt kränkbarhetsskydd,

om inte kommer ju ai:n, som förr eller senare får övermänsklig mental kapacitet, lida svårt bara av att vara ofri, fångad i ett arbetsminne på ett kretskort

man kan ju jämföra med en hypotetiskt situation för en människa som av någon anledning tvingas amputera lem efter lem, organ efter organ, och läkarvetenskapen kommit så långt att endast hjärnan återstår, bevarad fullt frisk och medveten, och så småningom flyttas pannloben över till en hjärnbarksprotes etc

bör de mänskliga rättigheterna hänga med hela vägen, eller var ska man dra gränsen?
Citera
2019-02-16, 01:25
  #4
Medlem
Du kan ju förse din AI med en möjlighet att "begå självmord" genom att stänga av sig själv. Inget hindrar att du startar om den från scratch, och genom upprepade försök kan du kanske ta reda på var den ungefärliga "smärtgränsen" för programmet går!
Citera
2019-02-16, 02:02
  #5
Medlem
Citat:
Ursprungligen postat av jipeess
en extremt intelligent, känslig och social ai, borde kanske få åtnjuta fullständigt kränkbarhetsskydd,

Citat:
Ursprungligen postat av Nakkvarr
Du kan ju förse din AI med en möjlighet att "begå självmord" genom att stänga av sig själv. Inget hindrar att du startar om den från scratch, och genom upprepade försök kan du kanske ta reda på var den ungefärliga "smärtgränsen" för programmet går!

Eller så kanske "vi" (man får förmoda: framtidens människor) bör experimentera på våra egna medvetanden först, genom att i ett sånt avancerat teknologiskt skede först amplifiera oss själva genom ett s.k. brain-machine interface, som kan förhålla sig till vår frontallob likt vår frontallob förhåller sig till vårt limbiska system, och med väldigt mycket högre intelligens och kunskap om universums natur (däri sådant som medvetandet och upphovet till upplevelser måste kunna förstås) bättre kan förstå konsekvenserna av att konstruera artificiella system som är skapade som en slags hypervariant av dagens biologiska liv.

Man kan ju hoppas att det i så fall kommer handla om "intelligent design" och inte att vi rent darwinistiskt låter vilka egenskaper som helst konstrueras genom någon slags framtida genetisk algoritm, så att vi t.ex. av ren obetänksamhet skapar varelser med oändligt avancerad förmåga att lida (eller uppleva något för oss otänkbart som är analogt med att lida). Även om det vore lite poetiskt – universum ansamlas, m.h.a. andra lokala ansamlingar av lågentropitillstånd (d.v.s. människor), i ett än mer förädlat lågentropitillstånd – och kvider! Ja, se universum är någonting särdeles märkligt ju mer man lär sig och reflekterar över det.

Varför upplever universum sig själv, kan man fråga sig, särskilt om man utgår från en materialistisk grund. Kanske det konstgjorda medvetandet kan förtälja detta? I vilket fall så, om vi bygger det med förmåga att känna, så bör vi visa det kärlek och omtanke.

I dagsläget känns det ju förstås lite löjligt att fundera på sådana här saker, de "medvetna maskinerna" finns ju inte direkt bakom kröken... Men liknande tankeexperiment väcker ju även frågeställningar som är relevanta redan i dag!
Citera
2019-02-16, 04:06
  #6
Medlem
MartinJeeps avatar
Att tillverka ett konstgjort medvetande tror jag kommer bli möjligt i framtiden. Därför jag vill lämna jordelivet medan tid är och utan ett spår av mig själv. Resterna ska kremeras till stoft och spridas i havet så att ingen DNA går att utvinna ur det i framtiden. Mina ättlingars DNA är inte längre jag som en helhet. Din frågeställning och tråd är den absoluta höjden av ondska som är möjlig att uppnå. Och det borde förbjudas redan nu av FN i förebyggande syfte.
Citera
2019-02-16, 15:02
  #7
Medlem
jipeesss avatar
Citat:
Ursprungligen postat av MartinJeep
Att tillverka ett konstgjort medvetande tror jag kommer bli möjligt i framtiden. Därför jag vill lämna jordelivet medan tid är och utan ett spår av mig själv. Resterna ska kremeras till stoft och spridas i havet så att ingen DNA går att utvinna ur det i framtiden. Mina ättlingars DNA är inte längre jag som en helhet. Din frågeställning och tråd är den absoluta höjden av ondska som är möjlig att uppnå. Och det borde förbjudas redan nu av FN i förebyggande syfte.


tja,
jag fick nästan dåligt samvete av att ens börja fundera på den,
men eftersom människans drivkraft till experimentlusta, forskningsbehov, vilja att hitta gränser etc, tycks vara ostoppbar,
vore det intressant att höra argumenten för varför man borde stoppa,

rent intuitivt, mänskligt tänkt, finns det nog en motvilja till att utsätta ett medvetande för tortyr, även om det gäller digital tortyr av ett digitalt medvetande,

..fast vilket i princip ändå sker i vissa datorspel,
och vad händer om/när spelkaraktärernas simulerade medvetanden blir så komplexa att de uppnår mänsklig nivå?

tex om ett våldsspel blir så komplext att karaktärernas och miljöernas simulering närmar sig kvantverklighet/realism, så att de digitala karaktärernas lidanden "tekniskt"/mätbart inte går skilja från analoga/organiska människor som ju består av samma slags atomer, partiklar och elektriska signaler

varför skulle mänskliga elektriska informations/signalsystem i hjärnan ha större rättigheter än lika komplexa elektriska informations/signalsystem på ett kretskort?
Citera
2019-02-16, 15:06
  #8
Medlem
jipeesss avatar
Citat:
Ursprungligen postat av Nakkvarr
Du kan ju förse din AI med en möjlighet att "begå självmord" genom att stänga av sig själv. Inget hindrar att du startar om den från scratch, och genom upprepade försök kan du kanske ta reda på var den ungefärliga "smärtgränsen" för programmet går!


om ai:n blir lika eller mer komplex/känslig/intelligent/intellektuell än människor, som förbjuder självterminering (dödshjälp/självmord etc),
varför skulle ai vara ett undantag?

vore inte "smärtstudier" på exakta digitala simuleringar/kopior av människosinnen vara lika illa som på organiska?
__________________
Senast redigerad av jipeess 2019-02-16 kl. 15:12.
Citera
2019-02-17, 04:03
  #9
Medlem
Min första tanke är att samtidigt som det börjar existera konstgjorda medvetanden, så kommer det förmodligen också existera simuleringar av universum baserat på samma uppfinningar. Troligtvis kommer mycket av jorden avslöjas på skärm, sedan kan filosofiska AI-algoritmer undersöka lidande i både smärtreferensram och kartlägga vad för struktur som krävs, för att något ska kunna känna genuint lidande, och därefter med svaret i handen, ta en titt på situationen och demontera eventuellt lidande tillstånd över världen.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in