Citat:
Ursprungligen postat av
ccnut
a) 0-10 år
b) 10-100 år
c) 100-1000 år
d) 1000-10.000 år
e) 10000-100.000 år
f) aldrig
g) nåt annat hinner före
h) tar minst 100.000 år
i) du bestämmer hur
k) nån annan i denna tråd har redan sagt hur
l1-l infinity) lägg till variabel när eller hur
Antingen a, eller f
Jag motiverar det med att vi är som mest sårbara i början.
Vi såg det inte komma o.s.v...
Hinner vi sätta upp regler och få en teknologisk infrastuktur som värnar mänsklighetens säkerhet på plats, så tror jag att vi blir mer eller mindre odödliga.
Om vi överlever de första, kritiska momenten när AI når singularitet, så blir våra möjligheter oändliga.
Vi lär kunna bota fattigdom, sjukdom, åldrande, klimat, och i princip alla jordens problem.
Vi kan leva fantastiska virtuella liv, med extrem valfrihet och bekvämlighet.
Vi kommer antagligen existera i nedladdat format, samtidigt som vi kan välja och vraka mellan olika virtuella liv som vi upplever som 100% verkliga.
Men innan vi hamnar där är risken stor att vi blir utrotade.
Om vi integrerar oss med AI på ett respektfullt och genomtänkt sätt så har vi goda chanser att nå otroliga resultat som vi inte ens kan föreställa oss.
Men tyvärr pekar inte så mycket på det.
Mängder med bevis för att människan rent generellt är för korkad, oaktsam, och vårdslös finns bland annat i denna tråd.