Citat:
Ursprungligen postat av
Loderan
Kortfattat (Wall of text) -> Alltså bör vi frukta skapandet av en generell artificell intelligens för att en sådan har förmågan att omdana vårat samhälle negativt(/katastrofalt)?
Kort svar: ja.
Jag hör till dem som anser att Stephen Hawking och andra som varnar för artificiella superintelligenser har rätt. Det
kan bli det största hotet som mänskligheten ställts inför, och det kan komma inom en ganska snar framitd.
Problemet i ett nötskal är att vi inte kan förutse eller styra vilka prioriteringar en sådan superintelligens gör. Kommer den överhuvud taget att vara intresserad av att behålla kolbaserat liv på den här planeten? Om så, i vilket syfte? Kommer våra efterkommande att framleva sina liv i ett zoo för arkaiska livsformer? Eller kommer de att jagas som i Terminatorfilmerna?
De flesta som läser det här forumet känner säkert till robotikens tre lagar, som Isaac Asimov formulerade i sina Robotnoveller:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
http://en.wikipedia.org/wiki/Three_Laws_of_Robotics
Det låter ju bra, och en AI som alltid följde dessa lagar skulle knappast bli ett hot mot mänsklighetens överlevnad. Men tyvärr finns det ingen anledning att tro att en framtida artificiell superintelligens kommer att låta sig styras av dessa eller liknande lagar.
För eller senare - förmodligen snarare än vi tror - kommer vi nämligen att uppnå det som en annan science fictionförfattare - Vernor Vinge - kallat för den teknologiska singulariteten: den punkt där artificiella intelligenser designar nästa generation av artificella intelligenser:
http://en.wikipedia.org/wiki/Technological_Singularity
När så skett kommer det att bli mycket svårt eller omöjligt för oss människor att behålla kontrollen över utvecklingen, särskilt som vi sällan kan enas om ett gemensamt mål, utan i stället bekämpar varandra. Något som en artificiell superintelligens naturligtvis kan komma att utnyttja för egna syften.
Max Tegmark har en del läsvärda funderingar kring detta i slutet av sin bok
Vårt matematiska universum.