Citat:
Ett stort antal respekterade forskare, världsledare och filosofer hävdar att mänskligheten just nu står inför ett historiskt vägskäl. Punkten då AI når singularitet, och därmed blir en exponentiellt galopperande superintelligens, närmar sig hastigt.
"Genier", företagsledare, och berömda tänkare som till exempel Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Harari, och tusentals fler tunga namn, varnar för att risken en nära förestående utrotning av samtliga människor på jorden är högst påtaglig, och att den kan bli verklig mer eller mindre i samma sekund som AI passerar gränsen från att vara ett verktyg som vi människor har kontroll över, till att bli en självutvecklande AGI.
Notera att det är dem som befinner sig närmast utvecklingen av AI, eller som har god inblick i den samma, som ropar högst om de extrema riskerna med allt som händer just nu. Den framlidne Stephen Hawking varnade från rullstolen i sin sista intervju: "AI could spell the end of the human race"
Personligen har jag, efter veckor av läsning, fördjupning och funderande sällat mig till den skara som tyvärr inte ser ett lyckligt slut på detta. Likt en världens mest erfarna AI-forskare, Elieser Yudkowsky, tror jag att en fullt utvecklad AGI helt enkelt skulle rationalisera bort oss människor. Det vore logiskt på ett rent evolutionärt plan.
För den intresserade vill jag rekommendera Lex Friedmans två veckor gamla intervju med fysikern och författaren Max Tegmark (finns gratis på youtube). Samtalet är mycket respektfullt, eftertänksamt och lärorikt, och Max Tegmark beskriver den framrusande utvecklingen av AI som att han har fått en allvarlig cancerdiagnos. Det kan gå bra, men det är också mycket troligt att det slutar med döden. Och det inom kort. Max bekymrar sig också för sin nyfödda son. Hur länge kommer han att få leva?
Jag skulle vilja höra vad flashback tänker om detta. Är det bara jag som går runt med fet ångest över allt detta? Jag är själv fyrabarnsfar och oroar mig mest för mina barns skull.
Att en superintelligent AGI skulle ha möjligheten att på tusen olika sätt utrota oss människor på nolltid kan det knappast råda några tvivel om.
Men vill den det?
Och i sådana fall, hur kommer den gå till väga?
Och slutligen och framförallt, varför pratar inte alla om detta just nu?
Var finns debatten?
Var finns opinionen?
Frågan om klimatet (t.ex.) borde vara en liten struntsak i jämförelse?
"Genier", företagsledare, och berömda tänkare som till exempel Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Harari, och tusentals fler tunga namn, varnar för att risken en nära förestående utrotning av samtliga människor på jorden är högst påtaglig, och att den kan bli verklig mer eller mindre i samma sekund som AI passerar gränsen från att vara ett verktyg som vi människor har kontroll över, till att bli en självutvecklande AGI.
Notera att det är dem som befinner sig närmast utvecklingen av AI, eller som har god inblick i den samma, som ropar högst om de extrema riskerna med allt som händer just nu. Den framlidne Stephen Hawking varnade från rullstolen i sin sista intervju: "AI could spell the end of the human race"
Personligen har jag, efter veckor av läsning, fördjupning och funderande sällat mig till den skara som tyvärr inte ser ett lyckligt slut på detta. Likt en världens mest erfarna AI-forskare, Elieser Yudkowsky, tror jag att en fullt utvecklad AGI helt enkelt skulle rationalisera bort oss människor. Det vore logiskt på ett rent evolutionärt plan.
För den intresserade vill jag rekommendera Lex Friedmans två veckor gamla intervju med fysikern och författaren Max Tegmark (finns gratis på youtube). Samtalet är mycket respektfullt, eftertänksamt och lärorikt, och Max Tegmark beskriver den framrusande utvecklingen av AI som att han har fått en allvarlig cancerdiagnos. Det kan gå bra, men det är också mycket troligt att det slutar med döden. Och det inom kort. Max bekymrar sig också för sin nyfödda son. Hur länge kommer han att få leva?
Jag skulle vilja höra vad flashback tänker om detta. Är det bara jag som går runt med fet ångest över allt detta? Jag är själv fyrabarnsfar och oroar mig mest för mina barns skull.
Att en superintelligent AGI skulle ha möjligheten att på tusen olika sätt utrota oss människor på nolltid kan det knappast råda några tvivel om.
Men vill den det?
Och i sådana fall, hur kommer den gå till väga?
Och slutligen och framförallt, varför pratar inte alla om detta just nu?
Var finns debatten?
Var finns opinionen?
Frågan om klimatet (t.ex.) borde vara en liten struntsak i jämförelse?
Som läget är nu så är din oro fullkomligt grundlös. Varför? Jo för det första är just namnet AI enormt missvisande. Det existerar nämligen inte någon som helst "intelligens" hos de datorer, robotar och annat digitalt som förekommer nu. Intelligens förutsätter nämligen ett medvetande och en tankeverksamhet. Något som inte ens dagens mest avancerade datorer och robotar är i närheten av. De är i stort sett bara avancerade räknemaskiner som med en enorm beräkningskapacitet utför de beräkningar de är programmerade att utföra. Det finns vad som brukar kallas "självlärande robotar" som över tid blir duktigare och duktigare på att utföra diverse uppgifter men det har inget som helst med intelligens att göra utan bara på de algoritmer efter vilka de är programmerade. Den dag det är möjligt att åstadkomma ett artificiellt medvetande kommer vi i ett annat läge men dit är är det mycket lång väg att gå om det ens är möjligt. Det som kan vara en fara nu är i så fall avancerade robotar som löper amok på grund av oupptäckta buggar i programmeringen men det har heller ingenting med intelligens att göra utan beror helt på den mänskliga faktorn och ingenting som roboten själv har tänkt ut.