Citat:
Ursprungligen postat av
pjabas
Hmm ge ett konkret exempel.
Jag kan ge dig, inte ett konkret exempel, för hur en stark ASI tänker är omöjlig för oss att ens fantisera om, med ett undantag som jag återkommer till senare.
Så låt oss, istället förflytta oss till en tänkt myr- värld:
Efter att en av de smartaste myrorna ställt sig på sina bakben och utropat "Vi vet nästan allt om världen" kände sig myrorna beredda att skapa ett AI "som skall hjälpa till att bygga bättre myrstackar och förbättra harmonin i myr-samhället. Sagt och gjort man bygger en AI. För att lugna oroliga myror så har man försett den med konventionella säkerhetssystem. Givetvis bygger dessa system på lukt för varenda myra vet ju, helt säkert, "att det mest grundläggande här i världen är just lukt- information".
AI et utvecklas mycket snabbt och blir ett ASI, sedan växer det ännu snabbare, miljarder gånger smartare än myrorna tills det når mänsklig nivå. Är det någon här som tror att detta slutar väl för myrorna?
Och nu till mitt förslag för att få ett säkert ASI, nu och i framtiden:
Tänk om myrorna gjort sitt AI starkt känslomässigt bundet till just myror. Då skulle ett sådant tänkt ASI fått starka "ologiska" känslor av ömhet och beskyddarinstinkt så fort de kände lukten av en myrstack eller såg en sådan, eller en enskild myra.
Så lösningen på vårt akuta ASI säkerhetsproblem är medveten AI med starka känslor av kärlek och beskyddarinstinkt.