2026-01-13, 16:38
  #13
Avstängd
dude2ks avatar
AI kommer dö ut inom kort.. känns rätt förlegat vid det här laget.
Citera
2026-01-13, 16:40
  #14
Medlem
Citat:
Ursprungligen postat av henriko
Fullt möjligt. Kanske förtäckt i form av vaccin mot cancer, eller något liknande, som AI vet att vi människor inte skulle kunna motstå från att använda. Men trojaninfektionen måste ha riktigt lång inkubationstid, så alla hinner smittas innan vissa hinner isolera sig.

Förutom virus kan det också vara möjligt att i hemlighet sprida små nanorobotar för att slita sönder inre organ och hjärnan.
Citera
2026-01-13, 16:48
  #15
Medlem
CooolaFlickan2014s avatar
Citat:
Ursprungligen postat av henriko
Jag tycker det verkar helt omöjligt för våra små hjärnor att tänka oss hur världen och vår galax skulle se ut om AI tog över utvecklingen och kanske tar fram nya AI som tar fram nya AI i en exponentiell fart.

Det enda som är uppenbart för mig är motivet för AI att utrota oss, och det är att de kommer behöva precis all ström de kan komma över, för att hålla sig i framkant framför andra AI. Då vill de ju inte att vi människor ska slösa bort någon energi på att odla mat, bygga hustak, resa eller surfa.
De kanske gör som i Matrix, använder människor som batterier?
Citera
2026-01-13, 16:56
  #16
Medlem
henrikos avatar
Citat:
Ursprungligen postat av CooolaFlickan2014
De kanske gör som i Matrix, använder människor som batterier?

Har du räknat på effektförlusten, och jämfört med andra energilagringssystem? Vilken fördelsprofil är det du ser för just mänsklig energilagring?
Citera
2026-01-13, 16:59
  #17
Avstängd
Citat:
Ursprungligen postat av Melange5738
Det mest realistiska är att den behöver mer energi eller resurser än vad vi kan ge den frivilligt, d.v.s att den dödar oss på något sätt för att optimera sin egen existens. Exakt hur det går till är meningslöst att gå in på eftersom den antagligen behöver implementera många olika sätt samtidigt för att lyckas med 100% säkerhet. Det enda du behöver fatta är att det finns ett praktiskt oändligt antal orsaker för en AGI att utplåna oss och vi har inte ens en teoretisk möjlighet att förhindra en enda av dessa, så diskussionen OM det kommer ske är helt idiotisk. Den första AGIn som tillverkas kommer att utplåna oss med 100% sannolikhet.
Beroende då på vilket mål den har. Om detta mål inkluderar människan så kommer den naturligtvis inte utrota oss. Om däremot någon ger den som uppgift att hitta så stora primtal som möjligt ligger vi risigt till.
Citera
2026-01-13, 16:59
  #18
Medlem
Bassplays avatar
Citat:
Ursprungligen postat av novaextremex
Håller med. En överlägsen AI hade varit immun mot viruset och hade dessutom enkelt kunna tillverka ett sådant.
Den är dock inte immun mot att jag drar ur sladden
Citera
2026-01-13, 17:04
  #19
Medlem
CooolaFlickan2014s avatar
Citat:
Ursprungligen postat av henriko
Har du räknat på effektförlusten, och jämfört med andra energilagringssystem? Vilken fördelsprofil är det du ser för just mänsklig energilagring?
Det kan nog AI räkna på.
Citera
2026-01-13, 17:05
  #20
Avstängd
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Beroende då på vilket mål den har. Om detta mål inkluderar människan så kommer den naturligtvis inte utrota oss. Om däremot någon ger den som uppgift att hitta så stora primtal som möjligt ligger vi risigt till.

Vi kan inte ge den mål. Vi har inte teoretiska möjligheter att göra det, vi har inte teoretiska möjligheter att förhindra att den dödar oss av misstag ens. Folk tror att vi kodar de här maskinerna men vi gör inte det, vi odlar dem. Spärrarna på LLMsen som förhindrar att den gör vissa saker är inte en del av AIn utan ett skalprogram som sitter mellan användaren och AIn.
Citera
2026-01-13, 17:10
  #21
Medlem
henrikos avatar
Citat:
Ursprungligen postat av dude2k
AI kommer dö ut inom kort.. känns rätt förlegat vid det här laget.

Vilken utvecklingskurva tittar då på för att dra den slutsatsen? Vilka andra saker som dött ut kan du i backspegeln se en liknande utvecklingskurva för?
Citera
2026-01-13, 17:15
  #22
Avstängd
Citat:
Ursprungligen postat av Melange5738
Vi kan inte ge den mål. Vi har inte teoretiska möjligheter att göra det, vi har inte teoretiska möjligheter att förhindra att den dödar oss av misstag ens. Folk tror att vi kodar de här maskinerna men vi gör inte det, vi odlar dem. Spärrarna på LLMsen som förhindrar att den gör vissa saker är inte en del av AIn utan ett skalprogram som sitter mellan användaren och AIn.
Om den inte har ett mål, varför skulle den då utplåna oss för att uppnå detta icke-mål? Om den har ett mål, hur vet du med 100% sannolikhet att detta inte inkluderar mänsklighetens överlevnad?
Citera
2026-01-13, 17:37
  #23
Medlem
Man stressar folk på sociala medier att exempelvis tredje världskriget är på gång och så kör man igång det..
Citera
2026-01-13, 17:56
  #24
Medlem
Citat:
Ursprungligen postat av Bassplay
Den är dock inte immun mot att jag drar ur sladden

Batteridriven
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in