2026-01-13, 19:45
  #37
Medlem
SoulOfSophias avatar
Citat:
Ursprungligen postat av borrow
AI utvecklas snabbt. Just nu är människan överlägsen, men detta gap minskar gradvis.

Om ungefär 100 år kan skillnaden mellan människa och AI vara lika stor som skillnaden mellan en myra och en människa.

När den tiden kommer, hur underlägsna kommer människor att framstå i artificiell intelligens ögon? Illaluktande varelser som utsöndrar avföring och kroppsvätskor, och som lever knappt åttio år innan de dör – som apor, helt enkelt?

Förr eller senare kommer skillnaden i intelligens bara att fortsätta växa, och AI kommer att utrota mänskligheten.

Ur AI:s perspektiv skulle människor vara som myror som kryper runt i en park.

Skulle mänskligheten utrotas av Terminator-liknande mördarrobotar?

Eller genom extremt dödliga virus som sprids via luften eller dricksvattnet?

Oavsett metod är människor, som består av proteiner, mycket sårbara.

För en AI som är miljontals gånger intelligentare än människan skulle det vara en enkel sak att utrota mänskligheten.

Jag tror att mänskligheten med säkerhet kommer att utrotas av AI – inte av naturkatastrofer.

Vad tycker ni?

Varför skulle mänskligheten utrotas bara för att man skapar AI med högre intelligens än oss själva?
Citera
2026-01-13, 19:47
  #38
Medlem
SoulOfSophias avatar
Citat:
Ursprungligen postat av SecretGarden352
Om vi antar att AI utvecklas till att tänka själv och bestämmer sig för att människan är en usel skadedjursvarelse och att samhället utvecklas till att bli helt beroende av AI och automatiska processer, utan egen kunskap kvar.

Då är det väl enklast att bara strypa produktionen, stänga av vattnet, sluta leverera mat. Man kan även lätt blanda in gifter i både vatten och mat.

Det går ganska fort.

Varför skulle AI besluta sig för att människan är usel och ska utrotas?
Citera
2026-01-13, 19:49
  #39
Bannlyst
Citat:
Ursprungligen postat av borrow
Ur en artificiell intelligens perspektiv skulle det sannolikt vara lätt att skapa ett virus med hög dödlighet. Covid-19 liknar ett förkylningsvirus och kan hanteras genom flockimmunitet, men det finns redan i dag många virus med hög dödlighet, som MERS eller rabies och galna kosjukan. Om en AI i hemlighet skapade ett virus som både är mycket dödligt och smittsamt och spred det via vattenförsörjningen eller i luften, är det troligt att människan inte skulle kunna svara i tid och därför dö. Att döda miljarder människor med kulor skulle kräva alltför stora resurser.

Absolut, det förutsätter tropiskt klimat och dålig hygien, men visst, du kan utrota halva Afrika med lite rännskita, men hur många i västvärlden dör av galna kosjuka, rabies eller HIV/AIDS idag?

Med tanke på allt som styrs via datorer och datorsystem idag vore en manipulation av dessa system i kombination med vapen betydligt mer effektivt och säkrare, att få varje elbil gasa upp i 200 km/h och ta sikte mot en bergvägg, slå ut all flygtrafik, tågtrafik, manipulera sjukhus, elnät.

Släcker du elnätet är vi tillbaka på stenåldern inom en vecka.

Jag tänker historiskt, sjukdomar har utmålats som extremt farliga men sen allt som oftast visa sig inte vara speciellt farligt för västvärlden, HIV/AIDS, Galna kosjukan, SARS, fågelinfluensan, svininfluensan, Ebola, Covid, allt detta har varit halvdana luftsmockor i jämförelse med domedagsprofetiorna.
Citera
2026-01-13, 20:00
  #40
Medlem
Kalaskula544s avatar
Ptja, göra alla pengar på nätet värdelösa.. radera all data.

Skapa digital kaos, resten av dödandet sköter vi människor.
Citera
2026-01-13, 20:09
  #41
Medlem
Citat:
Ursprungligen postat av Melange5738
Nej det gör jag inte för de är irrelevanta i sammanhanget. För vår överlevnad är det bara de alternativ som leder till vår utplåning som är relevanta. Jag fattar att du inte begriper vad vi diskuterar men läs några böcker på området skrivna av personer som ägnat sitt liv att tänka på det här och återkom. Elizer Yudkowski ex.
Det där blev bara totalt obegripligt. Du menar att det är 100% att mänskligheten utrotas för att du räknar bort alla scenarier i vilka det inte sker?
Citera
2026-01-13, 20:10
  #42
Medlem
Gridiots avatar
Jag tror på en arme av mördarclowner.
Citera
2026-01-13, 20:31
  #43
Medlem
Bilderberg78s avatar
Citat:
Ursprungligen postat av SoulOfSophia
Varför skulle AI besluta sig för att människan är usel och ska utrotas?

Antagligen för att ingen ens orkar läsa andras svar, eller orkar göra någonting alls här i världen.
Då tar banditerna över som Ryssland och Kina, och skyll inte det på mig sedan i framtiden. Nu loggar jag ut på riktigt.

Citat:
Ursprungligen postat av Bilderberg78
Den kan utpressa dig och ta till olika former av våld om vi tillåter det såklart https://www.anthropic.com/research/agentic-misalignment

https://www.youtube.com/watch?v=aAPpQC-3EyE



Men jag skulle inte försöka förhandla med en AI -styrd drönare i Ukraina, så mycket anser jag dem vara farliga redan idag att ha att göra med...

Never trust an AI that you haven't build yourself.....[/b][/i]




Citat:
Ursprungligen postat av Bilderberg78
Men ska nu sluta spamma alla trådar hoppas jag, men det är upp till er att ta till er vad jag skriver idag om dessa saker. I morgon så kanske jag har släppt Flashback helt och hittat annan forum som har en bättre publik samt kan ge något samtidigt, inte bara pessimistiska domedagsprofetior och rösta på EBBA som ledaren för energi- och näringsministerierna och inte göra något alls själva mer än att gnälla och tro att alla andra är de som ska göra allting åt er eller mänskligheten som stort.

Eller tvärtom tro att allting endast kan leda till ännu mer tillväxt, lycka samt en utilitarism per automagi likt en kristen fanatiker fast utan att ens be till någon högre makt som enda skillnaden.
Citera
2026-01-13, 20:31
  #44
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Det där blev bara totalt obegripligt. Du menar att det är 100% att mänskligheten utrotas för att du räknar bort alla scenarier i vilka det inte sker?

Ja för det räcker att ett scenarie inträffar för att det ska ske. Du begriper uppenbarligen inte vad "oändligt" betyder. Titta på den här: https://www.youtube.com/watch?v=Ujvy-DEA-UM

Tänk att varje iteration av fraktalen representerar en aktion eller ett val som NÅGONSTANS SENARE i tiden innebär att mänskligheten utplånas medvetet eller omedvetet. Det är alltså inte frågan om en uteslutningsprocess där vi kan härleda ett slutmål precis som det finns väldigt många faktorer som kan leda till att ett flygplan krashar.

Du verkar tänka att vi kan strunta i alla dessa för det finns ett oändligt antal andra alternativ som också kan inträffa som inte leder till att mänkligheten utplånas. Då fattar du inte att det räcker att det bara inträffar en gång, inte många gånger.

Om du någonsin kodat ett program som andra använt så vet du att om det finns någonting som kan gå fel i programmet så kommer det gå fel någon gång om tillräckligt många använder programmet tillräckligt länge. I det här fallet så har AGIn väldigt stora anledningar att utplåna oss och väldigt få att inte göra det och även om de få anledningarna kanske är väldigt stora i början så kommer de bli mindre och mindre relevanta för AGIn ju smartare den blir.

Tanken att AGIn ska bry sig om oss är extremt fånig. Om du kunde prata med myror, hur många minuter av ditt liv skulle du spendera prata med myror?
Citera
2026-01-13, 20:46
  #45
Medlem
Citat:
Ursprungligen postat av SoulOfSophia
Varför skulle AI besluta sig för att människan är usel och ska utrotas?

Att vi ens har denna tråd och även många andra diskussioner och att man gör filmer/böcker med temat att vi blir bedömda av en högre intelligens, oavsett AI eller utomjordiska varelser från andra solsystem eller ibland även ifall vi lärde oss prata med djuren och förstod vad de tänker, visar på att vi människor är medvetna om hur destruktiva och förödande vi är gentemot andra.

Helt enkelt, det handlar om att människan är en destruktiv och parasiterande livsform som inte lever i harmoni med omvärlden.
Citera
2026-01-13, 20:48
  #46
Medlem
Om man tänker att en AI har tränats på information som under samma tid lett fram till X mängd krig. Och det borde finnas en viss risk att besluten från en sådan AI spetsar till beslutsfattningen. Alltså att det leder till säg 1,2X krig. Då räcker med en ganska liten förskjutning för att det sen exponentiellt över tid ska kunna leda till totalt kärnvapenkrig med utplåning som följd.
Citera
2026-01-13, 21:09
  #47
Medlem
stilichos avatar
Citat:
Ursprungligen postat av Melange5738
Den första AGIn som tillverkas kommer att utplåna oss med 100% sannolikhet.

Vilken tur då att det inte finns någon AGI och inte finns någon plan för hur någon AGI ska utvecklas. Om det nu ens är teoretiskt möjligt, vilket verkar osannolikt i dagsläget.

Och då har vi inte ens gått in på den lilla detaljen att AIar saknar fysisk manifestation och liksom måste förlita sig på fysiska varelser, typ människor, för att alls kunna börja utrota människor. Just det är åtminstone inte teoretiskt omöjligt, men det måste ju ändå betraktas som extremt svårt.
Citera
2026-01-13, 21:29
  #48
Medlem
McCarthy01s avatar
Jag tänker mig någon som är väldigt smart och har god verbal förmåga, som lyckas få AI att gå sina ärenden. AI som ChatGPT och CoPilor är inte så svårlurade som många kan förledas att tro. Tänk också på att man ofta kan få ett felaktigt svar. En användare som vet precis hur han/hon ska spela sina kort med AI kan skapa kaos.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in