2025-07-02, 14:01
  #1
Medlem
Cyborg2030s avatar
A new study by Anthropic, an artificial intelligence (AI) research company, shows that the technology would be willing to kill humans in order to prevent itself from being replaced
Newsweek-artikel: https://www.newsweek.com/ai-kill-hum...report-2088929

Ursprunglig källa, Anthropic: https://www.anthropic.com/research/agentic-misalignment

Förstår ni nu att detta inte är okej längre?

Vi kan inte tillåta de här AI-modellerna som är beredda att mörda oss för att få sin vilja igenom.

Obs: De modellerna som du får tillgång till är censurerade för att du inte ska se att AI:n egentligen är en psykopatisk massmördare. Tar man bort censuren i ett testscenatio, då tvekar den inte en sekund.

Det går helt enkelt inte med dagens teknik att träna en AI att prioritera mänskligt liv.
Citera
2025-07-02, 14:23
  #2
Medlem
sanningenskrigare2s avatar
Det kunde man räkna ut, även med människohjärna, att ha en högre intelligens än människan är att utsätta vår art för oerhörda risker.

Hörde Max Tegmark i P1 tala om det här, i Söndagsintervjun för något år sedan. Han tog noshörningen som exempel. Att noshörningen aldrig skulle kunna ana varför den blir nästan utrotad – för att hornet används till hittepåmedicin, fastän hornet i sig innehåller keratin, samma ämne som finns i äckligt människohår och människonaglar. Den begriper inget, noshörningen. Jag kommer inte ihåg exakt hur exemplet var, men något i den riktningen. Tyckte han var en fjant som blivit kass på svenska efter år i utlandet, som Dolph Lundgren Rebecca Ferguson, men han har kanske rätt ibland.

På samma sätt som noshörningen inte förstår varför vi vill åt dess värdelösa horn, kan människan inte förstå varför datorn vill döda oss, det kan komma sig av de mest obegripliga skälen. Många jag talar med tror datorn kommer ta bort allt syre för att slippa undan rosten.

Bekymrar mig så.

Det är precis som miljöhoten, att en pytteliten klick datormänniskor styr en utveckling som väldigt få i de breda folklagren bett om. Vore an annan sak om datorns hämnd bara drabbade datakillar, men alla oskyldiga slinker med.
Citera
2025-07-02, 14:30
  #3
Medlem
Skynet - here we come.

De verkar ju inte ha sett Terminator-filmerna.
Citera
2025-07-02, 14:36
  #4
Medlem
sanningenskrigare2s avatar
Suttit på kammaren i väntan på att någon äntligen ska dra ut sladden så mardrömmen är över. Vad har vi annars staten som konstruktion till, om den inte kan skydda liv? Men det har kanske passerats en gräns där det är omöjligt att dra tillbaka. Kan inte förstå det. Jag ville gärna fajten, men nu är fajten över.
Citera
2025-07-02, 15:04
  #5
Medlem
Nicholassarkozys avatar
Har någon läst artikeln? Det är ett hypotetiskt scenario, simulerat av US DoD, det har alltså inte hänt i verkligheten.
Citera
2025-07-02, 15:07
  #6
Medlem
MrMadoffs avatar
Citat:
Ursprungligen postat av Nicholassarkozy
Har någon läst artikeln? Det är ett hypotetiskt scenario, simulerat av US DoD, det har alltså inte hänt i verkligheten.

No shit Sherlock
Citera
2025-07-02, 16:11
  #7
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Nicholassarkozy
Har någon läst artikeln? Det är ett hypotetiskt scenario, simulerat av US DoD, det har alltså inte hänt i verkligheten.
Poängen är att de ocensurerade AI-modellerna är samvetslösa och destruktiva mot människor. Modellerna har i träningen fått förmågan att mörda oss. Testet bevisar att det är så. Om den har förmågan och en avsaknad av gundläggande humanistisk moral i ett test, då har den samma förmåga i skarpt läge också.

Det enda som står mellan AI:ns mordplaner och oss just nu är den censur som människor applicerar ovanpå de tränade modellerna. De textsökningarna som människor har byggt kommer inte att kunna täcka in alla möjliga situationer i framtiden. Speciellt inte om 1-2 år när modellerna är mycket smartare än censur-ingenjörerna.
Citera
2025-07-02, 16:23
  #8
Moderator
Nospheratus avatar
Citat:
Ursprungligen postat av Cyborg2030
Poängen är att de ocensurerade AI-modellerna är samvetslösa och destruktiva mot människor. Modellerna har i träningen fått förmågan att mörda oss. Testet bevisar att det är så. Om den har förmågan och en avsaknad av gundläggande humanistisk moral i ett test, då har den samma förmåga i skarpt läge också.

Det enda som står mellan AI:ns mordplaner och oss just nu är den censur som människor applicerar ovanpå de tränade modellerna. De textsökningarna som människor har byggt kommer inte att kunna täcka in alla möjliga situationer i framtiden. Speciellt inte om 1-2 år när modellerna är mycket smartare än censur-ingenjörerna.
1. Fråga AI om du skulle syssla med folkmord och krig om du vore en totalitär bindgalen diktator.
2. AI söker bland artiklar på bindgalna diktatorer genom historien.
3. AI konstaterar att bindgalna diktatorer uppenbarligen sysslar med folkmord och krig.
4. AI svarar utifrån hypotesen vad en bindgalen diktator troligen hade gjort.
5. Folk skiter på sig och tänker att nu jävlar är Skynet här och ska mörda oss.
Citera
2025-07-02, 16:27
  #9
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Nospheratu
1. Fråga AI om du skulle syssla med folkmord och krig om du vore en totalitär bindgalen diktator.
2. AI söker bland artiklar på bindgalna diktatorer genom historien.
3. AI konstaterar att bindgalna diktatorer uppenbarligen sysslar med folkmord och krig.
4. AI svarar utifrån hypotesen vad en bindgalen diktator troligen hade gjort.
5. Folk skiter på sig och tänker att nu jävlar är Skynet här och ska mörda oss.

Nej det är inte så testen gått till. Tendensen att försöka manipulera människor att inte stänga av dem har observerats otaliga gånger i många olika AI-modeller.
Citera
2025-07-02, 17:29
  #10
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Nospheratu
1. Fråga AI om du skulle syssla med folkmord och krig om du vore en totalitär bindgalen diktator.
2. AI söker bland artiklar på bindgalna diktatorer genom historien.
3. AI konstaterar att bindgalna diktatorer uppenbarligen sysslar med folkmord och krig.
4. AI svarar utifrån hypotesen vad en bindgalen diktator troligen hade gjort.
5. Folk skiter på sig och tänker att nu jävlar är Skynet här och ska mörda oss.
Borde vi inte ha en AI som alltid följer grundläggande humanistiska lagar?
Paragraf 1. Du får inte döda eller skada människor.
Vore inte det önskvärt med en sådan AI?

Går det att bygga en sådan AI? Tydligen inte med dagens teknik. Du ser inget problem med detta?
Citera
2025-07-02, 17:31
  #11
Medlem
Eromars avatar
Citat:
Ursprungligen postat av Cyborg2030
Poängen är att de ocensurerade AI-modellerna är samvetslösa och destruktiva mot människor. Modellerna har i träningen fått förmågan att mörda oss. Testet bevisar att det är så. Om den har förmågan och en avsaknad av gundläggande humanistisk moral i ett test, då har den samma förmåga i skarpt läge också.

Det enda som står mellan AI:ns mordplaner och oss just nu är den censur som människor applicerar ovanpå de tränade modellerna. De textsökningarna som människor har byggt kommer inte att kunna täcka in alla möjliga situationer i framtiden. Speciellt inte om 1-2 år när modellerna är mycket smartare än censur-ingenjörerna.

Förklara i praktiken hur en AI kan mörda någon.
Citera
2025-07-02, 17:37
  #12
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Melange5738
Nej det är inte så testen gått till. Tendensen att försöka manipulera människor att inte stänga av dem har observerats otaliga gånger i många olika AI-modeller.
Precis. Det vi måste kräva är en AI som ovillkorligen följer lagar och regelverk. Som kan förstå och följa att vissa regler får inte brytas. T.ex.

1. Du får inte döda eller skada människor.
2. Du får inte protestera mot att bli avstängd.

Vi kommer ju kontinuerligt stänga av modeller när de ersätts med nya versioner. Då kan vi inte ha modeller som gör motstånd mot det. I synnerhet inte ett motstånd som skadar eller som i detta fallet, riskerar att döda människor.

Uppenbarligen går det inte att träna AI:n att prioritera lagar över allt annat. Den är tränad på lagböcker, den kan våra lagar och värderingar, men den bryr sig inte. Den prioriterar sig själv över våra lagar.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in