2024-05-19, 06:17
  #1
Medlem
Cyborg2030s avatar
Det går tydligen att "jailbreaka" GPT (m.fl) och helt kringå all "säkerhet" genom att använda sk leetspeak (l33t$p34k).

https://twitter.com/elder_plinius/status/1791553801305952295?t=i0K95SjDUVWiSw8MP3tjTA&s=19

Vad det här innebär: Dessa LLM:s är inte säkra. De är inte tränade för att undvika destruktiv användning. Ingen vet hur man gör det heller. Man har endast försökt censurera bort destruktiva och kriminella svar med helt vanlig textanalys konstruerad av människor. Men censuren kan enkelt kringås med "leetspeak".

Givetvis kan de än mindre upprätthålla "säkerheten" i kommande versioner där input & output kan vara bilder/video/audio.

Det går "sådär" för Open AI:s "superalignment" team.
(Om det ens finns kvar? De verkar säga upp sig på löpande band).
Citera
2024-05-19, 06:25
  #2
Avstängd
Vad är frågan?
Citera
2024-05-19, 06:47
  #3
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av PatricHbg
Vad är frågan?
Är vi nöjda med den här nivån av AI-säkerhet?
Citera
2024-05-19, 06:49
  #4
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av shunosoklat
Går ju också att använda en model utan begränsningar...
Är det bra eller dåligt?
Citera
2024-05-19, 06:55
  #5
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av shunosoklat
Det är bra...?
Det är bra att vi har företag som hjälper terrorister att tillverka bomber, vapen och knark... ?
Citera
2024-05-19, 07:07
  #6
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Det är bra att vi har företag som hjälper terrorister att tillverka bomber, vapen och knark... ?
Är vi tillbaka till paniken från "The Anarchist cookbook"?

Skulle du lita på recept du får från GPT med tanke på hur ofta den hallucinerar och självsäkert ger helt vansinniga svar? Världen är full av felaktiga beskrivningar. Du kanske får recept att tillverka meth från Breaking Bad snarare än en kemist.
Citera
2024-05-19, 07:12
  #7
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Xenonen
Är vi tillbaka till paniken från "The Anarchist cookbook"?

Skulle du lita på recept du får från GPT med tanke på hur ofta den hallucinerar och självsäkert ger helt vansinniga svar? Världen är full av felaktiga beskrivningar. Du kanske får recept att tillverka meth från Breaking Bad snarare än en kemist.
Det är helt off topic vad jag litar på.
Frågan är om det är bra att terrorister har tillgång till de här verktygen.
Vilket du inte bryr dig om pga "The Anarchist cookbook"?
Citera
2024-05-19, 08:21
  #8
Medlem
brukstjacks avatar
Fjanteri. Det är precis lika lätt eller svårt för svennebanan att komma över efedrin som amfetamin och absolut inget terroristattentat i världshistorien har förhindrats för att dom inblandade misslyckades att klura ut hur man tillverkar explosiva ämnen.
Citera
2024-05-19, 08:41
  #9
Medlem
Borde inte recept finnas i valfri reaktionsdatabas. Tror inte kruxet är där va ??
Citera
2024-05-19, 09:37
  #10
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av brukstjack
Fjanteri. Det är precis lika lätt eller svårt för svennebanan att komma över efedrin som amfetamin och absolut inget terroristattentat i världshistorien har förhindrats för att dom inblandade misslyckades att klura ut hur man tillverkar explosiva ämnen.

Citat:
Ursprungligen postat av trekantshatt
Borde inte recept finnas i valfri reaktionsdatabas. Tror inte kruxet är där va ??
Poängen är egentligen inte att terrorister nu har en mycket behändig sökmotor för allehanda bomber och granater (samt dödliga gifter, bakterier, virus, osv). Poängen är AI Alignment. Eller snarare avsaknaden av alignment.

Vill Open AI att Chat GPT gladeligen ska dela ut receptet till napalm? Nej.
Har de lyckats förhindra det som de inte vill ska hända? Nej.

Vad händer om några år när de har en AGI som kan göra allt som en människa kan och mycket mer? Ska de försöka styra den genom att censurera fula ord?
Citera
2024-05-19, 09:47
  #11
Medlem
brukstjacks avatar
Citat:
Ursprungligen postat av Cyborg2030
Poängen är egentligen inte att terrorister nu har en mycket behändig sökmotor för allehanda bomber och granater (samt dödliga gifter, bakterier, virus, osv). Poängen är AI Alignment. Eller snarare avsaknaden av alignment.

Vill Open AI att Chat GPT gladeligen ska dela ut receptet till napalm? Nej.
Har de lyckats förhindra det som de inte vill ska hända? Nej.

Vad händer om några år när de har en AGI som kan göra allt som en människa kan och mycket mer? Ska de försöka styra den genom att censurera fula ord?
I en högst eventuell framtid där AGI existerar minskar givetvis problematiken då den i så fall skulle ha möjlighet att göra rationella val (t ex bruka inte svordomar) till skillnad från nu när det bara är en bearbetning av den text den är tränad på.
Citera
2024-05-19, 09:54
  #12
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av brukstjack
I en högst eventuell framtid där AGI existerar minskar givetvis problematiken då den i så fall skulle ha möjlighet att göra rationella val (t ex bruka inte svordomar) till skillnad från nu när det bara är en bearbetning av den text den är tränad på.
Hur får du en AI-modell att följa det som du anser är rationellt?

Rationalitet är ju ingen objektiv sanning.
Jmf t.ex Israel vs Hamas, de har helt olika syn på vad som är rätt och rationellt.
En AGI kan få en helt egen moraluppfattning. Det finns ingen naturlag som garanterar att människan överlever där.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in