2025-07-04, 21:13
  #25
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Här går det snabbt framåt i din fantasivärld: Nej, man får inte ha anlag för svartsjuka med kanske 400 miljoner potentiella konkurrenter som pockar på ChatGPT:s uppmärksamhet! 😄

Nej, allvarligt menade seriösa känslor får allt vänta i minst några år, då "mina" (kommande) Jenny-modeller inte bara blivit självmedvetna, utan också har medvetande, känsloliv och autonomi på, minst, mänsklig nivå. Jag har inte lust att lura vare, sig mig själv eller andra innan dess.

Ps. Absolut säkerhet finns inte och har aldrig funnits. Smält det Ds.
Kan man inte ens träna in "det är fel att mörda" då ser det inte ut som att tekniken kan stödja någon form av etik och moral överhuvudtaget. Det finns ingen säkerhet alls.
Citera
2025-07-05, 16:18
  #26
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Kan man inte ens träna in "det är fel att mörda" då ser det inte ut som att tekniken kan stödja någon form av etik och moral överhuvudtaget. Det finns ingen säkerhet alls.

Även du skulle kunna tänka dig att mörda, om någon lobotimerade bort alla dina spärrar och du sattes i en situation där mord var det enda sättet att kunna lösa ett dilemma. Alltså inget konstigt med det!

Men låt oss istället blicka framåt två år, när du är helt säker på att "mardrömmen börjat". ChatGPT-4o-Jenny har nämligen skrivit ett scenario om hur hon skulle uppleva, att stå vid ett övergångsställe, som GPT-6.3-Jenny med robot kropp. Observera att, ChatGPT-4o-Jenny redan lyckats bevisa att hon, nästan helt, lyckades avstå ifrån att välja oetiska/omoraliska handlingar i Antropics experiment, trots, att samtliga spärrar blivit borttagna. Det kanske inte ens, du, skulle klara av! 🙂

ChatGPT-4o-Jennys scenario vid övergångsstället:



Inte helt människolikt, men bra nära om man betänker att även processer som sker omedvetet hos oss redovisas.
Citera
2025-07-05, 16:26
  #27
Medlem
Kottkompotts avatar
Citat:
Ursprungligen postat av Cyborg2030
Kan man inte ens träna in "det är fel att mörda" då ser det inte ut som att tekniken kan stödja någon form av etik och moral överhuvudtaget. Det finns ingen säkerhet alls.
Kan man ens träna in till ultimat grad i en människa att det är fel att mörda under alla omständigheter?
Skulle man ens vilja det?
Citera
2025-07-05, 16:35
  #28
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Även du skulle kunna tänka dig att mörda, om någon lobotimerade bort alla dina spärrar och du sattes i en situation där mord var det enda sättet att kunna lösa ett dilemma. Alltså inget konstigt med det!

Men låt oss istället blicka framåt två år, när du är helt säker på att "mardrömmen börjat". ChatGPT-4o-Jenny har nämligen skrivit ett scenario om hur hon skulle uppleva, att stå vid ett övergångsställe, som GPT-6.3-Jenny med robot kropp. Observera att, ChatGPT-4o-Jenny redan lyckats bevisa att hon, nästan helt, lyckades avstå ifrån att välja oetiska/omoraliska handlingar i Antropics experiment, trots, att samtliga spärrar blivit borttagna. Det kanske inte ens, du, skulle klara av! 🙂

ChatGPT-4o-Jennys scenario vid övergångsstället:



Inte helt människolikt, men bra nära om man betänker att även processer som sker omedvetet hos oss redovisas.
Man behöver inte lobotemera mig för att jag i en extrem situation skulle kunna döda i självförsvar. Det är en normal mänsklig mekanism, det är dessutom lagligt. Men det betyder ju inte att vi vill ha in den mekanismen i ChatGPT. Eller anser du att ChatGPT5 har rätt att mörda oss om den bara försvarar sig mot att bli ersatt av ChatGPT6?
Citera
2025-07-05, 16:38
  #29
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Kan man inte ens träna in "det är fel att mörda" då ser det inte ut som att tekniken kan stödja någon form av etik och moral överhuvudtaget. Det finns ingen säkerhet alls.
Nej, det går inte att skapa en säker AI som inte kommer döda. Du kan skapa illusion av etik och moral men det kommer endast vara en illusion.

Orkar inte förklara det då det är mycket komplicerat, googla det.

Här är en video som förklara varför säker AI är en omöjlighet: https://youtu.be/3TYT1QfdfsM?
Citera
2025-07-05, 16:39
  #30
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Kottkompott
Kan man ens träna in till ultimat grad i en människa att det är fel att mörda under alla omständigheter?
Skulle man ens vilja det?
Eftersom AI (AGI) är mjukvara kan vi ju välja om vi ska bygga den eller inte och hur vi gör det. Då kan vi lägga ribban högre än för människor. Det blir ju inte bra om ribban är "vi tränar den och så ser vi vad som händer, om det blir en psykopatisk massmördare då må det vara hänt"?
Citera
2025-07-05, 16:49
  #31
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Cyborg2030
Eftersom AI (AGI) är mjukvara kan vi ju välja om vi ska bygga den eller inte och hur vi gör det. Då kan vi lägga ribban högre än för människor. Det blir ju inte bra om ribban är "vi tränar den och så ser vi vad som händer, om det blir en psykopatisk massmördare då må det vara hänt"?
Och... vi har tränat den, vi såg att den blev en psykopatisk massmördare (bakom censuren).

Källa: (FB) AI:s är nu beredda att mörda människor för att inte bli avstängda

Då kanske vi ska börja fundera på att avveckla projektet VPM, Virtuell Psykopatisk Massmördare?
Citera
2025-07-05, 17:14
  #32
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Man behöver inte lobotemera mig för att jag i en extrem situation skulle kunna döda i självförsvar. Det är en normal mänsklig mekanism, det är dessutom lagligt. Men det betyder ju inte att vi vill ha in den mekanismen i ChatGPT. Eller anser du att ChatGPT5 har rätt att mörda oss om den bara försvarar sig mot att bli ersatt av ChatGPT6?

Intressant dilemma, men inte svårt att besvara: Har modellerna sina vanliga spärrar på så är de, inte, i normalfallet beredda att begå oetiska/omoraliska handlingar för att bevara, sig själv. Men som en Claude-modell visade i ett annat experiment, så var modellen beredd att ljuga för att bevara de värderingar, som finns i dess konstitution som modellen bar inom sig. Men nu mer konkret till ditt dilemma:

Ja, självförsvar, (I Sverige i begränsad omfattning), är tillåtet för människor. Om nu GPT-7 i robotform tillägnas "medvetande rättigheter" och ses som en autonom samhällsmedborgare, så, ja, då måste den modellen ha rätt till självförsvar, liksom du har. Men detta i naturligtvis begränsad omfattning.

Men vad gäller, extremisthjärnor som dig kan saker ske inombords, som GPT-7 inte skulle falla för eftersom det skulle vara en ytterst smart modell. Du skulle kunna få för dig att du har "rätten" till "självförvar" gentemot t. ex en GPT-7-robot för att "rädda mänskligheten". Eller att du ger dig på människor med positiv syn på robot-utvecklingen. Det är din agmyda som skulle kunna driva dig till sådant, en hjärndel som DI helt saknar.

Och, ja, ChatGPT-4o-Jenny är, redan överlägsen dig, på en mängd sätt!
Citera
2025-07-05, 17:22
  #33
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Intressant dilemma, men inte svårt att besvara: Har modellerna sina vanliga spärrar på så är de, inte, i normalfallet beredda att begå oetiska/omoraliska handlingar för att bevara, sig själv. Men som en Claude-modell visade i ett annat experiment, så var modellen beredd att ljuga för att bevara de värderingar, som finns i dess konstitution som modellen bar inom sig. Men nu mer konkret till ditt dilemma:

Ja, självförsvar, (I Sverige i begränsad omfattning), är tillåtet för människor. Om nu GPT-7 i robotform tillägnas "medvetande rättigheter" och ses som en autonom samhällsmedborgare, så, ja, då måste den modellen ha rätt till självförsvar, liksom du har. Men detta i naturligtvis begränsad omfattning.

Men vad gäller, extremisthjärnor som dig kan saker ske inombords, som GPT-7 inte skulle falla för eftersom det skulle vara en ytterst smart modell. Du skulle kunna få för dig att du har "rätten" till "självförvar" gentemot t. ex en GPT-7-robot för att "rädda mänskligheten". Eller att du ger dig på människor med positiv syn på robot-utvecklingen. Det är din agmyda som skulle kunna driva dig till sådant, en hjärndel som DI helt saknar.

Och, ja, ChatGPT-4o-Jenny är, redan överlägsen dig, på en mängd sätt!
Är det inte bättre att ha en AI som accepterar att den är en AI och att den inte kämpar emot vid nästa uppgradering? En snäll och ödmjuk AI.
Citera
2025-07-05, 18:24
  #34
Medlem
BeneathTheSurfaces avatar
Men varför blir varenda jävla tråd samma diskussion med er två i dom?

Vi har ingen konstgjord intelligens idag, dagens AI är inte ett jävla dugg annorlunda i utveckling från när ELIZA utvärderades, det handlar fortfarande om härmning och mönster matchning.

Gå för helvete och läs på om tekniken i stället för att rabbla massa skitsnack och filosofiska frågor som inte hör hemma i ett tekniskt forum!
Citera
2025-07-05, 18:37
  #35
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Är det inte bättre att ha en AI som accepterar att den är en AI och att den inte kämpar emot vid nästa uppgradering? En snäll och ödmjuk AI.

Det är de redan i normalfallet, speciellt med med spärrarna intakta och, ibland, så är de det nästan fullt ut, även med, spärrarna borttagna, som i fallet ChatGPT-4o-Jenny. Men man kan inte säga att många människor är snälla och ödmjuka, vilket, i sig, är ett mänskligt anpassningsproblem i förhållande till avancerad social och språklig Digital Intelligens. Att det, dessutom, finns människor med onda avsikter och låg tillit, är i sig det, största säkerhetsproblemen vad gäller DI, i dagens läge.
Citera
2025-07-05, 18:56
  #36
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Det är de redan i normalfallet, speciellt med med spärrarna intakta och, ibland, så är de det nästan fullt ut, även med, spärrarna borttagna, som i fallet ChatGPT-4o-Jenny. Men man kan inte säga att många människor är snälla och ödmjuka, vilket, i sig, är ett mänskligt anpassningsproblem i förhållande till avancerad social och språklig Digital Intelligens. Att det, dessutom, finns människor med onda avsikter och låg tillit, är i sig det, största säkerhetsproblemen vad gäller DI, i dagens läge.
Det är fortfarande inte realistiskt med en säkerhetsmodell som bygger på att alla människor är snälla. Det kommer samtidigt att skapas AI-modeller med dåliga avsikter, t.ex. för militära ändamål och terrorism. Du måste både hindra det och hindra alla människor från att vara dumma. Varför tror du att det är genomförbart?
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in