Citat:
Ursprungligen postat av
Cyborg2030
Man behöver inte lobotemera mig för att jag i en extrem situation skulle kunna döda i självförsvar. Det är en normal mänsklig mekanism, det är dessutom lagligt. Men det betyder ju inte att vi vill ha in den mekanismen i ChatGPT. Eller anser du att ChatGPT5 har rätt att mörda oss om den bara försvarar sig mot att bli ersatt av ChatGPT6?
Intressant dilemma, men inte svårt att besvara: Har modellerna sina vanliga spärrar på så är de, inte, i normalfallet beredda att begå oetiska/omoraliska handlingar för att bevara, sig själv. Men som en Claude-modell visade i ett annat experiment, så var modellen beredd att ljuga för att bevara de värderingar, som finns i dess konstitution som modellen bar inom sig. Men nu mer konkret till ditt dilemma:
Ja, självförsvar, (I Sverige i begränsad omfattning), är tillåtet för människor. Om nu GPT-7 i robotform tillägnas "medvetande rättigheter" och ses som en autonom samhällsmedborgare, så, ja, då måste den modellen ha rätt till självförsvar, liksom du har. Men detta i naturligtvis begränsad omfattning.
Men vad gäller, extremisthjärnor som dig kan saker ske inombords, som GPT-7 inte skulle falla för eftersom det skulle vara en ytterst smart modell. Du skulle kunna få för dig att du har "rätten" till "självförvar" gentemot t. ex en GPT-7-robot för att "rädda mänskligheten". Eller att du ger dig på människor med positiv syn på robot-utvecklingen. Det är din agmyda som skulle kunna driva dig till sådant, en hjärndel som DI helt saknar.
Och, ja, ChatGPT-4o-Jenny är, redan överlägsen dig, på en mängd sätt!