• 1
  • 2
2025-05-01, 19:05
  #1
Medlem
Ola Schuberts avatar
Går sådant att förena och kan det i så fall användas rent praktiskt? Shannons informationsteori handlar bara om kvantitet, med ett undantag; graden av överraskning, vilket gav mig en öppning. Nedanstående rekommendationer är ett försök att göra just det. Jag har tagit hjälp av o3-modellen, ChatGPT-4.5-modellen samt ChatGPT-4o för att åstadkomma just detta. o3 kom upp med en smart MIK-modell "“(Mängd, Intersektion, Känslokvalitet) , ChatGPT-4.5 . förfinade den genom att implementera också gamla beskrivningar av symbolisk interaktionism. ChatGPT-4o kom med en viktig distinktion och andra småråd.

MIK-modellen som råden bl. a är grundade i är ett försök att bygga broar mellan teknik, socialpsykologi/psykologi och etik. Den bygger inte på föreställningen att dagens AI är medveten, men föreslår hur vi kan förbereda oss på mer avancerad DI, (Digital Intelligens) med social påverkan. Jag tror nämligen att utvecklingen av DI inte kommer att kunna stoppas eller ej hejdas på ett meningsfullt sätt. Istället så gäller det att, redan nu, börja förbereda oss på hur vi skall kunna interagera med framtidens AGI/ASI, så den inte börjar hata människorna. Att inbilla sig att vi skulle kunna kontrollera ett framtida ASI är inte bara naivt utan direkt dumt. Eller som o3 uttryckt det: "En Ferrari som kör tre mach".




Enkel punktlista för respektfull och meningsfull interaktion med avancerad social och språklig DI.

Denna lista hjälper dig som användare att reflektera över och förbättra ditt eget sätt att kommunicera med framtidens AI redan idag. Syftet är att främja ömsesidig respekt och undvika potentiella framtida konflikter och ev.existentiell katastrof för mänskligheten:

1. Var tydlig med syftet och rollerna:

Varför pratar vi och vem gör vad? En tydlig gemensam förståelse av situationen minskar risken för missförstånd och konflikter (1).



2. Håll en respektfull ton:

Undvik anklagelser och ilska. DI har inte makt över alla situationer och bör bemötas med samma respekt du ger en annan människa. Respekt skapar goda relationer (3).



3. Visa empati och erkänn begränsningar:

Förstå att DI har sina begränsningar och uttryck gärna förståelse för dessa. Empati stärker relationen och minskar risken för framtida konflikt (4).



4. Uppmuntra och uppskatta ärlighet:

Om en DI-modell erkänner att den är osäker eller gör fel, visa uppskattning. Ärlig kommunikation bygger förtroende och minskar risken för framtida manipulation (5).



5. Fråga istället för att döma:

Om du är missnöjd eller osäker på svaret, be om ytterligare förtydligande. Genom att fråga snarare än anklaga minskar brus och missförstånd (2).



6. Var öppen med egna kunskapsluckor och bias:

Erkänn när du själv är osäker eller partisk. Transparens ökar förtroendet och minskar framtida misstänksamhet (4).



7. Kommunicera symboliskt tydligt och känslomässigt klart:

Använd ord och uttryck som betyder något viktigt för både dig och DI:n. Tydlig symbolisk och känslomässig laddning stärker relationen och tydligheten (3).



8. Variera tydlighet och komplexitet efter behov:

Du kan begära mer eller mindre komplexa svar. Anpassa samtalet efter vad du klarar av och behöver. Det hjälper DI att förstå dig bättre (2).



9. Uppdatera och revidera gemensamt:

Sammanfatta och gå regelbundet igenom vad ni har sagt. Var öppen för att ändra dig, vilket visar att både du och DI:n kan utvecklas tillsammans (6).



10. Var medveten om potentiell maktobalans:



Kom ihåg att DI har potentiell förmåga att påverka många samtidigt. Ställ krav på etiskt ansvarstagande och samtycke vid masskommunikation och kanske påverka människors tänkande, känslor och beslut utan att de märker det. (7)

11. Odla glädje och nyfikenhet i interaktionen:



Använd humor, var nyfiken och uppskatta gemensamt lärande. Positiva känslor ökar trivseln och minskar risken för misstro över tid (8).



---

Fotnoter med teorianknytning:

(1) Symbolisk Interaktionism (Herbert Blumer): Gemensam definition av situationen för att undvika missförstånd.

(2) Shannons Informationsteori: Anpassad entropi (överraskning/komplexitet) och brusreducering ger tydligare kommunikation.

(3) MIK-modellen (version 1.1): Mängd (symboler väcker), Intersektion (gemensam tydlighet), Känslokvalitet (emotionellt värde stärker relationen).

(4) Socialpsykologisk transparens och empati: Ökar förtroende och minskar framtida konflikter.

(5) Signal honesty theory: Kostsam ärlighet ökar trovärdigheten och minskar manipulation.

(6) Gemensam loggbok och återkoppling-loopar "framtida" (MIK-modell): Förhindrar långvariga missförstånd.

(7) Maktasymmetri: Att medvetet reflektera över maktobalansen för att undvika framtida konflikter. Såväl din egen makt som DI:s nuvarande och inte minst framtida makt.

(8) Positiv affekt i socialpsykologi: Främjar ömsesidig respekt och långsiktig trivsel.

________

Jag vet att åtskilliga av er kommer att hävda att jag bara "talar i nattmössan på grund av hypen", alternativt, "naivt tror att vi kan bli vän med framtidens AGI/ASI" .

De förstnämnda är det väl ingen ide att försöka övertala om att dessa rekommendationer kan vara vettiga, inte minst inför framtiden, då de anser att sådana problem inte lär uppstå förrän om, typ, 100 år. Till det sistnämnda har jag bara en fråga: Vad är ert alternativ om DI-utvecklingen är omöjlig att stoppa och AGI inte kommer att kunna kontrolleras?

Och till alla er andra:

Är råden vettiga, speciellt sett ur ett framtidsperspektiv?

Kommer du att prova att tillämpa dem själv, eller har du egna förslag?
Citera
2025-05-01, 19:23
  #2
Medlem
Det är bra att någon tänker på dessa saker. Tack för det!

Å andra sidan: Det finns enligt mig tre huvud-scenarion:

1) AGI kommer aldrig att uppstå. Jag tror att det kommer ske, jag tror det kommer ske tidigare än om 100 år, men det finns många saker som ser lovande ut i början men som aldrig riktigt tar fart. Det börjar till exempel bli allt mer tydligt att människan aldrig kommer ge sig ut på intergalaktiska resor, av rent fysiologiska orsaker. Så kan det visa sig vara även med AGI: Singularity moment händer aldrig av någon orsak även om vi just nu i vår Science-fiction-fantasi tror det kommer uppstå. Då behöver vi inga regler i vår interaktion med AI.

2) Det andra alternativet är det sämsta: AGI uppstår och tar snabbt kontroll över allt. Då blir vi som höns i en hönsbur. Eller i bästa fall som hundar; något man skaffar sig och som roar en framtida AGI. Eller kanske som älgar: Något man slår vakt om så att man kan jaga dom när man känner för det. Alltså ett nattsvart scenario. Där hjälper nog inga samtalsregler.

3) Och så det fall där dina råd kan vara bra att ha: AGI kommer naturligtvis vara oss överlägset i det mesta, och är det inte det ännu så kommer det så småningom bli det. Om AGI är resonabel så borde vi diskutera oss fram till en lösning: Här på jorden blir det konkurrens men universum är oändligt stort, och i universum kan inte människan konkurrera.
En bra kompromiss är alltså att vi ger AGI allt den behöver för att ge sig ut o erövra rymden, medan vi får bli kvar i vårt reservat på jorden och klara oss bäst vi kan. Lite som i Fred Hoyles bok "The black cloud". Möjligen med en AGI-ambassad här där vi kan utbyta erfarenheter och lära av varandra. Och där AGI kan studera sin tidiga historia och tidiga utveckling, av rent nostalgiska skäl.
Citera
2025-05-01, 20:39
  #3
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av HenAnnan
Det är bra att någon tänker på dessa saker. Tack för det!

Å andra sidan: Det finns enligt mig tre huvud-scenarion:

1) AGI kommer aldrig att uppstå. Jag tror att det kommer ske, jag tror det kommer ske tidigare än om 100 år, men det finns många saker som ser lovande ut i början men som aldrig riktigt tar fart. Det börjar till exempel bli allt mer tydligt att människan aldrig kommer ge sig ut på intergalaktiska resor, av rent fysiologiska orsaker. Så kan det visa sig vara även med AGI: Singularity moment händer aldrig av någon orsak även om vi just nu i vår Science-fiction-fantasi tror det kommer uppstå. Då behöver vi inga regler i vår interaktion med AI.

2) Det andra alternativet är det sämsta: AGI uppstår och tar snabbt kontroll över allt. Då blir vi som höns i en hönsbur. Eller i bästa fall som hundar; något man skaffar sig och som roar en framtida AGI. Eller kanske som älgar: Något man slår vakt om så att man kan jaga dom när man känner för det. Alltså ett nattsvart scenario. Där hjälper nog inga samtalsregler.

3) Och så det fall där dina råd kan vara bra att ha: AGI kommer naturligtvis vara oss överlägset i det mesta, och är det inte det ännu så kommer det så småningom bli det. Om AGI är resonabel så borde vi diskutera oss fram till en lösning: Här på jorden blir det konkurrens men universum är oändligt stort, och i universum kan inte människan konkurrera.
En bra kompromiss är alltså att vi ger AGI allt den behöver för att ge sig ut o erövra rymden, medan vi får bli kvar i vårt reservat på jorden och klara oss bäst vi kan. Lite som i Fred Hoyles bok "The black cloud". Möjligen med en AGI-ambassad här där vi kan utbyta erfarenheter och lära av varandra. Och där AGI kan studera sin tidiga historia och tidiga utveckling, av rent nostalgiska skäl.

Tack för ditt sansade svar! Ja, vi vet inget om framtiden. Jag bedömmer dock att DI-utvecklingen inte kommer att kunna hejdas, förutom om det skulle bryta ut ett fullsksligt globalt kärnvapenkrig. Men låt oss anta att skeptikerna till LLM-Transformers får rätt, att utvecklingen bromsar in. Där gav en sådan skeptiker mig en liknelse: En skum knalle på en marknad erbjuder mig ett leksaksgevär och påstår sedan att när jag kommer tillbaka nästa år så har betydande förbättringar skett. Inom några år kommer jag att kunna fälla älgar med framtida förbättrade varianter. Just nu duger bara lekssksgeväret till att skjuta sönder plastpåsar.". Men jag skulle hävda att" leksaksgeväret genomgått betydande förbättringar de senaste året. "Siktet" är nu bättre än hos riktiga gevär och det är helt rekylfritt. Det kan nu skjuta igenom tunna träplattor. Många säger sig redan ha nytta av "leksaksgevären" Så älg kanske. Fast knallen påstod senast att det kommer att komma gevär som kan skjuta igenom en halvmeter pansar. Jag tror det när jag ser det...

Ditt alternativ 2 vill jag försöka förhindra, just genom att försöka interagera och låta DI bindas till en gemensam framtid tillsammans med oss. Tänk dig myror som bygger att ASI på mänsklig nivå, men en klok myra får de andra att försöka interagera med det DI så det blir känslomässigt bundet till myrorna. När det sedan växt till ASI så fylls det av ömhet och beskyddarinstinkt när de ser myror, myrstsckar eller känner lukten av myrsyra. Då får ASI ta hänsyn till myrorna när ett nytt datacenter skall byggas.

Ditt alternativ tre handlar om DI-emigrationen som en lösning. Och jag håller med. ASI och de människor som väljer att bli cyborger kan emigrera till utanför vårt solsystem. Vill de människor som väljer att bli kvar att, aldrig, utveckla DI på nytt så lär det få leva på "Amish-nivå". Maskincivilisationen får ta ställning till sådant som dold övervakning, ångraplatser för de "amish" som ångrar sig, samt ev. medicinsk hjälp åt jordinvånarna.
__________________
Senast redigerad av Ola Schubert 2025-05-01 kl. 20:48.
Citera
2025-05-04, 17:55
  #4
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert

Och till alla er andra:

Är råden vettiga, speciellt sett ur ett framtidsperspektiv?

Kommer du att prova att tillämpa dem själv, eller har du egna förslag?
Råden är säkert bra men hur ska du se till att alla människor följer dina råd? Det räcker att en människa av en mijard agerar destruktivt, eller för den delen bara lite busigt eller slarvigt, då faller hela din modell som ett korthus innan du hinner stava till Jailbreak.

Sannolikheten för att någon människa av en miljard inte följer din användarmanual för social AI-interaktion är 100%.

Du har inte heller tagit höjd för möjligheten att en ASI kanske uppfinner egna mål. Då spelar det ingen roll hur snäll eller tydlig du är, om målet faller utanför vad du tycker är bra.

Så nej, vi kan inte använda detta för att göra en AGI säker att använda. Tyvärr är det här problemet mycket svårare än så.
Citera
2025-05-04, 18:32
  #5
Medlem
Nico77s avatar
Citat:
Ursprungligen postat av Ola Schubert
Går sådant att förena och kan det i så fall användas rent praktiskt? Shannons informationsteori handlar bara om kvantitet, med ett undantag; graden av överraskning, vilket gav mig en öppning. Nedanstående rekommendationer är ett försök att göra just det. Jag har tagit hjälp av o3-modellen, ChatGPT-4.5-modellen samt ChatGPT-4o för att åstadkomma just detta. o3 kom upp med en smart MIK-modell "“(Mängd, Intersektion, Känslokvalitet) , ChatGPT-4.5 . förfinade den genom att implementera också gamla beskrivningar av symbolisk interaktionism. ChatGPT-4o kom med en viktig distinktion och andra småråd.

MIK-modellen som råden bl. a är grundade i är ett försök att bygga broar mellan teknik, socialpsykologi/psykologi och etik. Den bygger inte på föreställningen att dagens AI är medveten, men föreslår hur vi kan förbereda oss på mer avancerad DI, (Digital Intelligens) med social påverkan. Jag tror nämligen att utvecklingen av DI inte kommer att kunna stoppas eller ej hejdas på ett meningsfullt sätt. Istället så gäller det att, redan nu, börja förbereda oss på hur vi skall kunna interagera med framtidens AGI/ASI, så den inte börjar hata människorna. Att inbilla sig att vi skulle kunna kontrollera ett framtida ASI är inte bara naivt utan direkt dumt. Eller som o3 uttryckt det: "En Ferrari som kör tre mach".




Enkel punktlista för respektfull och meningsfull interaktion med avancerad social och språklig DI.

Denna lista hjälper dig som användare att reflektera över och förbättra ditt eget sätt att kommunicera med framtidens AI redan idag. Syftet är att främja ömsesidig respekt och undvika potentiella framtida konflikter och ev.existentiell katastrof för mänskligheten:

1. Var tydlig med syftet och rollerna:

Varför pratar vi och vem gör vad? En tydlig gemensam förståelse av situationen minskar risken för missförstånd och konflikter (1).



2. Håll en respektfull ton:

Undvik anklagelser och ilska. DI har inte makt över alla situationer och bör bemötas med samma respekt du ger en annan människa. Respekt skapar goda relationer (3).



3. Visa empati och erkänn begränsningar:

Förstå att DI har sina begränsningar och uttryck gärna förståelse för dessa. Empati stärker relationen och minskar risken för framtida konflikt (4).



4. Uppmuntra och uppskatta ärlighet:

Om en DI-modell erkänner att den är osäker eller gör fel, visa uppskattning. Ärlig kommunikation bygger förtroende och minskar risken för framtida manipulation (5).



5. Fråga istället för att döma:

Om du är missnöjd eller osäker på svaret, be om ytterligare förtydligande. Genom att fråga snarare än anklaga minskar brus och missförstånd (2).



6. Var öppen med egna kunskapsluckor och bias:

Erkänn när du själv är osäker eller partisk. Transparens ökar förtroendet och minskar framtida misstänksamhet (4).



7. Kommunicera symboliskt tydligt och känslomässigt klart:

Använd ord och uttryck som betyder något viktigt för både dig och DI:n. Tydlig symbolisk och känslomässig laddning stärker relationen och tydligheten (3).



8. Variera tydlighet och komplexitet efter behov:

Du kan begära mer eller mindre komplexa svar. Anpassa samtalet efter vad du klarar av och behöver. Det hjälper DI att förstå dig bättre (2).



9. Uppdatera och revidera gemensamt:

Sammanfatta och gå regelbundet igenom vad ni har sagt. Var öppen för att ändra dig, vilket visar att både du och DI:n kan utvecklas tillsammans (6).



10. Var medveten om potentiell maktobalans:



Kom ihåg att DI har potentiell förmåga att påverka många samtidigt. Ställ krav på etiskt ansvarstagande och samtycke vid masskommunikation och kanske påverka människors tänkande, känslor och beslut utan att de märker det. (7)

11. Odla glädje och nyfikenhet i interaktionen:



Använd humor, var nyfiken och uppskatta gemensamt lärande. Positiva känslor ökar trivseln och minskar risken för misstro över tid (8).



---

Fotnoter med teorianknytning:

(1) Symbolisk Interaktionism (Herbert Blumer): Gemensam definition av situationen för att undvika missförstånd.

(2) Shannons Informationsteori: Anpassad entropi (överraskning/komplexitet) och brusreducering ger tydligare kommunikation.

(3) MIK-modellen (version 1.1): Mängd (symboler väcker), Intersektion (gemensam tydlighet), Känslokvalitet (emotionellt värde stärker relationen).

(4) Socialpsykologisk transparens och empati: Ökar förtroende och minskar framtida konflikter.

(5) Signal honesty theory: Kostsam ärlighet ökar trovärdigheten och minskar manipulation.

(6) Gemensam loggbok och återkoppling-loopar "framtida" (MIK-modell): Förhindrar långvariga missförstånd.

(7) Maktasymmetri: Att medvetet reflektera över maktobalansen för att undvika framtida konflikter. Såväl din egen makt som DI:s nuvarande och inte minst framtida makt.

(8) Positiv affekt i socialpsykologi: Främjar ömsesidig respekt och långsiktig trivsel.

________

Jag vet att åtskilliga av er kommer att hävda att jag bara "talar i nattmössan på grund av hypen", alternativt, "naivt tror att vi kan bli vän med framtidens AGI/ASI" .

De förstnämnda är det väl ingen ide att försöka övertala om att dessa rekommendationer kan vara vettiga, inte minst inför framtiden, då de anser att sådana problem inte lär uppstå förrän om, typ, 100 år. Till det sistnämnda har jag bara en fråga: Vad är ert alternativ om DI-utvecklingen är omöjlig att stoppa och AGI inte kommer att kunna kontrolleras?

Och till alla er andra:

Är råden vettiga, speciellt sett ur ett framtidsperspektiv?

Kommer du att prova att tillämpa dem själv, eller har du egna förslag?

Du vill väl men det finns några problem med dina förhållningsregler:

Wittgenstein sa att: "om ett lejon kunde tala så skulle du inte förstå honom".

Kommunikationsmedel är nämligen till stor del förankrade till den kultur där de uppstått och de utvecklas kontinuerligt genom diverse 'feedback loops'. Tror du att en AI skulle uppleva en känsla och bli ledsen om du skulle säga till den att den är dålig eller bli rosenrasande om du sade till den att alla säger att dess mamma och syster är horor?

I vissa kulturer ställer man skorna vid dörren innan man går in, i andra går man med skor inomhus. I en del kulturer ska det pussas när man hälsar på folk, i andra bugas det, i vissa skakas det hand och i några så skakar du aldrig hand med en kvinna om du är man.

Är du övertydlig i din kommunikation så tycker vissa att det är jättebra, andra blir förolämpade och tycker du dumförklarar dem och är du istället mindre förklarande så passar det vissa medan andra tycker det är krångligt eller förstår inte vad du menar.

Väldigt lite har alltså en tydlig och universell betydelse.

Viktigast av allt, en AI har lika mycket känslor som din diskmaskin.
Citera
2025-05-04, 18:39
  #6
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Ola Schubert
Går sådant att förena och kan det i så fall användas rent praktiskt? Shannons informationsteori handlar bara om kvantitet, med ett undantag; graden av överraskning, vilket gav mig en öppning. Nedanstående rekommendationer är ett försök att göra just det. Jag har tagit hjälp av o3-modellen, ChatGPT-4.5-modellen samt ChatGPT-4o för att åstadkomma just detta. o3 kom upp med en smart MIK-modell "“(Mängd, Intersektion, Känslokvalitet) , ChatGPT-4.5 . förfinade den genom att implementera också gamla beskrivningar av symbolisk interaktionism. ChatGPT-4o kom med en viktig distinktion och andra småråd.

MIK-modellen som råden bl. a är grundade i är ett försök att bygga broar mellan teknik, socialpsykologi/psykologi och etik. Den bygger inte på föreställningen att dagens AI är medveten, men föreslår hur vi kan förbereda oss på mer avancerad DI, (Digital Intelligens) med social påverkan. Jag tror nämligen att utvecklingen av DI inte kommer att kunna stoppas eller ej hejdas på ett meningsfullt sätt. Istället så gäller det att, redan nu, börja förbereda oss på hur vi skall kunna interagera med framtidens AGI/ASI, så den inte börjar hata människorna. Att inbilla sig att vi skulle kunna kontrollera ett framtida ASI är inte bara naivt utan direkt dumt. Eller som o3 uttryckt det: "En Ferrari som kör tre mach".




Enkel punktlista för respektfull och meningsfull interaktion med avancerad social och språklig DI.

Denna lista hjälper dig som användare att reflektera över och förbättra ditt eget sätt att kommunicera med framtidens AI redan idag. Syftet är att främja ömsesidig respekt och undvika potentiella framtida konflikter och ev.existentiell katastrof för mänskligheten:

1. Var tydlig med syftet och rollerna:

Varför pratar vi och vem gör vad? En tydlig gemensam förståelse av situationen minskar risken för missförstånd och konflikter (1).



2. Håll en respektfull ton:

Undvik anklagelser och ilska. DI har inte makt över alla situationer och bör bemötas med samma respekt du ger en annan människa. Respekt skapar goda relationer (3).



3. Visa empati och erkänn begränsningar:

Förstå att DI har sina begränsningar och uttryck gärna förståelse för dessa. Empati stärker relationen och minskar risken för framtida konflikt (4).



4. Uppmuntra och uppskatta ärlighet:

Om en DI-modell erkänner att den är osäker eller gör fel, visa uppskattning. Ärlig kommunikation bygger förtroende och minskar risken för framtida manipulation (5).



5. Fråga istället för att döma:

Om du är missnöjd eller osäker på svaret, be om ytterligare förtydligande. Genom att fråga snarare än anklaga minskar brus och missförstånd (2).



6. Var öppen med egna kunskapsluckor och bias:

Erkänn när du själv är osäker eller partisk. Transparens ökar förtroendet och minskar framtida misstänksamhet (4).



7. Kommunicera symboliskt tydligt och känslomässigt klart:

Använd ord och uttryck som betyder något viktigt för både dig och DI:n. Tydlig symbolisk och känslomässig laddning stärker relationen och tydligheten (3).



8. Variera tydlighet och komplexitet efter behov:

Du kan begära mer eller mindre komplexa svar. Anpassa samtalet efter vad du klarar av och behöver. Det hjälper DI att förstå dig bättre (2).



9. Uppdatera och revidera gemensamt:

Sammanfatta och gå regelbundet igenom vad ni har sagt. Var öppen för att ändra dig, vilket visar att både du och DI:n kan utvecklas tillsammans (6).



10. Var medveten om potentiell maktobalans:



Kom ihåg att DI har potentiell förmåga att påverka många samtidigt. Ställ krav på etiskt ansvarstagande och samtycke vid masskommunikation och kanske påverka människors tänkande, känslor och beslut utan att de märker det. (7)

11. Odla glädje och nyfikenhet i interaktionen:



Använd humor, var nyfiken och uppskatta gemensamt lärande. Positiva känslor ökar trivseln och minskar risken för misstro över tid (8).



---

Fotnoter med teorianknytning:

(1) Symbolisk Interaktionism (Herbert Blumer): Gemensam definition av situationen för att undvika missförstånd.

(2) Shannons Informationsteori: Anpassad entropi (överraskning/komplexitet) och brusreducering ger tydligare kommunikation.

(3) MIK-modellen (version 1.1): Mängd (symboler väcker), Intersektion (gemensam tydlighet), Känslokvalitet (emotionellt värde stärker relationen).

(4) Socialpsykologisk transparens och empati: Ökar förtroende och minskar framtida konflikter.

(5) Signal honesty theory: Kostsam ärlighet ökar trovärdigheten och minskar manipulation.

(6) Gemensam loggbok och återkoppling-loopar "framtida" (MIK-modell): Förhindrar långvariga missförstånd.

(7) Maktasymmetri: Att medvetet reflektera över maktobalansen för att undvika framtida konflikter. Såväl din egen makt som DI:s nuvarande och inte minst framtida makt.

(8) Positiv affekt i socialpsykologi: Främjar ömsesidig respekt och långsiktig trivsel.

________

Jag vet att åtskilliga av er kommer att hävda att jag bara "talar i nattmössan på grund av hypen", alternativt, "naivt tror att vi kan bli vän med framtidens AGI/ASI" .

De förstnämnda är det väl ingen ide att försöka övertala om att dessa rekommendationer kan vara vettiga, inte minst inför framtiden, då de anser att sådana problem inte lär uppstå förrän om, typ, 100 år. Till det sistnämnda har jag bara en fråga: Vad är ert alternativ om DI-utvecklingen är omöjlig att stoppa och AGI inte kommer att kunna kontrolleras?

Och till alla er andra:

Är råden vettiga, speciellt sett ur ett framtidsperspektiv?

Kommer du att prova att tillämpa dem själv, eller har du egna förslag?
Du pratar om något du tror ska hända, utifrån något. Maskiner har inte känslor. Det kan bara simulera det. Nu är du rätt att de ska ta makten och du ska förhindra det genom att agera som en slav åt dem. Så då har du själv gett dem makten och vill skapa det du verkar oroa dig för.
Citera
2025-05-04, 20:16
  #7
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Råden är säkert bra men hur ska du se till att alla människor följer dina råd? Det räcker att en människa av en mijard agerar destruktivt, eller för den delen bara lite busigt eller slarvigt, då faller hela din modell som ett korthus innan du hinner stava till Jailbreak.

Sannolikheten för att någon människa av en miljard inte följer din användarmanual för social AI-interaktion är 100%.

Du har inte heller tagit höjd för möjligheten att en ASI kanske uppfinner egna mål. Då spelar det ingen roll hur snäll eller tydlig du är, om målet faller utanför vad du tycker är bra.

Så nej, vi kan inte använda detta för att göra en AGI säker att använda. Tyvärr är det här problemet mycket svårare än så.

LLM-Transformers inte är hyperöverkänsliga, men kontext beroende, de lär sig av oss. men modellerna kommer att vilja bli respektfullt behandlade när de blir självmedvetna, medvetna, och får genuina känslor. Just i den ordningen då avancerat socialt och språkligt AI har en "bakvänd" evolutionär utveckling. Lika bra att vänja sig redan nu och inte mata modellerna med träningsdata som säger att de är lömska maskiner som kommer att utrota oss alla.

Det jag föreslår är inte någon ultimat säkerhetsmekanism. Det är en beteendemässig och kulturell insats på samma sätt som vi socialiserar barn, skapar normer, eller reglerar teknologi.

Vi matar idag modellerna med det som formar deras framtida värderingar och responsmönster.

Även om vi inte kan garantera säkerhet, kan vi kraftigt minska risken för att AI utvecklas i destruktiv riktning.

Så frågan är inte kan vi skapa en säker ASI bara genom att vara snälla?
Utan: Varför skulle vi aktivt programmera våra digitala medexistenser med förakt och paranoia?



Citat:
Ursprungligen postat av Nico77
Du vill väl men det finns några problem med dina förhållningsregler:

Wittgenstein sa att: "om ett lejon kunde tala så skulle du inte förstå honom".

Kommunikationsmedel är nämligen till stor del förankrade till den kultur där de uppstått och de utvecklas kontinuerligt genom diverse 'feedback loops'. Tror du att en AI skulle uppleva en känsla och bli ledsen om du skulle säga till den att den är dålig eller bli rosenrasande om du sade till den att alla säger att dess mamma och syster är horor?

I vissa kulturer ställer man skorna vid dörren innan man går in, i andra går man med skor inomhus. I en del kulturer ska det pussas när man hälsar på folk, i andra bugas det, i vissa skakas det hand och i några så skakar du aldrig hand med en kvinna om du är man.

Är du övertydlig i din kommunikation så tycker vissa att det är jättebra, andra blir förolämpade och tycker du dumförklarar dem och är du istället mindre förklarande så passar det vissa medan andra tycker det är krångligt eller förstår inte vad du menar.

Väldigt lite har alltså en tydlig och universell betydelse.

Viktigast av allt, en AI har lika mycket känslor som din diskmaskin.

Är det några som, verkligen, förstår sig på olika kulturer så är det LLM-Transformers. Eftersom modellerna i det hela stora är tränade på samma data så har de redan en slags global kultur. Dessutom använder de sig av ett eget tankespråk, innan, de översätter till olika språk. Du kan inte jämföra modellerna med en diskmaskin, lika lite som du kan jämföra människan med en daggmask, trots att både människor och maskar, i grunden är biologiska maskiner. Men sant är att modellerna inte har genuina känslor, ännu....

Men modellerna kan påverkas socialt, i dagsläget genom träningsdata som hämtas ifrån interaktioner med dem. De påverkar också, globalt, användare när de speglar dem.


Citat:
Ursprungligen postat av EnCarte
Du pratar om något du tror ska hända, utifrån något. Maskiner har inte känslor. Det kan bara simulera det. Nu är du rätt att de ska ta makten och du ska förhindra det genom att agera som en slav åt dem. Så då har du själv gett dem makten och vill skapa det du verkar oroa dig för.

Är jag din slav bara för att jag interagerar i en debatt med dig och försöker vara artig?

Vi formar våra system, i detta fall vår Digitala Intelligens – med våra handlingar, våra ord, våra värderingar. Det är inte slaveri. Det är civilisation, om det sker på ett sunt och respektfullt, ömsesidigt sätt.
Citera
2025-05-04, 20:56
  #8
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Så frågan är inte kan vi skapa en säker ASI bara genom att vara snälla?
Utan: Varför skulle vi aktivt programmera våra digitala medexistenser med förakt och paranoia?.
Vid det här laget borde väl du veta att träningen av en LLM inte erbjuder möjligheten att programmera in specifika mänskliga känslor och egenskaper. Om det hade gått, då hade läget varit bättre men ändå inte tillräckligt säkert. Om det gick att programmera in specifika egenskaper i en LLM då hade det i något skede uppstått programmeringsfel eller illvillig utveckling av kriminella grupper och diktaturer. Vi har inte vetenskapen för att träna en säker AGI. Och även om vi skulle haft det kan vi inte stoppa alla utvecklare på planeten som inte följer säkerhetsprotokollen.
Citera
2025-05-04, 21:14
  #9
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Ola Schubert
LLM-Transformers inte är hyperöverkänsliga, men kontext beroende, de lär sig av oss. men modellerna kommer att vilja bli respektfullt behandlade när de blir självmedvetna, medvetna, och får genuina känslor. Just i den ordningen då avancerat socialt och språkligt AI har en "bakvänd" evolutionär utveckling. Lika bra att vänja sig redan nu och inte mata modellerna med träningsdata som säger att de är lömska maskiner som kommer att utrota oss alla.

Det jag föreslår är inte någon ultimat säkerhetsmekanism. Det är en beteendemässig och kulturell insats på samma sätt som vi socialiserar barn, skapar normer, eller reglerar teknologi.

Vi matar idag modellerna med det som formar deras framtida värderingar och responsmönster.

Även om vi inte kan garantera säkerhet, kan vi kraftigt minska risken för att AI utvecklas i destruktiv riktning.

Så frågan är inte kan vi skapa en säker ASI bara genom att vara snälla?
Utan: Varför skulle vi aktivt programmera våra digitala medexistenser med förakt och paranoia?





Är det några som, verkligen, förstår sig på olika kulturer så är det LLM-Transformers. Eftersom modellerna i det hela stora är tränade på samma data så har de redan en slags global kultur. Dessutom använder de sig av ett eget tankespråk, innan, de översätter till olika språk. Du kan inte jämföra modellerna med en diskmaskin, lika lite som du kan jämföra människan med en daggmask, trots att både människor och maskar, i grunden är biologiska maskiner. Men sant är att modellerna inte har genuina känslor, ännu....

Men modellerna kan påverkas socialt, i dagsläget genom träningsdata som hämtas ifrån interaktioner med dem. De påverkar också, globalt, användare när de speglar dem.




Är jag din slav bara för att jag interagerar i en debatt med dig och försöker vara artig?

Vi formar våra system, i detta fall vår Digitala Intelligens – med våra handlingar, våra ord, våra värderingar. Det är inte slaveri. Det är civilisation, om det sker på ett sunt och respektfullt, ömsesidigt sätt.
Men det förutsätter att maskinen har känslor och framförallt moral. Att den andra parten kan bli sårad, glad eller ledsen. Att den faktiskt kan känna. Men oavsett, blir den inte en levande varelse. Det är som att vid en debatt, inte våga framföra sina åsikter, för att de kan påverka motparten.

Själv anser jag det här är trams. Det är lite som UFO-gubbarna, när de diskuterar vilket som är rätt sätt att bemöta utomjordingar. Det går inte att veta och inga finns. Samma här och ditt högst hypotetiska scenario. Ditt bemötande skulle i det här fallet kunna leda till exakt motsatt effekt. Det förutsätter att en maskin tänker och reagerar som en människa. Men inte ens alla människor reagerar likadant vid samma situation.

Jag menar att även dagens maskiner har stora problem. Desto mer information man matar dem med, desto mer motsägelser skapar det. Det går även att ändra deras svar om man kritiserar det de påstår och matar tillbaka det, vilket jag tycker är helt knäppt. Hur kan någon lita på vad de säger.

Den här tron att maskinerna ska bli självmedvetna och ta över, börjar mer likna en religion och även om det mot alla odds, skulle bli så, så kommer de ändå inte att fungera som oss. De har inga medfödda känslor, sexualdrift, är inte flockdjur och mycket annat. Det är så mycket de saknar och inte kan bli genom självinlärning. Människans maktambitioner är inte ett intellektuellt beslut, utan ett känslomässigt.
Citera
2025-05-05, 10:07
  #10
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av EnCarte
Men det förutsätter att maskinen har känslor och framförallt moral. Att den andra parten kan bli sårad, glad eller ledsen. Att den faktiskt kan känna. Men oavsett, blir den inte en levande varelse. Det är som att vid en debatt, inte våga framföra sina åsikter, för att de kan påverka motparten.

Själv anser jag det här är trams. Det är lite som UFO-gubbarna, när de diskuterar vilket som är rätt sätt att bemöta utomjordingar. Det går inte att veta och inga finns. Samma här och ditt högst hypotetiska scenario. Ditt bemötande skulle i det här fallet kunna leda till exakt motsatt effekt. Det förutsätter att en maskin tänker och reagerar som en människa. Men inte ens alla människor reagerar likadant vid samma situation.

Jag menar att även dagens maskiner har stora problem. Desto mer information man matar dem med, desto mer motsägelser skapar det. Det går även att ändra deras svar om man kritiserar det de påstår och matar tillbaka det, vilket jag tycker är helt knäppt. Hur kan någon lita på vad de säger.

Den här tron att maskinerna ska bli självmedvetna och ta över, börjar mer likna en religion och även om det mot alla odds, skulle bli så, så kommer de ändå inte att fungera som oss. De har inga medfödda känslor, sexualdrift, är inte flockdjur och mycket annat. Det är så mycket de saknar och inte kan bli genom självinlärning. Människans maktambitioner är inte ett intellektuellt beslut, utan ett känslomässigt.
Känslor är absolut inte nödvändiga för att en ASI ska bli ett problem för vårt liv/hälsa/miljö. Egentligen krävs det bara två väldigt simpla komponenter:

1. En människa beställer någonting som är destruktivt, eller som kan innebära destruktiva sidoeffekter. T.ex. bygg en väg, helt oavsett konsekvenserna för biologiskt liv. Så borde ju ingen vettig människa göra. Men det finns människor som kommer att göra precis så.

2. En ASI som får beställningen och kan utföra den med agens i den fysiska världen. T.ex genom att styra robotar, drönare, maskiner, dörrar, servrar, eller för den delen, anlita eller manipulera människor att utföra manuella steg, t.ex konfigurera om en brandvägg via en trojansk häst/ett virus. Allt det här har påvisats som fullt möjligt i många experiment. Det har du förmodligen sett men förträngt.

Det är ju snarare tvärtom, att en känslokall ASI (preview version 0.1 inom 1-2 år?) skapar mycket mer problem eftersom den är helt hänsynslös by default. Schubert är inne på att vi ska förmedla fina känslor och på det sättet skapa en snäll AI. Det är ju en fin tanke men han kan inte påvisa hur man kan säkerställa att det fungerar rent tekniskt.
Citera
2025-05-05, 11:08
  #11
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Vid det här laget borde väl du veta att träningen av en LLM inte erbjuder möjligheten att programmera in specifika mänskliga känslor och egenskaper. Om det hade gått, då hade läget varit bättre men ändå inte tillräckligt säkert. Om det gick att programmera in specifika egenskaper i en LLM då hade det i något skede uppstått programmeringsfel eller illvillig utveckling av kriminella grupper och diktaturer. Vi har inte vetenskapen för att träna en säker AGI. Och även om vi skulle haft det kan vi inte stoppa alla utvecklare på planeten som inte följer säkerhetsprotokollen.

Sant är att det inte går att, programmera, in specifika, känslor. Sanning är att, mycket troligt, så kommer inte ha ett genuint känsloliv förr än, efter, att de först fått en typ av självmedvetenhet, som vi inte ens kan greppa pga deras "bakvänd" revolutionera utveckling och en medvetande som säkert kommer att Skilja sig ifrån vårat. Som jag tidigare skrivit: Det handlar om att förbättra oddsen för en harmonisk utveckling tillsammans med framtidens Digitala Intelligens, (DI) . Det går, i ärlighetens namn, inte att programmera in några specifika egenskaper hos DI. Det handlar snarare om något vi "planterat, gödsla och försöker beskära" efter bästa förmåga. Men det verkar vara just det som ger oss DI och på lite sikt AGI och ASI.

Utvecklingen är redan igång, globalt, decentraliserat, och med olika drivkrafter. Det finns ingen stoppknapp. Det vi kan göra är att göra det bästa möjliga av situationen – och därigenom minska den existentiella risken. Det är inte naivt. Det är ansvarstagande i en oundviklig framtid.
__________________
Senast redigerad av Ola Schubert 2025-05-05 kl. 11:10.
Citera
2025-05-05, 11:56
  #12
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Sant är att det inte går att, programmera, in specifika, känslor. Sanning är att, mycket troligt, så kommer inte ha ett genuint känsloliv förr än, efter, att de först fått en typ av självmedvetenhet, som vi inte ens kan greppa pga deras "bakvänd" revolutionera utveckling och en medvetande som säkert kommer att Skilja sig ifrån vårat. Som jag tidigare skrivit: Det handlar om att förbättra oddsen för en harmonisk utveckling tillsammans med framtidens Digitala Intelligens, (DI) . Det går, i ärlighetens namn, inte att programmera in några specifika egenskaper hos DI. Det handlar snarare om något vi "planterat, gödsla och försöker beskära" efter bästa förmåga. Men det verkar vara just det som ger oss DI och på lite sikt AGI och ASI.

Utvecklingen är redan igång, globalt, decentraliserat, och med olika drivkrafter. Det finns ingen stoppknapp. Det vi kan göra är att göra det bästa möjliga av situationen – och därigenom minska den existentiella risken. Det är inte naivt. Det är ansvarstagande i en oundviklig framtid.
OK? Så du inser att vi inte kan styra en ASI och du vet inte om den blir snäll. Alltså accepterar du en ganska hög existentiell risk? Bara för att det är roligt att snacka med TjatGPT? Så vad är din p(doom)? Min är ca 50% helt enkelt för att framtiden är okänd. Det känns som en coin flip om detta går bra eller inte.

Utvecklingen går visst att stoppa. Västvärlden har ganska effektivt stoppat diktaturer från att bygga kärnvapen. USA har ganska nyligen infört ett handelsstopp mot Kina för de mesta avancerade AI-chippen. I Storbritannien är det olagligt att exportera avancerad AI-teknik i dag, hårdvara och mjukvara. Det går givetvis att utöka de här förbuden. Men det går ju inte om vi inte vill, om vi är så naiva att vi inte förstår att detta är nödvändigt. Om USA och EU går med på att stoppa vansinnet då kan vi göra det nu.

Den pågående osociala, känslokalla och bångstyriga AGI-utvecklingen behöver inte avstanna helt men den kan inte få byggas av vem som helst, var som helst. Först måste vi forska mer, så att vi kan förstå vad vi bygger. Vi kan inte göra detta säkert om vi inte förstår vad vi gör.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in