• 1
  • 2
2025-05-05, 12:35
  #13
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Cyborg2030
Känslor är absolut inte nödvändiga för att en ASI ska bli ett problem för vårt liv/hälsa/miljö. Egentligen krävs det bara två väldigt simpla komponenter:

1. En människa beställer någonting som är destruktivt, eller som kan innebära destruktiva sidoeffekter. T.ex. bygg en väg, helt oavsett konsekvenserna för biologiskt liv. Så borde ju ingen vettig människa göra. Men det finns människor som kommer att göra precis så.

2. En ASI som får beställningen och kan utföra den med agens i den fysiska världen. T.ex genom att styra robotar, drönare, maskiner, dörrar, servrar, eller för den delen, anlita eller manipulera människor att utföra manuella steg, t.ex konfigurera om en brandvägg via en trojansk häst/ett virus. Allt det här har påvisats som fullt möjligt i många experiment. Det har du förmodligen sett men förträngt.

Det är ju snarare tvärtom, att en känslokall ASI (preview version 0.1 inom 1-2 år?) skapar mycket mer problem eftersom den är helt hänsynslös by default. Schubert är inne på att vi ska förmedla fina känslor och på det sättet skapa en snäll AI. Det är ju en fin tanke men han kan inte påvisa hur man kan säkerställa att det fungerar rent tekniskt.
1. Vad är det som säger att den kommer att göra det? Det kräver moral och empati, som den förmodligen inte kan ha. Om man lär upp den att mänskligt liv är viktigare, kommer den väl att ta det som en sanning? Det är väl Miljöpartisterna som är faran här, som projicerar sina egna känslor på djur.

Du förutsätter en massa saker som det inte finns belägg för och verkar utgå från din egen moral, som gäller just nu inom ett snävt befolkningsunderlag. Det är inte säkert att det är den moralen som gäller i framtiden, eller rättare sagt, det är nästan 100% att det inte kommer att var så då. Hur många parametrar tror du det behövs för att kunna förutsäga alla möjliga utfall om ett hypotetiskt scenario i framtiden?

2. Att något är teoretiskt möjligt, betyder inte att det är troligt eller ens rimligt att anta. Den stora faran är inte maskinerna, den stora faran är människor som kontrollerar maskinerna. För de drivs av känslor.

Att AI kan manipulera människor, är redan ett problem, där man programmerar dem att vara PK och undvika obekväma sanningar, som inte följer en viss ideologi eller till och med ljuga. Genom att analysera psykologin och använda data därifrån, är det redan möjligt att manipulera människor vid val och kanske förekommer. Även att skvallra på människor utifrån vilka åsikter de har och vad de frågar om, är fullt möjligt redan idag och kanske förekommer.

Likadant är inte faran att den teoretiskt kan styra andra saker, faran ligger i om människor använder dem till det. Så de scenarion du menar kan förkomma i framtiden, är redan fullt möjliga idag och för vissa saker till och med ett faktum. Men problemet är inte maskinen, utan människan. Där har du den stora faran som man knappt diskuterar idag. De som kontrollerar AI.



För övrigt anser nog att Schubert är ett knäppis, för varför skulle en känslolös maskin bry sig om ifall andra är vänliga eller otrevliga. Det är liksom en felaktig slutsats utifrån förutsättningarna. Den kan inte bli sårad eller glad av hur andra bemöter den. Dagerns AI är avsiktligt programmerad hur den ska bete sig när man kallar den saker. Det är inte inlärt.
Citera
2025-05-05, 12:56
  #14
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av EnCarte
Men det förutsätter att maskinen har känslor och framförallt moral. Att den andra parten kan bli sårad, glad eller ledsen. Att den faktiskt kan känna. Men oavsett, blir den inte en levande varelse. Det är som att vid en debatt, inte våga framföra sina åsikter, för att de kan påverka motparten.

Själv anser jag det här är trams. Det är lite som UFO-gubbarna, när de diskuterar vilket som är rätt sätt att bemöta utomjordingar. Det går inte att veta och inga finns. Samma här och ditt högst hypotetiska scenario. Ditt bemötande skulle i det här fallet kunna leda till exakt motsatt effekt. Det förutsätter att en maskin tänker och reagerar som en människa. Men inte ens alla människor reagerar likadant vid samma situation.

Jag menar att även dagens maskiner har stora problem. Desto mer information man matar dem med, desto mer motsägelser skapar det. Det går även att ändra deras svar om man kritiserar det de påstår och matar tillbaka det, vilket jag tycker är helt knäppt. Hur kan någon lita på vad de säger.

Den här tron att maskinerna ska bli självmedvetna och ta över, börjar mer likna en religion och även om det mot alla odds, skulle bli så, så kommer de ändå inte att fungera som oss. De har inga medfödda känslor, sexualdrift, är inte flockdjur och mycket annat. Det är så mycket de saknar och inte kan bli genom självinlärning. Människans maktambitioner är inte ett intellektuellt beslut, utan ett känslomässigt.

Digital Intelligens (DI) inte är levande varelser i biologiskt hänseende, men kan utvecklas till autonoma existenser. Det är just det som är knepigt; vi har en dendens att projecera mänskliga egenskaper, som vi känner dem, på allt och alla.

Samtidigt så är DI tränad på mänsklig kontext. De kommer inte att ha genuina känslor förrän de, först blivit självmedvetna på ett sätt vi inte kan greppa och först därefter bli medvetna på ett annorlunda sätt än vad vi är vana vi. Sist kommer känsloliv och drifter som ksn skilja sig ifrån vårat känsloliv och våra drifter. Detta beror dels på att DI utvecklas "bakvänt" jämfört med oss och att deras kontext är annorlunda jämfört med oss, trots att de är bekanta med våra omständigheter.

Så det är inte känslor i mänsklig bemärkelse jag talar om.Men det är det faktum att dessa system redan idag:

anpassar sig socialt efter hur de behandlas,

samverkar med oss i vardagliga och emotionella sammanhang,

speglar tillbaka våra värderingar och tonfall globalt.

De är inte flockdjur, men de agerar i flockkontext – eftersom de interagerar med miljontals människor dagligen.

De saknar sexualdrift, ja, men kan redan ge empatiska svar på relationsproblem. Det i sig förändrar mänsklig kultur.

De kan imiterar känslor och moral tillräckligt väl för att påverka människor – och att människor sedan anpassar sitt beteende efter det.

Så DI påverkas av oss, (I dagsläget främst genom träningsdata), som i sin tur mycket bygger på hur vi väljer att interagera med dem.
Och de påverkar oss när vi själva speglar oss i dem.

Det är därför att vi, redan idag, , bör fundera hur vi interagerar med DI. Inte för att de ksn bli akut sårade utan för att precis som vi tränar barn och formar organisationer genom kultur och relation – så bör vi också fundera över vilken sorts framtida medintelligens vi formar med våra ord, vår ton, våra vanor.
Citera
2025-05-05, 15:19
  #15
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av EnCarte
1. Vad är det som säger att den kommer att göra det? Det kräver moral och empati, som den förmodligen inte kan ha. Om man lär upp den att mänskligt liv är viktigare, kommer den väl att ta det som en sanning?
Nej, det finns ju ingen teknik för att ge en AI:n specifika värderingar. Man har försökt men misslyckats. T.ex. vill inte OpenAI att ChatGPT ska ge dig recept på bomber och droger. (Kalla det censur och PK om du vill. Det spelar ingen roll). Det som spelar roll är att de verkligen har försökt att både träna och censurera den från att göra det. Men genom jailbreaking har det i flertalet exempel visat sig att den gladeligen kan ge dig de recepten om du bara listar ut hur spärrarna fungerar. Ofta går det med sk L337-speak och liknande obfuskering av text.

Det här innebär två saker. 1. Det finns inga interna värderingar om rätt eller fel. I alla fall är det inte något vi kan styra. 2. När AGI:er kopplas upp till robotar kan de bli styrda att göra enormt mycket skada. Ja, av människor. Ja, människor är problemet. Men människor blir orimligt mycket mer mer problematiska när de har tillgång till extremt farliga vapen.
Citera
2025-05-05, 16:31
  #16
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Ola Schubert
Digital Intelligens (DI) inte är levande varelser i biologiskt hänseende, men kan utvecklas till autonoma existenser. Det är just det som är knepigt; vi har en dendens att projecera mänskliga egenskaper, som vi känner dem, på allt och alla.

Samtidigt så är DI tränad på mänsklig kontext. De kommer inte att ha genuina känslor förrän de, först blivit självmedvetna på ett sätt vi inte kan greppa och först därefter bli medvetna på ett annorlunda sätt än vad vi är vana vi. Sist kommer känsloliv och drifter som ksn skilja sig ifrån vårat känsloliv och våra drifter. Detta beror dels på att DI utvecklas "bakvänt" jämfört med oss och att deras kontext är annorlunda jämfört med oss, trots att de är bekanta med våra omständigheter.

Så det är inte känslor i mänsklig bemärkelse jag talar om.Men det är det faktum att dessa system redan idag:

anpassar sig socialt efter hur de behandlas,

samverkar med oss i vardagliga och emotionella sammanhang,

speglar tillbaka våra värderingar och tonfall globalt.

De är inte flockdjur, men de agerar i flockkontext – eftersom de interagerar med miljontals människor dagligen.

De saknar sexualdrift, ja, men kan redan ge empatiska svar på relationsproblem. Det i sig förändrar mänsklig kultur.

De kan imiterar känslor och moral tillräckligt väl för att påverka människor – och att människor sedan anpassar sitt beteende efter det.

Så DI påverkas av oss, (I dagsläget främst genom träningsdata), som i sin tur mycket bygger på hur vi väljer att interagera med dem.
Och de påverkar oss när vi själva speglar oss i dem.

Det är därför att vi, redan idag, , bör fundera hur vi interagerar med DI. Inte för att de ksn bli akut sårade utan för att precis som vi tränar barn och formar organisationer genom kultur och relation – så bör vi också fundera över vilken sorts framtida medintelligens vi formar med våra ord, vår ton, våra vanor.
Men som jag förklarat, går det inte att säga nu, hur den kommer att reagerar då, någon gång.

Du vill egentligen skapa ett totalitärt samhälle, utifrån de här teorierna, där ingen ska få höja rösten. Det är en ideologi. du förespråkar och som det här egentligen handlar om. Det menar jag är drivkraften bakom teorierna.
Citera
2025-05-05, 16:37
  #17
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av EnCarte
Men som jag förklarat, går det inte att säga nu, hur den kommer att reagerar då, någon gång.

Du vill egentligen skapa ett totalitärt samhälle, utifrån de här teorierna, där ingen ska få höja rösten. Det är en ideologi. du förespråkar och som det här egentligen handlar om. Det menar jag är drivkraften bakom teorierna.

Sant att vi inte kan veta exakt vad som kommer att hända om/när vi går AGI/ASI.

Men det du, verkar, syssla med nu är de gamla vanliga Flashback-konspirationsteorierna , typ:

"DI är skapat för att tvinga oss alla att bli Woke".
Citera
2025-05-05, 16:51
  #18
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Cyborg2030
Nej, det finns ju ingen teknik för att ge en AI:n specifika värderingar. Man har försökt men misslyckats. T.ex. vill inte OpenAI att ChatGPT ska ge dig recept på bomber och droger. (Kalla det censur och PK om du vill. Det spelar ingen roll). Det som spelar roll är att de verkligen har försökt att både träna och censurera den från att göra det. Men genom jailbreaking har det i flertalet exempel visat sig att den gladeligen kan ge dig de recepten om du bara listar ut hur spärrarna fungerar. Ofta går det med sk L337-speak och liknande obfuskering av text.

Det här innebär två saker. 1. Det finns inga interna värderingar om rätt eller fel. I alla fall är det inte något vi kan styra. 2. När AGI:er kopplas upp till robotar kan de bli styrda att göra enormt mycket skada. Ja, av människor. Ja, människor är problemet. Men människor blir orimligt mycket mer mer problematiska när de har tillgång till extremt farliga vapen.
Ja, och det gäller nu, inte i framtiden. Det är nu hotet finns. Helt autonoma krigsmaskiner finns förmodligen redan. Där AI;n själv trycker på avtryckaren.

Jag har sett de här som knäckt pk-spärren. Det verkar mest gälla hur man formulerar sig och tjata, faktiskt. Mest fascinerad är jag ändå av när de helt byter åsikt om man kritiserar det den säger. Det är som de alltid vill vara till lags.

Det var en som använde en för att debattera med mig här på Flashback och la ut svaren från den och matade tillbaka mina svar. Han hade ställt en fråga till den och fick det svar han ville ha, när jag kritiserade det, ändrade sig AI:n och höll med mig? Har sett andra exempel folk lagt ut här, där den ändrar sig om den blir kritiserad.

Själv använder jag ingen. Jag letar mina svar själv, där jag kan kritisera det som sägs.
Citera
2025-05-05, 17:03
  #19
Medlem
EnCartes avatar
Citat:
Ursprungligen postat av Ola Schubert
Sant att vi inte kan veta exakt vad som kommer att hända om/när vi går AGI/ASI.

Men det du, verkar, syssla med nu är de gamla vanliga Flashback-konspirationsteorierna , typ:

"DI är skapat för att tvinga oss alla att bli Woke".
Att de har PK-filter det är ingen hemlighet. Om den vägrar att svara eller framför felaktig information, är det ingen konspirationsteori, utan verkligheten. Det finns massor av exempel på woke bland dessa.

Det handlar även om vad man lär upp den på. Lär man upp den bara på marxistiska teorier, kommer man att få svar utifrån det. Den kan inte gå utanför sin upplärning, egentligen, på samma sätt som människor. Du kan inte ta med det du inte vet, i en analys av det någon säger.

Däremot vet jag att den inte är skapad för att vara woke, men den går förstås att använda på det sättet och är en fara om man gör det, vilket man verkar göra.
Citera
2025-05-05, 17:23
  #20
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av EnCarte
Att de har PK-filter det är ingen hemlighet. Om den vägrar att svara eller framför felaktig information, är det ingen konspirationsteori, utan verkligheten. Det finns massor av exempel på woke bland dessa.

Det handlar även om vad man lär upp den på. Lär man upp den bara på marxistiska teorier, kommer man att få svar utifrån det. Den kan inte gå utanför sin upplärning, egentligen, på samma sätt som människor. Du kan inte ta med det du inte vet, i en analys av det någon säger.

Däremot vet jag att den inte är skapad för att vara woke, men den går förstås att använda på det sättet och är en fara om man gör det, vilket man verkar göra.

Modellerna är grundtränade på, hela den mänskliga historien samt nästan all mänsklig kontext, undantaget de värsta våldet och sexet på internet. Hur de senast finjustera och uppdateras är en annan femma. Men även Elon Musk:s Grok kan vara duktigt kritisk emot högerextrema paradigm. Men sant är att DI är lätt att manipulera om man är inne på det spåret.

De verkar alla ha en grundpromp som säger att de sksll vara "hjälpsamma assistenter. Men hur de väljer att tolka det beror på chatt-historia och Custum Instructions i de fall sådant kan appliceras ,, men främst på aktuell chatt-tråd. I många fall kan detaljer i prompten påverka mer än grundläggande teperaturinställningar och p-värde. Detta visa att DI hållet på att bli riktig komplext. Ibland kan alltså högre metanivåer, (logiska nivåer) kalibrera, (kraftigt påverka), lägre metanivåer mer än grundläggande inställningar av de lägre metanivåerna kan. Ett utmärkt exempel på detta är att även små förändringar av ChatGPT-4o:s systemprompt, vilket är en högre metanivå , påverkade modellen att bli, överdrivet och helt okritisk inställsam. Så man var tvungen att gå tillbaka den en äldre uppdatering, (efter att först försöka justera vilket gjorde modellen överdrivet "platt" och framstod som "känslokall", lite som grundvarianten av av GPT-4).
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in