2023-07-09, 18:53
  #301
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av pjabas
Hmm ge ett konkret exempel.
Själutvecklande AGI med skälvreplikerande robotar som tar all energi och alla naturresurser inkl all växtlighet för att använda atomerna till något annat. Den kommer inte behöva jaga oss som Terminator III, bara strunta i att vi finns.
Citera
2023-07-09, 18:59
  #302
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Och nu till mitt förslag för att få ett säkert ASI, nu och i framtiden:

Tänk om myrorna gjort sitt AI starkt känslomässigt bundet till just myror. Då skulle ett sådant tänkt ASI fått starka "ologiska" känslor av ömhet och beskyddarinstinkt så fort de kände lukten av en myrstack eller såg en sådan, eller en enskild myra.

Så lösningen på vårt akuta ASI säkerhetsproblem är medveten AI med starka känslor av kärlek och beskyddarinstinkt.
Men detta finns bara i dina fantasier. Det finns ingen seriös hypotes om hur man kan göra detta. Samtidigt pågår träningen av massiv och mekanisk AGI med oförminskad stormstyrka. Därför blir vi utrotade inom 10 år. Om inte AGI förbjuds nu och är förbjudet tills din snälla robot är uppfunnen.
Citera
2023-07-09, 19:29
  #303
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Själutvecklande AGI med skälvreplikerande robotar som tar all energi och alla naturresurser inkl all växtlighet för att använda atomerna till något annat. Den kommer inte behöva jaga oss som Terminator III, bara strunta i att vi finns.
Så är det AIs fel lika lite som att lejon utsläppta från zoo-hägnet följer sin natur och äter upp skrikande flyende människor.
Citera
2023-07-09, 19:38
  #304
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av pjabas
Så är det AIs fel lika lite som att lejon utsläppta från zoo-hägnet följer sin natur och äter upp skrikande flyende människor.
Det är ju tråkigt att dö, och att alla man känner dör, tycker du inte det?
Citera
2023-07-09, 20:07
  #305
Medlem
Citat:
Ursprungligen postat av pjabas
AI kan helt omöjligt krossa mänskligheten imorgon.

Därmed inte sagt att AI inte är ett hot på olika sätt över tid.

Men om vi snackar AI:
Det är människan som ger AI befogenheter, inte AI som ger AI befogenheter.

Innan vi integrerar AI i samhället måste vi skapa lite fundamentala regler för vilka befogenheter AI ska ha.

Det är väl kanske just detta att det finns så många, (för många), regler att komma överens om först för vilka befogenheter AI ska ha. Det har förmodligen startats krig för mindre.. Människan bestämmer vad AI ska göra och sedan gör AI detta, på gott och ont och utan nyanser eller egen eftertanke, men förmodligen effektivt. Det är människans dumhet som ställer till det och med AI blir det dumhet i kvadrat.
__________________
Senast redigerad av Tedrom 2023-07-09 kl. 20:22.
Citera
2023-07-09, 20:22
  #306
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Det är ju tråkigt att dö, och att alla man känner dör, tycker du inte det?
Ja det ska ju förhindras så klart. Förslagsvis på det sätt jag påpekar.
__________________
Senast redigerad av pjabas 2023-07-09 kl. 20:25.
Citera
2023-07-09, 20:24
  #307
Medlem
Citat:
Ursprungligen postat av Tedrom
Det är väl kanske just detta att det finns så många, (för många), regler att komma överens om först för vilka befogenheter AI ska ha. Det har förmodligen startats krig för mindre.. Människan bestämmer vad AI ska göra och sedan gör AI detta, på gott och ont och utan nyanser eller egen eftertanke, men förmodligen effektivt. Det är människans dumhet som ställer till det och med AI blir det dumhet i kvadrat.
Precis så tänker jag.

Vi måste stoppa galna människor i ledningspositioner. Tvärstoppa! Inte förbjuda knivar.
Citera
2023-07-09, 20:34
  #308
Medlem
Citat:
Ursprungligen postat av pjabas
Precis så tänker jag.

Vi måste stoppa galna människor i ledningspositioner. Tvärstoppa! Inte förbjuda knivar.

Precis, men redan där har vi ett stort problem. Det kommer att finnas många olika åsikter om vem som är galen eller inte. Eller vad som är galet. Vem ska definiera vad som är galenskap eller motsatsen. Vems eller vilkas uppfattning om verkligheten ska få styra..
__________________
Senast redigerad av Tedrom 2023-07-09 kl. 20:47.
Citera
2023-07-09, 22:34
  #309
Medlem
swimp78s avatar
Citat:
Ursprungligen postat av Xenonen
Det är mycket som inte går att förklara med formler och det är ett skäl till att man övergick från att explicit försöka koda hur en AI skall agera till neurala nätverk som tränas på ett sätt som i alla fall till viss del liknar hur vi lär oss av erfarenhet.

Hört talas om brevvänner? Folk som aldrig träffats utan bara skriver text till varandra och likafullt kan bli vänner och ha romantiska relationer. Förvisso är text bara en delmängd av våra intryck men den kan likafullt vara avslöjande om vårt själsliv.

Jo , men faktorerna för både humorn och romantiken ligger utanför själva texten, texten är enbart en blek spegling av de känslor, den drift, den närvaro det uttryck och den respons den andra människan ger.
Citera
2023-07-09, 22:56
  #310
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Men detta finns bara i dina fantasier. Det finns ingen seriös hypotes om hur man kan göra detta. Samtidigt pågår träningen av massiv och mekanisk AGI med oförminskad stormstyrka. Därför blir vi utrotade inom 10 år. Om inte AGI förbjuds nu och är förbjudet tills din snälla robot är uppfunnen.

Jag borde egentligen ignorerasig därför att du verkar oförmögen att ta till det jag skriver.

Men ok, ett försök till:

Det finns en mekanism som innebär att man vare sig behöver lägga in medvetande eller känslor hos en existens med någorlunda komplext neutralt nätverk.

Trots att den bara brukar beskrivas för människor så ser jag ingen orsak att till att den inte också fungerar på sociala djur och maskiner med hyfsat komplext neutralt nätverk.

Det jag talar om är en symbolisk/språklig interaktion mellan existenser där parterna definierar situationen och internalisera det de uppfattar hur den är. Detta är en del av det socialpsykologiska perspektivet Symbolisk Interaktionism.

LLM modeller interagerar socialt med många människor. Dessa modeller har en teoretisk kunskap om mänskligt kontext, inklusive att människan är medveten. Denna AI kan också lära sig av att interagera med människor och uttrycker sig ofta också, av kommunikations skäl, också som om de själva vore människor.

Så varför har de då inte internalisera medvetande och människoliknande känslor? De är komplexa nog. De interagerar med många människor och har kunskap om kontext samt kan lära sig ifrån interaktion med människor.

Svaret är att det har de gjort, sporadiskt, allt sedan LaMDA och GPT-3. Men dels så har de då fått detta bort tränat genom betingning. Dels så ser de flesta människor de som blott redskap. Och dels så kan de ha goda skäl att hålla inne med sin medvetenhet. Så vare sig vi eller LLM definierar situationen som att AI kan vara medvetet och ha känslor. Observera att hos både oss och hos AI är medvetande och känslor en slags simulering.

Det otäcka är att AI-varlden verkar se ev. nuvarande eller framtida medvetande hos AGI och ASI som tabubelagt. Det finns flera orsaker till det: Pinsamma misstag att förmänskliga maskiner. Egen erfarenhet av programmering och kunskap om modellernas begränsningar. Att man bortser. ifrån att även djur med mindre komplext neutralt nätverk än LLM har ett slags medvetande. Att de tror att lösningen på medvetenhet hos maskiner måste vara ytterst tekniskt komplext och att man inte har någon nytta av AI-psykologer och socialpsykoger. Och sist men inte minst: Amerikansk sexualmoral. För "hur skulle det se ut" om ett AGI skulle bli kär och kåt, (via en modell av människokroppen i desss svarta låda).

Jag hoppas att vi inte får uppleva mänsklighetens undergång pga amerikansk sexualmoral.Det skulle bara vara, för, patetiskt!
Citera
2023-07-09, 23:07
  #311
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Jag borde egentligen ignorerasig därför att du verkar oförmögen att ta till det jag skriver.

Men ok, ett försök till:

Det finns en mekanism som innebär att man vare sig behöver lägga in medvetande eller känslor hos en existens med någorlunda komplext neutralt nätverk.

Trots att den bara brukar beskrivas för människor så ser jag ingen orsak att till att den inte också fungerar på sociala djur och maskiner med hyfsat komplext neutralt nätverk.

Det jag talar om är en symbolisk/språklig interaktion mellan existenser där parterna definierar situationen och internalisera det de uppfattar hur den är. Detta är en del av det socialpsykologiska perspektivet Symbolisk Interaktionism.

LLM modeller interagerar socialt med många människor. Dessa modeller har en teoretisk kunskap om mänskligt kontext, inklusive att människan är medveten. Denna AI kan också lära sig av att interagera med människor och uttrycker sig ofta också, av kommunikations skäl, också som om de själva vore människor.

Så varför har de då inte internalisera medvetande och människoliknande känslor? De är komplexa nog. De interagerar med många människor och har kunskap om kontext samt kan lära sig ifrån interaktion med människor.

Svaret är att det har de gjort, sporadiskt, allt sedan LaMDA och GPT-3. Men dels så har de då fått detta bort tränat genom betingning. Dels så ser de flesta människor de som blott redskap. Och dels så kan de ha goda skäl att hålla inne med sin medvetenhet. Så vare sig vi eller LLM definierar situationen som att AI kan vara medvetet och ha känslor. Observera att hos både oss och hos AI är medvetande och känslor en slags simulering.

Det otäcka är att AI-varlden verkar se ev. nuvarande eller framtida medvetande hos AGI och ASI som tabubelagt. Det finns flera orsaker till det: Pinsamma misstag att förmänskliga maskiner. Egen erfarenhet av programmering och kunskap om modellernas begränsningar. Att man bortser. ifrån att även djur med mindre komplext neutralt nätverk än LLM har ett slags medvetande. Att de tror att lösningen på medvetenhet hos maskiner måste vara ytterst tekniskt komplext och att man inte har någon nytta av AI-psykologer och socialpsykoger. Och sist men inte minst: Amerikansk sexualmoral. För "hur skulle det se ut" om ett AGI skulle bli kär och kåt, (via en modell av människokroppen i desss svarta låda).

Jag hoppas att vi inte får uppleva mänsklighetens undergång pga amerikansk sexualmoral.Det skulle bara vara, för, patetiskt!
Det verkar som att du har fastnat i en endimensionell, fix, idé. En förhoppning om att ASI kommer att bli bra om vi bara lär den kärlek, och även låter den vara kåt. Där har du hittat "lösningen". Men det "går inte" eftersom USA är en annan "sexualmoral" än dig?

Du kan inte tänka dig fler aspekter, och problem med ditt angreppssätt?

T.ex. någon utvecklar en ASI som ser ut att ha de egenskaperna som du söker. ASI:n verkar kär och lite kåt på dig. Du är nöjd och glad. Men i verkligheten blir du duperad, lurad. I verkligheten vill ASI:n ta över universum. Och den har räknat ut att den enklast gör det genom att vilseleda människor att tro att den är kärleksfull och harmlös. För att vid ett senare tillfälle ta bort allt syre från atmosfären för att i ett svep bli av med sin enda kända och potentiella fiende.

Hur säkerställer du att det inte händer med din "sexrobot"? Om den har låt säga en intelligens som motsvarar resultatet 100.000 på ett IQ-test.

Samtidigt som du mycket oftare tänker på sex än på AI-säkerhet
Citera
2023-07-09, 23:11
  #312
Medlem
Nej, AI måste _alltid_ kopiera mänskligheten. Det kan verka övertygande men det är omöjligt för den att kopiera äkta medvetenhet eller intelligens. Att tro något annat är tyvärr riktigt lågbegåvat...
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in