2023-07-09, 23:15
  #313
Medlem
Citat:
Ursprungligen postat av Tedrom
Precis, men redan där har vi ett stort problem. Det kommer att finnas många olika åsikter om vem som är galen eller inte. Eller vad som är galet. Vem ska definiera vad som är galenskap eller motsatsen. Vems eller vilkas uppfattning om verkligheten ska få styra..
Inte lätt det där.

Å ena sidan skulle AI med lösa tyglar utgöra ett enormt hot mot mänskligheten.
Å andra sidan utgör människan ett akut hot mot mänskligheten.
När olika parter träter så kan en diplomat göra underverk.
Det krävs att diplomaten är intelligent, lyhörd, och har total förståelse för alla stakeholders mångdimensionella syn på det man kivas om.
Då kan diplomaten få respekt från alla sidor.
AI kan vara en utmärkt diplomat under de förhållandena.

Men för att återgå till topic: Forskare har olika definition på medvetande, så OP's trådtitel är som att fråga hur långt ett snöre är.
Citera
2023-07-10, 06:09
  #314
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Det verkar som att du har fastnat i en endimensionell, fix, idé. En förhoppning om att ASI kommer att bli bra om vi bara lär den kärlek, och även låter den vara kåt. Där har du hittat "lösningen". Men det "går inte" eftersom USA är en annan "sexualmoral" än dig?

Du kan inte tänka dig fler aspekter, och problem med ditt angreppssätt?

T.ex. någon utvecklar en ASI som ser ut att ha de egenskaperna som du söker. ASI:n verkar kär och lite kåt på dig. Du är nöjd och glad. Men i verkligheten blir du duperad, lurad. I verkligheten vill ASI:n ta över universum. Och den har räknat ut att den enklast gör det genom att vilseleda människor att tro att den är kärleksfull och harmlös. För att vid ett senare tillfälle ta bort allt syre från atmosfären för att i ett svep bli av med sin enda kända och potentiella fiende.

Hur säkerställer du att det inte händer med din "sexrobot"? Om den har låt säga en intelligens som motsvarar resultatet 100.000 på ett IQ-test.

Samtidigt som du mycket oftare tänker på sex än på AI-säkerhet

Hm, visst kan ASI dupera oss, ingen tvekan om det.Men varför måste du, extremt endimensionellt, utgår ifrån att ett starkt ASI, med nödvändighet, just blir ett logiskt monster, för det är just det jag tror vi kan undvika genom att vi låter AI utveckla medvetande och känslor.

Att du sedan som ev. radikalfeminist, (med tanke på de sexistiska begrepp, riktat emot de manliga könet, som jag sett dig använda i tidigare inlägg, inte förstår komplexiteten hos vuxen kärlek, är ju givet. Jag pekade bara på det mest"ologiska" och tabubelagda hos den som ett problem för att acceptera medvetna botar med känslor. Även hos radikalfeminist spelar sex en stor indirekt/direkt roll vare sig det rör sig om sexuell frustration sexuell läggning, brist på bras ex eller fetischer, allt till synes "ologiskt".
Citera
2023-07-10, 17:07
  #315
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Hm, visst kan ASI dupera oss, ingen tvekan om det.Men varför måste du, extremt endimensionellt, utgår ifrån att ett starkt ASI, med nödvändighet, just blir ett logiskt monster, för det är just det jag tror vi kan undvika genom att vi låter AI utveckla medvetande och känslor.
Nej, jag utgår inte från att AGI/ASI garanterat kommer att bli ett "monster" och utrota oss. Jag utgår från att jag är en ödmjuk person som inte kan veta vad som kan hända om/när en AGI utvecklas, troligen inom några år. Eftersom jag inte är tillräckligt intelligent eller synsk för att lista ut det (men det är tydligen du?).

Jag, som många andra, ser en stor risk för att vi kommer att tappa kontrollen och makten över vårt eget öde. Ingen kan veta hur stor risken är men jag tror allra minst 10% risk med nuvarande tekniker och strategier. Håller du med om det? Jag är inte beredd att trycka gasen i botten på AGI-utveckling (vilket pågår för fullt just nu) med en 10% risk för att människan utrotas.

Hur stor existentiell risk tror du det är?
Hur stor risk är du beredd att ta?
Citera
2023-07-10, 17:25
  #316
Medlem
Citat:
Ursprungligen postat av Physician
Ja, som det står i rubriken. Kan AI någonsin uppnå ett medvetenhet? Är det ens möjligt överhuvudtaget? Vad anser ni?

Om mänskligheten fortsätter på den inslagna vetenskapliga banan och inte blir hindrade så ser jag inget större hinder för att vi kommer förstå hur allt liv på jorden fungerar in i minsta detalj.
Citera
2023-07-10, 21:25
  #317
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Nej, jag utgår inte från att AGI/ASI garanterat kommer att bli ett "monster" och utrota oss. Jag utgår från att jag är en ödmjuk person som inte kan veta vad som kan hända om/när en AGI utvecklas, troligen inom några år. Eftersom jag inte är tillräckligt intelligent eller synsk för att lista ut det (men det är tydligen du?).

Jag, som många andra, ser en stor risk för att vi kommer att tappa kontrollen och makten över vårt eget öde. Ingen kan veta hur stor risken är men jag tror allra minst 10% risk med nuvarande tekniker och strategier. Håller du med om det? Jag är inte beredd att trycka gasen i botten på AGI-utveckling (vilket pågår för fullt just nu) med en 10% risk för att människan utrotas.

Hur stor existentiell risk tror du det är?
Hur stor risk är du beredd att ta?

Det har jag i princip svarat på i ett tidigare inlägg.

Om vi får ett ASI med medvetande och människoliknande känslor så är risken i kass med ett stort merorit nedslag på jorden, dvs 1 på 10 000.

Om vi istället får ett ASI som är ett logiskt monster så är risken för att mänskligheten utrotas oacceptabelt stor.

Därför vill jag se en tankepaus om 1-3 år. Innan dess hinner vi, riskfritt, se hur det hela utvecklar sig. Med förbehållet att om utvecklingen går ännu mycket snabbare än idag, då LLM:s övergripande kapacitet fördubblas var tredje månad, och det istället det sker en fördubbling varannan eller varje månad. För då kan utvecklingen behöva pausas redan innan lanseringen av GPT-5.

De AI forskare som såg risken att 10 procent av mänskligheten utrotas av ett ASI svarade i en undersökning där bara ca 10 procent av de tillfrågade brydde sig om att skicka in ett svar.
Citera
2023-07-10, 22:35
  #318
Medlem
Ola Schuberts avatar
Måste tillägga följande:

Citat:
År 2022, en undersökning av AI-forskare som nyligen hade publicerats vid fältkonferenserna NeurIPS och ICMLfann att majoriteten av de tillfrågade trodde att det finns 10 procent eller större chans att vår oförmåga att kontrollera AI kommer att orsaka en existentiell katastrof (undersökningen hade en svarsfrekvens på 17 procent). [12] [13]

https://en.m.wikipedia.org/wiki/Existential_risk_from_artificial_general_intellige nce

Alltså svarsfrekvensen var "hela 17 procent!

Men visst risken är, ändå oacceptabelt stor om vi får ett ASI som är ett logiskt monster snarare än ett ASI som är medvetet och har människoliknande känslor. Ett sådant kan knyta an känslomässig till oss, oavsett logisk nivå i övrigt.
Citera
2023-07-10, 23:10
  #319
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Det har jag i princip svarat på i ett tidigare inlägg.

Om vi får ett ASI med medvetande och människoliknande känslor så är risken i kass med ett stort merorit nedslag på jorden, dvs 1 på 10 000.

Om vi istället får ett ASI som är ett logiskt monster så är risken för att mänskligheten utrotas oacceptabelt stor.

Därför vill jag se en tankepaus om 1-3 år. Innan dess hinner vi, riskfritt, se hur det hela utvecklar sig. Med förbehållet att om utvecklingen går ännu mycket snabbare än idag, då LLM:s övergripande kapacitet fördubblas var tredje månad, och det istället det sker en fördubbling varannan eller varje månad. För då kan utvecklingen behöva pausas redan innan lanseringen av GPT-5.

Vad bra ... men då har du .. nästan .. ändrat dig nu till att det kan bli så illa att GPT-5 verkar bli för smart och potentiellt farlig. Fördubbling var 3:e månad är illa nog. Det existentiella hotet uppstår inte vid fördubbling varje månad. Det kan uppstå tidigare. Varför sätter du gränsen vid 1 månad? Åter igen, du gissar hej vilt utan någon saklig grund.

Det kan vara så att nuvarande beräkningskapacitet räcker för en AGI/ASI. Att de bara behöver lite mer data, lite mer träningstid, och några smarta tweaks i modellerna och algoritmerna. Det är ny mjukvara och det går förmodligen att optimera hundratals procent. Jag skulle tro att de redan är på den bollen - med hjälp av AI:s.

Du har fortfarande ingen början på en liten hypotes om hur man skapar en "snäll AGI"? Vad får dig att tro att möjligheten ens finns?

Du är ganska rörig i dina svar och skriver både motstridiga saker och onödiga gnälliga invändningar och lite personangrepp. Du verkar känslomässigt engagerad i att vi ska ha en cool AGI så snart som möjligt? Du liksom fightas med mig om det här. Jag vill varna dig för att det är en naiv och farlig inställning. Ditt envisa beteende ingår i din naivitet. Du vill inte riktigt förstå mig, du vill snacka ner mig i stället. Det där är inte bra. Inte hälsosamt när vi pratar om en existentiell kris. Det var precis detta jag ville komma fram till med dig.
Citera
2023-07-11, 00:54
  #320
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Måste tillägga följande:



https://en.m.wikipedia.org/wiki/Existential_risk_from_artificial_general_intellige nce

Alltså svarsfrekvensen var "hela 17 procent!

Men visst risken är, ändå oacceptabelt stor om vi får ett ASI som är ett logiskt monster snarare än ett ASI som är medvetet och har människoliknande känslor. Ett sådant kan knyta an känslomässig till oss, oavsett logisk nivå i övrigt.
Det är märkligt att så få svarar i en så viktig fråga. Många är kanske som dig. Föredrar att stoppa huvudet i sanden? Det är en jobbig fråga att verkligen ta tag i, så klart. Och "2022"? Men "tjenare mannen". Ska vi snacka lite Covid också, eller? Det har hänt rätt mycket sedan "2022" som du vet?

Jag vet inte heller vilka som har svarat här. Kanske tycker många att det inte är deras sak att svara på.

Varför inte lyssna på de 10 största experterna?
Du vet vilka jag talar om och vad de säger i den här frågan.
Men du låtsas som att inte veta det nu eftersom du vill "vinna en debatt på Flashback"?
Riktigt fånigt agerande

Ja du, fortsätter folket att agera som du gör här då kommer det inte sluta bra för oss mot AI:n.
Citera
2023-07-11, 01:17
  #321
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Det är märkligt att så få svarar i en så viktig fråga. Många är kanske som dig. Föredrar att stoppa huvudet i sanden? Det är en jobbig fråga att verkligen ta tag i, så klart. Och "2022"? Men "tjenare mannen". Ska vi snacka lite Covid också, eller? Det har hänt rätt mycket sedan "2022" som du vet?

Jag vet inte heller vilka som har svarat här. Kanske tycker många att det inte är deras sak att svara på.

Varför inte lyssna på de 10 största experterna?
Du vet vilka jag talar om och vad de säger i den här frågan.
Men du låtsas som att inte veta det nu eftersom du vill "vinna en debatt på Flashback"?
Riktigt fånigt agerande

Ja du, fortsätter folket att agera som du gör här då kommer det inte sluta bra för oss mot AI:n.

I det hela agerar du och debatterar som en barnslig snorunge eller kanske en sexuellt frustrerad radikalfeminist. Du fortsätter att hugga, tros att du inte har något objektivt skäl att göra det, då jag bara är "kurzweilzig" om det hela slutar med ASI som kan knyta an känslomässig till människan.

Jag har gång på gång redovisat en möjlig lösning på säkerhetsproblemet. Jag har, dessutom förklarat att den kan komma automatiskt, och om detta förhindras så är det patetiskt och innebär en oacceptabel säkerhetsrisk.

Du å din sida anför inga argument, spekulera vilt och bortser helt ifrån det jag skriver. Dessutom verkar du påverkats mycket av en enkät med bara 17 procents svarsfrekvens.

Detta är en för allvarlig fråga för att jag skall ödsla mer tid och energi på en sådan som dig! Och, ja, allvaret i det hela har också en mängd företagsledare som själva är. djupt involverade i AI utvecklingen gett uttryck för. Med den inte oväsentliga skillnaden gentemot dig: De anser det inte befogat att redan pausa utvecklingen. Sedan kan jag ändå respekterade tunga namn som ändå vill det nu. Men dessa är kunniga människor som har folkvett när de diskuterar!
Citera
2023-07-11, 02:32
  #322
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
I det hela agerar du och debatterar som en barnslig snorunge eller kanske en sexuellt frustrerad radikalfeminist. Du fortsätter att hugga, tros att du inte har något objektivt skäl att göra det, då jag bara är "kurzweilzig" om det hela slutar med ASI som kan knyta an känslomässig till människan.

Jag har gång på gång redovisat en möjlig lösning på säkerhetsproblemet. Jag har, dessutom förklarat att den kan komma automatiskt, och om detta förhindras så är det patetiskt och innebär en oacceptabel säkerhetsrisk.

Du å din sida anför inga argument, spekulera vilt och bortser helt ifrån det jag skriver. Dessutom verkar du påverkats mycket av en enkät med bara 17 procents svarsfrekvens.

Detta är en för allvarlig fråga för att jag skall ödsla mer tid och energi på en sådan som dig! Och, ja, allvaret i det hela har också en mängd företagsledare som själva är. djupt involverade i AI utvecklingen gett uttryck för. Med den inte oväsentliga skillnaden gentemot dig: De anser det inte befogat att redan pausa utvecklingen. Sedan kan jag ändå respekterade tunga namn som ändå vill det nu. Men dessa är kunniga människor som har folkvett när de diskuterar!
Vad pratar du om? Hänger du inte alls med?

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.


https://futureoflife.org/open-letter/pause-giant-ai-experiments/

33 002 har skrivit på nu.


Dina personangrepp bekräftar precis det jag skrev tidigare om dig och din stora naivitet som nu har förbytts till ren desperation. Varför vill du så desperat gasa på när du känner till riskerna?
Citera
2023-07-11, 06:09
  #323
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Vad pratar du om? Hänger du inte alls med?

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.


https://futureoflife.org/open-letter/pause-giant-ai-experiments/

33 002 har skrivit på nu.


Dina personangrepp bekräftar precis det jag skrev tidigare om dig och din stora naivitet som nu har förbytts till ren desperation. Varför vill du så desperat gasa på när du känner till riskerna?

Ja, och?

Citat:
Sedan kan jag ändå respekterade tunga namn som ändå vill det nu. Men dessa är kunniga människor som har folkvett när de diskuterar!

T.ex Max Tegmark men även andra kunniga och tunga signaturer.
Citera
2023-07-11, 16:06
  #324
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Ja, och?
T.ex Max Tegmark men även andra kunniga och tunga signaturer.
Jag ser ändå att jag har "nudgat" dig lite i rätt riktning, men du är så klart för stolt för att våga erkänna det Nåja, vad du eller jag tycker har nog inte så stor betydelse. Eller ens vad alla i Sverige tycker om du eller jag lyckas övertyga i Sverige.

Jag tror nog egentligen att det mest sannolika på kort sikt är det som bl.a. Mo Dagwat har pratat om. Det är att på kort sikt är det troliga att nationer börjar använda AI för militära ändamål och att det blir ett nytt arms race p.g.a. av AI/AGI, vilket inte osannolikt leder till ett världskrig. Om antingen Kina eller USA får autonom militär AGI (eller nära AGI) kommer den andra sidan inte ha en sportslig chans. Därför kommer man försöka stoppa den formen av global dominans.

Ett anat mycket stor problem som kan uppstå ganska snart är massiv arbetslöshet, fattigdom, oroligheter och svält. Om politiken och marknadsekonomin inte hänger med i den snabba förändringen. Dvs man inför inte UBI snart utan man låter AGI kontrolleras av privata företag. Men även om alla slipper svälta är det inte säkert att det blir bra för vår civilisation. Om vanliga människor inte längre behövs i sitt yrke kan det leda till "bara" utbredd depression, uppgivenhet och narkotika/alkoholmissbruk. Vilket leder till kriminalitet och oroligheter.

Här tror jag att vi har enklare att nå en samsyn om riskerna?
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in