Citat:
Jag ser ändå att jag har "nudgat" dig lite i rätt riktning, men du är så klart för stolt för att våga erkänna det
Nåja, vad du eller jag tycker har nog inte så stor betydelse. Eller ens vad alla i Sverige tycker om du eller jag lyckas övertyga i Sverige.
Jag tror nog egentligen att det mest sannolika på kort sikt är det som bl.a. Mo Dagwat har pratat om. Det är att på kort sikt är det troliga att nationer börjar använda AI för militära ändamål och att det blir ett nytt arms race p.g.a. av AI/AGI, vilket inte osannolikt leder till ett världskrig. Om antingen Kina eller USA får autonom militär AGI (eller nära AGI) kommer den andra sidan inte ha en sportslig chans. Därför kommer man försöka stoppa den formen av global dominans.
Ett anat mycket stor problem som kan uppstå ganska snart är massiv arbetslöshet, fattigdom, oroligheter och svält. Om politiken och marknadsekonomin inte hänger med i den snabba förändringen. Dvs man inför inte UBI snart utan man låter AGI kontrolleras av privata företag. Men även om alla slipper svälta är det inte säkert att det blir bra för vår civilisation. Om vanliga människor inte längre behövs i sitt yrke kan det leda till "bara" utbredd depression, uppgivenhet och narkotika/alkoholmissbruk. Vilket leder till kriminalitet och oroligheter.
Här tror jag att vi har enklare att nå en samsyn om riskerna?
Nåja, vad du eller jag tycker har nog inte så stor betydelse. Eller ens vad alla i Sverige tycker om du eller jag lyckas övertyga i Sverige.Jag tror nog egentligen att det mest sannolika på kort sikt är det som bl.a. Mo Dagwat har pratat om. Det är att på kort sikt är det troliga att nationer börjar använda AI för militära ändamål och att det blir ett nytt arms race p.g.a. av AI/AGI, vilket inte osannolikt leder till ett världskrig. Om antingen Kina eller USA får autonom militär AGI (eller nära AGI) kommer den andra sidan inte ha en sportslig chans. Därför kommer man försöka stoppa den formen av global dominans.
Ett anat mycket stor problem som kan uppstå ganska snart är massiv arbetslöshet, fattigdom, oroligheter och svält. Om politiken och marknadsekonomin inte hänger med i den snabba förändringen. Dvs man inför inte UBI snart utan man låter AGI kontrolleras av privata företag. Men även om alla slipper svälta är det inte säkert att det blir bra för vår civilisation. Om vanliga människor inte längre behövs i sitt yrke kan det leda till "bara" utbredd depression, uppgivenhet och narkotika/alkoholmissbruk. Vilket leder till kriminalitet och oroligheter.
Här tror jag att vi har enklare att nå en samsyn om riskerna?
Bra att du försöker nå samsyn med mig. I det hela stora är det inte mycket som skiljer oss när det kommer till AGI/ASI och ett utvecklinsstopp. Jag är beredd att låta det hela köra på 1-3 år, du vill stoppa, nu! Avgörande för mig blir om utvecklingstakt ökar ännu mer i hastighet vad gäller fördubbling av LLM:s övergripande kapacitet. Som nu, var tredje månad, varannan månad, varje månad. Alltså 16 gånger större kapacitet per år, 64 gånger eller 4096 gånger per år. I det sista fallet nås en kapacitet jämfört med vad GPT-4 hade i mars. Detta är dubbelt så mycket som jag beräknat GPT-7 skulle ha med 16 gånger högre kapacitet per år jämfört med GPT-4 i mars. Skulle det öka iväg så mycket så är även jag anhängare av minst ett halvårs utvecklingstopp. Problemet är främst Kina. Biden kommer inte att acceptera ett sådant stopp.
En första indikation får vi i höst med introduktionen av GPT-4.5. Har den modellen väsentligt högre övergripande kapacitet jämfört med GPT 4 i mars. T.ex 6, 8 eller 10 gånger högre, så är det dags att börja dra öronen åt sig.
Och för att, om möjligt göra dig ännu oroligare:
Säg hej till NEO, förmodligen föregångaren till hubotar.
https://youtu.be/TJbqLD3UV5Y
Att all AI utveckling går så snabbt nu beror på att all AI utveckling är AI understödd.
Däremot så ser jag bara nästan positiva effekter på samhällsutvecklingen i ett smalt perspektiv. Men skulle allt pela iväg åt helvete med ett logiskt-monster, så blir allt sådant betydelselöst.