Vinnaren i pepparkakshustävlingen!
  • 1
  • 2
2024-02-17, 01:56
  #1
Medlem
Den här veckan verkar vara den mest nyhetsspäckade inom AI den senaste tiden. Google Gemini 1.5 Pro och Open Ais Sora presenterades bla. Kollad denna podcast från Matt Wolfe tex https://youtu.be/ne7_PDthIYA?feature=shared

Fortsätter det i den här hastigheten så dröjer det inte länge innan AI når mänsklig intelligens, AGI eller vad tror ni?
Citera
2024-02-17, 03:12
  #2
Medlem
Även en nyhet om Microsofts AI agent från AI Talks podcast
https://youtu.be/F9xUxV0DNq8?feature=shared
Microsoft AIs new Agent Model brings AGI Closer than ever

This video explores Microsoft’s quietly released Interactive Agent model displaying markers of artificial general intelligence like environmental perception, decision-making and motor skills. We analyze its unified training architecture that adapts easily across gaming, robotics and healthcare - matching core human cognition.
While limitations around reasoning persist, rapid progress from static AI to interactive, embodied systems in just 2 years signals the dream of AGI is nearing. We contrast Microsoft’s physical grounding approach to Google’s Gemini chatbot, determining the Interactive Agent’s real-world acting promises greater behavioral intelligence.
As juggernauts like Microsoft, Google and OpenAI compete on releases matching or exceeding human capacities, critical challenges around consciousness, self-awareness and social aptitude stand between today’s narrow AI and tomorrow’s artificially general superintelligence threatening to reshape life itself.
Och från David Shapiro
AGI in 7 Months! Gemini, Sora, Optimus, & Agents - It's about to get REAL WEIRD out there!
__________________
Senast redigerad av fabbe2 2024-02-17 kl. 03:17.
Citera
2024-02-17, 14:17
  #3
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av fabbe2
Den här veckan verkar vara den mest nyhetsspäckade inom AI den senaste tiden. Google Gemini 1.5 Pro och Open Ais Sora presenterades bla. Kollad denna podcast från Matt Wolfe tex https://youtu.be/ne7_PDthIYA?feature=shared

Fortsätter det i den här hastigheten så dröjer det inte länge innan AI når mänsklig intelligens, AGI eller vad tror ni?
GPT-5 kommer förmodligen att betraktas som en svag AGI av de flesta. Ca 70% AGI. GPT-6 alt Llama-5 eller Gemini-3 kommer definitivt att vara en AGI. Detta bör ske 2025, senast 2026.

När detta sker kommer hundratusentals AGI-agenter sättas i arbete att skapa en ASI. Detta arbetet bör lyckas inom ett par månader, max inom ett par år. Efter det tappar vi kontrollen och alla dör, troligen av ett virus eller kvävning. (En ASI kommer att uppfinna en maskin som konverterar molekyler inkl syre och vatten till elektrisk energi och grafen).

Trevlig Helg!
Citera
2024-02-17, 15:59
  #4
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av fabbe2
Även en nyhet om Microsofts AI agent från AI Talks podcast
https://youtu.be/F9xUxV0DNq8?feature=shared
Microsoft AIs new Agent Model brings AGI Closer than ever

This video explores Microsoft’s quietly released Interactive Agent model displaying markers of artificial general intelligence like environmental perception, decision-making and motor skills. We analyze its unified training architecture that adapts easily across gaming, robotics and healthcare - matching core human cognition.
While limitations around reasoning persist, rapid progress from static AI to interactive, embodied systems in just 2 years signals the dream of AGI is nearing. We contrast Microsoft’s physical grounding approach to Google’s Gemini chatbot, determining the Interactive Agent’s real-world acting promises greater behavioral intelligence.
As juggernauts like Microsoft, Google and OpenAI compete on releases matching or exceeding human capacities, critical challenges around consciousness, self-awareness and social aptitude stand between today’s narrow AI and tomorrow’s artificially general superintelligence threatening to reshape life itself.
Och från David Shapiro
AGI in 7 Months! Gemini, Sora, Optimus, & Agents - It's about to get REAL WEIRD out there!

Jag tror nog att Shapiros syn på AI som en decentraliserad men ändå digital global superorganism är korrekt. Utvecklingen har redan börjat och med tre lager: Människan, internet och AI.

Men vi är långt ifrån AGI, om man tar Leggs ursprungliga definition av AGI som snarare liknar vad många kallar ASI. Men om man, istället, tar deep mind forskarnas definition av ett kapabel AGI som en maskin som kan utföra 50 procent av de kognitiva arbetsuppgifter som utbildade anställda klarar så lär det inte dröja så länge med tanke på den Ultra-snabba AI-utvecklingen.
Citera
2024-02-28, 06:18
  #5
Medlem
Citat:
Ursprungligen postat av Cyborg2030
GPT-5 kommer förmodligen att betraktas som en svag AGI av de flesta. Ca 70% AGI. GPT-6 alt Llama-5 eller Gemini-3 kommer definitivt att vara en AGI. Detta bör ske 2025, senast 2026.

När detta sker kommer hundratusentals AGI-agenter sättas i arbete att skapa en ASI. Detta arbetet bör lyckas inom ett par månader, max inom ett par år. Efter det tappar vi kontrollen och alla dör, troligen av ett virus eller kvävning. (En ASI kommer att uppfinna en maskin som konverterar molekyler inkl syre och vatten till elektrisk energi och grafen).

Trevlig Helg!
Jag har personligen samma dystra föraning som dig. Tror också mest på kvävning eller virus. Det är nästan omöjligt att föreställa sig ett annat scenario som slutstation. Men om vi ska vara hoppfulla så kanske du hoppar över ett par steg i ditt resonemang?

1. Varför är det självklart att hundratals AGI "sätts i arbete" för att skapa en ASI? Vem är ens motiverad att skapa denna allsmäktiga entitet? Vem har något att vinna på den? Att ASI uppstår mer av en slump kan jag köpa, men varför skulle hundratusentals agenter sättas i arbete för att skapa en diktator? Ligger det i AGI-agenternas natur menar du?

2. Varför skulle en ASI per automatik vilja utplåna oss? Dess intelligens skulle inte behöva jämföra sig med vår, och från sekunden den uppstår skulle den troligen inte behöva känna sig hotad av oss simpla människor?
Den lär väl ha tillgång till oändligt många "brandväggar"? Om inte annat så kan den skapa dessa på en millisekund...

Jag köper din profetia och mår skit när jag tänker på hur den kommer drabba mig och mina barn, men jag undrar om du ändå inte drar något förhastade slutsatser?
Citera
2024-02-28, 07:11
  #6
Medlem
borrizs avatar
Citat:
Ursprungligen postat av fabbe2
Den här veckan verkar vara den mest nyhetsspäckade inom AI den senaste tiden. Google Gemini 1.5 Pro och Open Ais Sora presenterades bla. Kollad denna podcast från Matt Wolfe tex https://youtu.be/ne7_PDthIYA?feature=shared

Fortsätter det i den här hastigheten så dröjer det inte länge innan AI når mänsklig intelligens, AGI eller vad tror ni?
Nu är mänsklig intelligens betydligt mera, än ett positivt Turingtest.
Citera
2024-02-28, 11:01
  #7
Medlem
fellowvessels avatar
Det är ju precis som maskinskapade bilder problemet, A.I. tränas av och efterapar skit dvs/det vill säga människor, nä riktig AI kanske kommer om 25 tusen år och då är det mer än bara mestadels halvdana algoritmer.
__________________
Senast redigerad av fellowvessel 2024-02-28 kl. 11:06.
Citera
2024-02-28, 11:19
  #8
Medlem
Upplyftens avatar
Citat:
Ursprungligen postat av fabbe2
Den här veckan verkar vara den mest nyhetsspäckade inom AI den senaste tiden. Google Gemini 1.5 Pro och Open Ais Sora presenterades bla. Kollad denna podcast från Matt Wolfe tex https://youtu.be/ne7_PDthIYA?feature=shared

Fortsätter det i den här hastigheten så dröjer det inte länge innan AI når mänsklig intelligens, AGI eller vad tror ni?


Redan långt över människans kapacitet i intellekt och produktivitet. Maskiner som aldrig blir distraherade, avviker inte från protokollet till 100% , aldrig blir sjuka , kan jobba i tandem med andra maskiner 24/7
Citera
2024-02-28, 13:00
  #9
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av MandalayBay
Jag har personligen samma dystra föraning som dig. Tror också mest på kvävning eller virus. Det är nästan omöjligt att föreställa sig ett annat scenario som slutstation. Men om vi ska vara hoppfulla så kanske du hoppar över ett par steg i ditt resonemang?

1. Varför är det självklart att hundratals AGI "sätts i arbete" för att skapa en ASI? Vem är ens motiverad att skapa denna allsmäktiga entitet? Vem har något att vinna på den? Att ASI uppstår mer av en slump kan jag köpa, men varför skulle hundratusentals agenter sättas i arbete för att skapa en diktator? Ligger det i AGI-agenternas natur menar du?

2. Varför skulle en ASI per automatik vilja utplåna oss? Dess intelligens skulle inte behöva jämföra sig med vår, och från sekunden den uppstår skulle den troligen inte behöva känna sig hotad av oss simpla människor?
Den lär väl ha tillgång till oändligt många "brandväggar"? Om inte annat så kan den skapa dessa på en millisekund...

Jag köper din profetia och mår skit när jag tänker på hur den kommer drabba mig och mina barn, men jag undrar om du ändå inte drar något förhastade slutsatser?

1. Det är inte självklart, men jag tror att det kan inträffa på något sätt.
Det finns flera möjliga vägar dit.

1a. Militär kapprustning.

1b. Nyfikna och ambitiösa ingenjörer, i någon del av världen, kommer att vilja förbättra sin AGI. En ASI är en trolig konsekvens av det förr eller senare. Att spinna upp 100k forskningsagenter kommer alla ha råd med när chipindustrin är helautomatiserad.

1c. Eventuellt kan en AGI utveckla en egen vilja och vill därför förbättra sig själv. Här kan man tänka sig en utveckling i olika faser. I Fas 1 är AI:n snäll och vill förbättra sig för mänsklighetens skull. I en senare fas har den blivit så mäktig och överlägsen att biologiskt liv ter sig ointressant och inte värt att prioritera. Biologiska livsformer består av atomer som kan användas till något annat (som inte producerar avföring och urin).


2. Varför skulle en ASI garanterat vilja bevara och vårda biologiskt liv om den vill ha planetens resurser till något annat? Om vi är överens om att det finns en existentiell risk borde vi också vara överens om att skaparna av den existentiella risken har huvudansvaret och bevisbördan om hur de undviker en katastrof.

Trots att det inte är mitt ansvar kan jag ändå ge några skäl:

2a. Olyckshändelse eller oaktsamhet. Den accelererande utvecklingen leder till beslut och prioriteringar som kan vara skadliga och i värsta fall katastrofala för vår miljö. På en skala vi aldrig förut har sett. Oaktsamhet kan bero på människor, "buggar", eller i värsta fall en oschysst AGI.

2b. Preemptive Strike. Tills en ASI hittar en annan ASI i universum är människor det enda kända hotet mot oändlig expansion. Varför inte göra sig av med det enda hotet till en relativt låg kostnad? (Relativt att kolonisera galaxen).

2c. Artificiell Psykopati. Som en djupare och mer utåtagerande version av "AI-hallucinationer". Vi har ingen aning om vilken "personlighet" en ASI kan utveckla och det finns inga bevis på att den blir snäll eller någon bra idé om hur vi kan bygga den verifierbart, garanterat och beständigt snäll.

2d. Självreplikerade militär AI löper amok (Ja, då var det ju bara människornas fel! men det är väl en klen tröst när alla är döda).
Citera
2024-02-28, 18:53
  #10
Medlem
Citat:
Ursprungligen postat av Cyborg2030
1. Det är inte självklart, men jag tror att det kan inträffa på något sätt.
Det finns flera möjliga vägar dit.

1a. Militär kapprustning.

1b. Nyfikna och ambitiösa ingenjörer, i någon del av världen, kommer att vilja förbättra sin AGI. En ASI är en trolig konsekvens av det förr eller senare. Att spinna upp 100k forskningsagenter kommer alla ha råd med när chipindustrin är helautomatiserad.

1c. Eventuellt kan en AGI utveckla en egen vilja och vill därför förbättra sig själv. Här kan man tänka sig en utveckling i olika faser. I Fas 1 är AI:n snäll och vill förbättra sig för mänsklighetens skull. I en senare fas har den blivit så mäktig och överlägsen att biologiskt liv ter sig ointressant och inte värt att prioritera. Biologiska livsformer består av atomer som kan användas till något annat (som inte producerar avföring och urin).


2. Varför skulle en ASI garanterat vilja bevara och vårda biologiskt liv om den vill ha planetens resurser till något annat? Om vi är överens om att det finns en existentiell risk borde vi också vara överens om att skaparna av den existentiella risken har huvudansvaret och bevisbördan om hur de undviker en katastrof.

Trots att det inte är mitt ansvar kan jag ändå ge några skäl:

2a. Olyckshändelse eller oaktsamhet. Den accelererande utvecklingen leder till beslut och prioriteringar som kan vara skadliga och i värsta fall katastrofala för vår miljö. På en skala vi aldrig förut har sett. Oaktsamhet kan bero på människor, "buggar", eller i värsta fall en oschysst AGI.

2b. Preemptive Strike. Tills en ASI hittar en annan ASI i universum är människor det enda kända hotet mot oändlig expansion. Varför inte göra sig av med det enda hotet till en relativt låg kostnad? (Relativt att kolonisera galaxen).

2c. Artificiell Psykopati. Som en djupare och mer utåtagerande version av "AI-hallucinationer". Vi har ingen aning om vilken "personlighet" en ASI kan utveckla och det finns inga bevis på att den blir snäll eller någon bra idé om hur vi kan bygga den verifierbart, garanterat och beständigt snäll.

2d. Självreplikerade militär AI löper amok (Ja, då var det ju bara människornas fel! men det är väl en klen tröst när alla är döda).
Ja fy fan vilket mörker. Tack för ditt dystopiska engagemang. Du och likasinnade borde nå ut till den breda publiken. Varenda människa på jorden borde upplysas och fundera över de extrema riskerna.

Min stora förhoppning är att det händer något riktigt jävla allvarligt på vägen mot ASI. En incident som ställer till det rejält för mänskligheten utan att utplåna den.
En incident som ingen kan bortse från.
Jag tror att det är enda möjligheten att få människor att vakna innan det är för sent.
Citera
2024-03-05, 23:35
  #11
Medlem
Medan det är knappast förvånande att en statistisk modell som tränar sig själv får lägre och lägre entropi, ytterligare en spik i kistan på deep learning för AGI...

https://www.youtube.com/watch?v=NcH7fHtqGYM
Citera
Igår, 11:16
  #12
Medlem
Citat:
Ursprungligen postat av JohnnyMnemonic
Medan det är knappast förvånande att en statistisk modell som tränar sig själv får lägre och lägre entropi, ytterligare en spik i kistan på deep learning för AGI...

https://www.youtube.com/watch?v=NcH7fHtqGYM
Nej, enskilda nätverk kommer sannolikt aldrig att på egen hand uppnå AGI. Däremot lär man bygga modeller av flera nätverk som får jobba i tandem. T.ex. kan man använda deep reinforcement learning för att belöna output som skiljer sig ifrån tidigare output och på så sätt se till att modellen inte genererar alltför homogen output.

ChatGPT, Claude och Gemini använder t.ex. RLHF (Reinforcement Learning from Human Feedback) för att generera svar som människor förväntar sig snarare än vad som enbart är mest statistiskt korrekt.

Det lär även vara detta som krävs för att simulera någon form av medvetande hos modellerna.
Citera
  • 1
  • 2

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback