--------------
Vad borde vara det bästa sättet att träna en AI att bli en människa.
Det optimala sättet att träna en AI borde att vara att sätta en AI mellan hjärnan och kroppen och sedan träna och optimera AI, så att den börjar generera samma styrsignaler till kroppen.
Dvs att AI tar in alla signaler från kroppen och sedan tränas att ge samma signaler till kroppen som hjärnan skickar.
Detta är idag inte tillåtet så........
Vi människor har redan förmågan att förstå ett dataspel
dvs att förstår och tolka en 2D bild, som en 3D värld.
Borde man inte då kunna träna en AI
genom att sätta en AI mellan dataspelare och dataspelet.
Dvs AI ges video signalen och tränas sedan på att generera samma styrsignaler som dataspelaren?
Och då menar jag att AI ska tränas att generera samma signaler som dataspelaren dvs inte bara hur dataspelaren styr spelaren utan även kommunicerar med de andra spelarna i olika situationer.
Det optimala borde ju vara att träna en AI som sitter mellan en person som sitter med VR hjälm dvs tar in video från 2 kameror och stereomikrofon
och som styr en humanoid-robot med 2 kamera ögon och stereomikrofon.
Men som sagt det borde ju vara en bra början att träna en AI,
som sitter mellan en dataspelare och ett dataspel,
som sedan tränas att generera samma signaler som människan,
då människan reagerar och pratar med 2D videon,
då spelaren förstår 2D videon med dess ljud,
som om det var i ett verkligt scenario i 3D med 2 ögon och 2 öron.
Eller görs detta redan?
Vi har ju svenska dataspel på servrar,
som spelas av massor av människor.
Har man AI idag mellan alla spelare och spel,
som sitter och försöker generera samma styrsignaler och kommunikation som dataspelare?
Borde inte detta vara ett effektivt sätt att få fram en AI,
som förstår omvärlden i 3D?
Tesla tränar ju sin AI för självkörning, på video från alla sina bilar.
Men har alla Tesla bilar 2 kameror riktade framåt, ca 5-10 cm isär,
för att generera rätt mänskligt video perspektiv?
Eller tar Tesla in video från en 360 kamera från taket
eller från många kameror, som är riktade åt alla håll runt bilen?
Någon som vet hur man idag tränar AI,
att ge samma signaler till omvärlden, som en människa?
MagI
------------------------
Vad borde vara det bästa sättet att träna en AI att bli en människa.
Det optimala sättet att träna en AI borde att vara att sätta en AI mellan hjärnan och kroppen och sedan träna och optimera AI, så att den börjar generera samma styrsignaler till kroppen.
Dvs att AI tar in alla signaler från kroppen och sedan tränas att ge samma signaler till kroppen som hjärnan skickar.
Detta är idag inte tillåtet så........
Vi människor har redan förmågan att förstå ett dataspel
dvs att förstår och tolka en 2D bild, som en 3D värld.
Borde man inte då kunna träna en AI
genom att sätta en AI mellan dataspelare och dataspelet.
Dvs AI ges video signalen och tränas sedan på att generera samma styrsignaler som dataspelaren?
Och då menar jag att AI ska tränas att generera samma signaler som dataspelaren dvs inte bara hur dataspelaren styr spelaren utan även kommunicerar med de andra spelarna i olika situationer.
Det optimala borde ju vara att träna en AI som sitter mellan en person som sitter med VR hjälm dvs tar in video från 2 kameror och stereomikrofon
och som styr en humanoid-robot med 2 kamera ögon och stereomikrofon.
Men som sagt det borde ju vara en bra början att träna en AI,
som sitter mellan en dataspelare och ett dataspel,
som sedan tränas att generera samma signaler som människan,
då människan reagerar och pratar med 2D videon,
då spelaren förstår 2D videon med dess ljud,
som om det var i ett verkligt scenario i 3D med 2 ögon och 2 öron.
Eller görs detta redan?
Vi har ju svenska dataspel på servrar,
som spelas av massor av människor.
Har man AI idag mellan alla spelare och spel,
som sitter och försöker generera samma styrsignaler och kommunikation som dataspelare?
Borde inte detta vara ett effektivt sätt att få fram en AI,
som förstår omvärlden i 3D?
Tesla tränar ju sin AI för självkörning, på video från alla sina bilar.
Men har alla Tesla bilar 2 kameror riktade framåt, ca 5-10 cm isär,
för att generera rätt mänskligt video perspektiv?
Eller tar Tesla in video från en 360 kamera från taket
eller från många kameror, som är riktade åt alla håll runt bilen?
Någon som vet hur man idag tränar AI,
att ge samma signaler till omvärlden, som en människa?
MagI
------------------------