Vinnaren i pepparkakshustävlingen!
  • 1
  • 2
2017-11-30, 18:31
  #1
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Om 50 år kan vi nog lägga till:

Max Tegmark
Nick Bostrom
Ray Kurtzweil (dock ej fysiker)

"Kurzweil predicts that machines might have the ability to make planet-sized computers by 2099" från https://en.wikipedia.org/wiki/Predic..._Kurzweil#2099

Han kan inte vara riktigt frisk...
Citera
2017-11-30, 20:54
  #2
Medlem
Citat:
Ursprungligen postat av Rolvaag0
"Kurzweil predicts that machines might have the ability to make planet-sized computers by 2099" från https://en.wikipedia.org/wiki/Predic..._Kurzweil#2099

Han kan inte vara riktigt frisk...
Om jag minns rätt så bygger han sina stolligheter på grundlösa antaganden som att datorer fördubblar sin kapacitet varje år. Vilket leder till paradoxer som att en dator snart kan simulera sig själv i realtid och ett år senare göra det på halva tiden.
Citera
2017-11-30, 21:45
  #3
Medlem
matteyass avatar
Citat:
Ursprungligen postat av WbZV
Om jag minns rätt så bygger han sina stolligheter på grundlösa antaganden som att datorer fördubblar sin kapacitet varje år. Vilket leder till paradoxer som att en dator snart kan simulera sig själv i realtid och ett år senare göra det på halva tiden.
Kan du förklara hur en dator kan simulera sig själv i realtid?
Citera
2017-11-30, 22:17
  #4
Medlem
Citat:
Ursprungligen postat av matteyas
Kan du förklara hur en dator kan simulera sig själv i realtid?
Tja... Säg att en dator som idag består av 2^x partiklar kan simulera 2^y partiklar i realtid. Enligt spådomen kommer datorn att kunna simulera sig själv om x-y år. Och om x-y+1 år kommer den kunna att simulera sig själv dubbelt så snabbt som den själv exekverar. Och simulerar den att den simulerar sig själv så kan den räkna fyra gånger så snabbt som i realtid.

Tror du på spådomen?
Citera
2017-11-30, 22:40
  #5
Medlem
Citat:
Ursprungligen postat av WbZV
Tja... Säg att en dator som idag består av 2^x partiklar kan simulera 2^y partiklar i realtid. Enligt spådomen kommer datorn att kunna simulera sig själv om x-y år. Och om x-y+1 år kommer den kunna att simulera sig själv dubbelt så snabbt som den själv exekverar. Och simulerar den att den simulerar sig själv så kan den räkna fyra gånger så snabbt som i realtid.

Tror du på spådomen?

Kanske det kan fungera vid 0 K. Annars ser jag bara att det i förlängningen skulle leda till en oändlig energiutveckling, som måste förtära sin skapare...
Citera
2017-12-01, 00:17
  #6
Medlem
matteyass avatar
Citat:
Ursprungligen postat av WbZV
Tja... Säg att en dator som idag består av 2^x partiklar kan simulera 2^y partiklar i realtid. Enligt spådomen kommer datorn att kunna simulera sig själv om x-y år. Och om x-y+1 år kommer den kunna att simulera sig själv dubbelt så snabbt som den själv exekverar. Och simulerar den att den simulerar sig själv så kan den räkna fyra gånger så snabbt som i realtid.
Hur ska man kunna flippa fysiska bits på ett sätt som simulerar att flippa virtuella bits snabbare än dom faktiska bittarna flippar?

Citat:
Ursprungligen postat av WbZV
Tror du på spådomen?
Moores lag har hållt fint historiskt sett fram till idag men jag är inte nog insatt för att ha någon vettig åsikt om hur länge till den kommer hålla. Du kanske menar någon annan spådom?
Citera
2017-12-01, 14:04
  #7
Medlem
Ambelains avatar
Citat:
Ursprungligen postat av WbZV
Tja... Säg att en dator som idag består av 2^x partiklar kan simulera 2^y partiklar i realtid. Enligt spådomen kommer datorn att kunna simulera sig själv om x-y år. Och om x-y+1 år kommer den kunna att simulera sig själv dubbelt så snabbt som den själv exekverar. Och simulerar den att den simulerar sig själv så kan den räkna fyra gånger så snabbt som i realtid.

Tror du på spådomen?
Vore det egentligen inte rimligare att utvecklingen stannat vid någon Optimal nivå ...

Dvs istället för att bara fortsätta i evighet, in absurdum.
För jag ser inte riktigt varför just datorutvecklingen skulle skilja sig så dramatiskt och markant från all annan utveckling.
Allt har ju stannat av vid någon form av optimal nivå - även om det har funnits möjligheter att fortsätta.

Våra bilar har ju inte utvecklats till fartvidunder med oändlig hastighet.
Våra flygplan inte heller - där har det istället gått tillbaka från en tidigare topp (Concorden).

Eller varför inte Kärnvapen ...
Det blev bara en Tsar Bomba.
Sen handlade det om att hitta den optimala nivån.

Bara för att något kanske Går ... så vare sig Behöver man eller Måste man sträva vidare.

Visst borde det vara något motsvarande för datorerna?


---

Men grejen med det optimala är ju att man egentligen inte riktigt Vet vilken nivå det är, färrän man nått förbi den och börjat gå till överdrift.
Först då kan man titta tillbaka och enas om det optimala.
Vi är uppenbart inte där än ... =)

Ja, iaf bortsett från i vissa fall såklart.
För om man tex tänker på kapaciteten hos en helt vanlig Miniräknare ... Då har vi ju både uppnått - och optimerat - nivån för länge sedan.
Vi behöver inte ens "superdators" kraft för det en miniräknare ska göra.

SÅ, vi Håller faktiskt på att optimera datorernas kraft för fullt.
Område efter område har hittat sina optimala nivåer, och fler tillfogas hela tiden.


Men, är det inte så att för "vissa" så är det aldrig nog ???
Användbart eller ej, förståeligt eller ej, det spelar mindre roll - för "mer" ska vi.
Finns det ens ett Behov av datorer med "mer kraft" än vad vi själv ens har behov av, eller ens kan använda?
Om vi inte vet vad vi ska använda kraften till, vad ska vi med det till då?



Dessutom - att "effektivisera" något är ju inte samma sak som att utveckla.
Man gör egentligen inget nytt när man bara slipar kniven. För kniven finns redan.
Man kan göra den vassare och vassare - men efter en viss nivå är ytterligare vässning bara meningslöst. Till ingen nytta.
Citera
2017-12-01, 18:34
  #8
Medlem
Citat:
Ursprungligen postat av matteyas
Hur ska man kunna flippa fysiska bits på ett sätt som simulerar att flippa virtuella bits snabbare än dom faktiska bittarna flippar?
Om du inser att det inte går så är du förmodligen ett större geni än Kurzweil. Mitt tidigare inlägg var en replik på att han höjdes till skyarna som ett av nutidens stora genier.

Citat:
Moores lag har hållt fint historiskt sett fram till idag men jag är inte nog insatt för att ha någon vettig åsikt om hur länge till den kommer hålla. Du kanske menar någon annan spådom?
Moores lag om en fördubblad prestanda vartannat år falsifierades för drygt 10 år sedan. Intel slog i frekvenstaket runt 2004 när de försökte komma över 4GHz. 13 år senare har man fortfarande inte kommit upp till 5GHz. De senaste 10 åren har man kunnat öka antalet transistorer genom att minska linjebredden som nu är nere på 14nm. Man kanske kan minska linjebredden med en nolla till, men sedan är det definitivt stopp då dopade kiselstrukturer till sin natur måste bestå av flera atomer i bredd för att behålla sina elektriska egenskaperna.

Men Kurzveil lever i ett annat universum. Han bygger sina hejdlösa spekulationer på att datorerna kommer att fördubbla sin kapacitet varje år under överskådlig framtid. Om 30 år kommer de vara en miljard gånger kraftfullare och om 60 år en miljard miljarder gångare kraftfullare. Och sedan kan man snart simulera hela mänskligheten på sin mobiltelefon eller vad man nu har i fickan.
https://www.youtube.com/watch?v=DCbpapq_vRI&t=286s

Citat:
Ursprungligen postat av Ambelain
Vore det egentligen inte rimligare att utvecklingen stannat vid någon Optimal nivå ...
Ja, precis så är det. Moores lag är felformulerad då det inte är prestandan som ökar exponentiellt utan redundansen som minskar exponentiellt. När tekniken är ny så domineras kostnaderna av redundans och en halvering av redundansen ger i praktiken en fördubbling av prestandan. När redundansen minskar så divergerar kurvorna då den ena går mot noll och den andra går mot processens inneboende kostnad, dvs. det som är teoretiskt optimalt.
Citera
2017-12-01, 21:18
  #9
Medlem
Citat:
Ursprungligen postat av WbZV
Moores lag om en fördubblad prestanda vartannat år falsifierades för drygt 10 år sedan. Intel slog i frekvenstaket runt 2004 när de försökte komma över 4GHz.
Moores lag säger att antalet transistorer dubblas vartannat år, den handlar inte om prestandan. David House hävdade dock utifrån detta att prestandan skulle dubblas på 18 månader i och med att frekvenserna också ökade.

Senaste åren har utvecklingen börjat bromsa in så Moores lag inte längre håller, men det är ändå imponerande hur bra den höll medan transistorantalet ökade med en faktor 10 000. I och för sig var det delvis en självuppfyllande profetia eftersom industrin använt Moores lag som riktlinje för hur snabbt de måste ta fram nya processer.

Citat:
Ja, precis så är det. Moores lag är felformulerad då det inte är prestandan som ökar exponentiellt utan redundansen som minskar exponentiellt. När tekniken är ny så domineras kostnaderna av redundans och en halvering av redundansen ger i praktiken en fördubbling av prestandan.
Det där var en helt ny lag som inte har mycket med Moores observation att göra.

Däremot är det signifikant att så länge antalet transistorer ökar så snabbt som den gjort i decennier så hinner man inte med att optimera konstruktionerna utan använder rå styrka med parallellisering och liknande. Även om tekniken att tillverka chip tvärstannade idag skulle man kunna jobba i decennier på att förbättra prestandan, och då kan din lag få betydelse.
Citera
2017-12-01, 21:47
  #10
Medlem
matteyass avatar
Citat:
Ursprungligen postat av WbZV
Om du inser att det inte går så är du förmodligen ett större geni än Kurzweil. Mitt tidigare inlägg var en replik på att han höjdes till skyarna som ett av nutidens stora genier.
Även om prestandan dubblas si och så ofta så leder det inte till någon paradox om att en dator kan simulera sig själv i realtid tänkte jag mest. Har Kurzweil hävdat det?

Däremot kan jag hålla med om att han mest troligt inte är ett geni i någon vanlig bemärkelse. Visionär är nog ett mer passande ord. Han är garanterat inte korkad däremot.

Citat:
Ursprungligen postat av WbZV
Moores lag om en fördubblad prestanda vartannat år falsifierades för drygt 10 år sedan. Intel slog i frekvenstaket runt 2004 när de försökte komma över 4GHz. 13 år senare har man fortfarande inte kommit upp till 5GHz. De senaste 10 åren har man kunnat öka antalet transistorer genom att minska linjebredden som nu är nere på 14nm. Man kanske kan minska linjebredden med en nolla till, men sedan är det definitivt stopp då dopade kiselstrukturer till sin natur måste bestå av flera atomer i bredd för att behålla sina elektriska egenskaperna.

Men Kurzveil lever i ett annat universum. Han bygger sina hejdlösa spekulationer på att datorerna kommer att fördubbla sin kapacitet varje år under överskådlig framtid. Om 30 år kommer de vara en miljard gånger kraftfullare och om 60 år en miljard miljarder gångare kraftfullare. Och sedan kan man snart simulera hela mänskligheten på sin mobiltelefon eller vad man nu har i fickan.
https://www.youtube.com/watch?v=DCbpapq_vRI&t=286s
Jag tror din kritik baseras delvis på en feltolkning av Moores lag. Xenonen tar upp relevanta saker i förhållande till det här. "Moore's law is the observation that the number of transistors in a dense integrated circuit doubles approximately every two years."

Sen så finns intressant forskning rörande (äkta) nano-baserad teknik. Dom har letat efter den teoretiska gränsen för vad en nano-baserad produktionslinje skulle kunna producera. Här är vad dom säger om datorer:

"Assuming that computation power scales linearly with speed and transistor count, the "mobile" version of the Pentium 4 uses about six million times more power per computation than a rod-logic nanocomputer. The fastest computer in the world, as of this writing, is the NEC Earth Simulator. It includes 640 8-processor nodes using 20 kW apiece, for a total of 13 MW (ignoring the large crossbar switch). It also includes 10 TB of RAM, and fills a large building. Assuming that the Earth Simulator's power consumption per operation is comparable to the Pentium 4, a comparable massively parallel nanocomputer would require 2 watts. The CPUs would require a volume of 8 million cubic microns, and the memory an additional 3 million cubic microns. The entire computer could fit into a cubic millimeter, so is trillions of times more compact."

Förhoppningsvis dyker det upp sån teknik i framtiden, och då snackar vi alltså runt 10¹² gånger effektivare än idag. Det kommer kanske inte uppfyllas i praktiken i första ledet (om någonsin) men säg att vi fortfarande är 10⁹ från en rimlig gräns enligt vad vi vet idag.
__________________
Senast redigerad av matteyas 2017-12-01 kl. 22:02.
Citera
2017-12-01, 23:21
  #11
Medlem
Citat:
Ursprungligen postat av matteyas
Även om prestandan dubblas si och så ofta så leder det inte till någon paradox om att en dator kan simulera sig själv i realtid tänkte jag mest. Har Kurzweil hävdat det?

Däremot kan jag hålla med om att han mest troligt inte är ett geni i någon vanlig bemärkelse. Visionär är nog ett mer passande ord. Han är garanterat inte korkad däremot.
En dator är uppbyggd av komponenter (grindar). Det finns en fysisk gräns för hur många grindar som går att packa ihop i en begränsad volym. Att simulera ett konstant antal grindar har en konstant kostnad. Om man som Kurzweil hävdar att man kan fördubbla datorns kapacitet år efter år så är det bara en tidsfråga innan datorn kan simulera sig själv.

Citat:
Jag tror din kritik baseras delvis på en feltolkning av Moores lag. Xenonen tar upp relevanta saker i förhållande till det här. "Moore's law is the observation that the number of transistors in a dense integrated circuit doubles approximately every two years."
Det var jag själv som refererade till Moores lag. Kurzweil pratar bara om en årlig fördubbling av kapaciteten, så min kritik av Kurzweil gäller oberoende av vad vi menar med Moores lag.

Visst. I sin ursprungliga form så avser Moores lag packningstäthet, men i vardagligt tal refereras till Moores lag även vad gäller prestanda och även en del andra exponentiella förbättringsfaktorer.

Även värt att nämna Rocks lag som säger att kostnaden för utvecklingen också följer Moores lag, då även halvledarfabrikerna blir exponentiellt dyrare över tiden. Så det borde då bli en miljard gånger dyrare att tillverka en miljard gånger mer tätpackade datorer. Hur länge är det uthålligt?

Citat:
Sen så finns intressant forskning rörande (äkta) nano-baserad teknik. Dom har letat efter den teoretiska gränsen för vad en nano-baserad produktionslinje skulle kunna producera. Här är vad dom säger om datorer:

"Assuming that computation power scales linearly with speed and transistor count, the "mobile" version of the Pentium 4 uses about six million times more power per computation than a rod-logic nanocomputer. The fastest computer in the world, as of this writing, is the NEC Earth Simulator. It includes 640 8-processor nodes using 20 kW apiece, for a total of 13 MW (ignoring the large crossbar switch). It also includes 10 TB of RAM, and fills a large building. Assuming that the Earth Simulator's power consumption per operation is comparable to the Pentium 4, a comparable massively parallel nanocomputer would require 2 watts. The CPUs would require a volume of 8 million cubic microns, and the memory an additional 3 million cubic microns. The entire computer could fit into a cubic millimeter, so is trillions of times more compact."

Förhoppningsvis dyker det upp sån teknik i framtiden, och då snackar vi alltså runt 10¹² gånger effektivare än idag. Det kommer kanske inte uppfyllas i praktiken i första ledet (om någonsin) men säg att vi fortfarande är 10⁹ från en rimlig gräns enligt vad vi vet idag.
10⁹ räcker 30 år med Kurzweils takt. 10¹⁸ i 60 år. Hur fixar vi det om 200 år?
Citera
2017-12-02, 00:04
  #12
Medlem
matteyass avatar
Citat:
Ursprungligen postat av WbZV
En dator är uppbyggd av komponenter (grindar). Det finns en fysisk gräns för hur många grindar som går att packa ihop i en begränsad volym. Att simulera ett konstant antal grindar har en konstant kostnad. Om man som Kurzweil hävdar att man kan fördubbla datorns kapacitet år efter år så är det bara en tidsfråga innan datorn kan simulera sig själv.
Förstår fortfarande inte vad du menar. Visst. En dator i framtiden kan simulera en dator från idag men den kan omöjligt simulera sig själv i realtid eftersom det kräver minst lika många virtuella bitar som den har fysiska bitar. Det skulle alltså krävas noll overhead både för representation och flippande av virtuella bitar. Det här är en fysisk "upper limit" på hur snabb en simulering kan vara, vid noll overhead kan simulering och verklighet vara lika snabba. Att simulera sig själv fullständigt och snabbare än man själv faktiskt är skulle gå emot allt vi vet idag.

Du kanske menar nåt helt annat?

Citat:
Ursprungligen postat av WbZV
Även värt att nämna Rocks lag som säger att kostnaden för utvecklingen också följer Moores lag, då även halvledarfabrikerna blir exponentiellt dyrare över tiden. Så det borde då bli en miljard gånger dyrare att tillverka en miljard gånger mer tätpackade datorer. Hur länge är det uthålligt?
"Rock's law or Moore's second law, named for Arthur Rock or Gordon Moore, says that the cost of a semiconductor chip fabrication plant doubles every four years." Så länge utveckligen går snabbare än kostnaden ökar så borde det vara hållbart från den aspekten.

Sen så håller tydligen inte den lagen speciellt bra verkar det som:
"It has been suggested that fabrication plant costs have not increased as quickly as predicted by Rock's law – indeed plateauing in the late 1990s[6] – and also that the fabrication plant cost per transistor (which has shown a pronounced downward trend[6]) may be more relevant as a constraint on Moore's Law."

Citat:
Ursprungligen postat av WbZV
10⁹ räcker 30 år med Kurzweils takt. 10¹⁸ i 60 år. Hur fixar vi det om 200 år?
1) Jag är som sagt inte direkt intresserad av extrapolationer framåt i tiden så som "hur länge kommer Moores lag fortsätta hålla." Kurzweil verkar ganska säker på sina egna prediktioner (länk till intervju med Neil Degrasse Tyson som värd) men jag skulle säga att han inte är pålitlig förutom i stora drag om man kollar på historiken av hans prediktioner.
2) Ett väl efterforskat svar på den frågan som ges idag är mest troligt irrelevant redan om 30 år.
Citera
  • 1
  • 2

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback