Citat:
Ursprungligen postat av ladumanen
Självklart hade utvecklingen kunnat gå snabbare. Säg mig, varför kan vi inte göra en dator på 5 GHz redan från början med quad core processorer utan istället göra 128 MHz först, därefter 256 MHz, sen 512...
Svaret är att lura den stora massan till att tro att de inte går och för att tjäna pengar på varje. I mitt tycke är det förenat mot att ha bedragit mänskligheten på ett mycket grovt sätt, lurat de som en man skulle stjäla godis från ett barn.
Självklart skulle man med den tidens teknologi kunna konstruera en quadcore med 5GHz, men man skulle inte kunna använda den då den skulle vara allt för stor och således använda för mycket elkraft därav bränna sönder hela ytan på grund av mycket hög temperatur, vi pratar om hundratals grader. Detta är sant om vi hade den kunskapen då. Men som med all annan teknik börjar man med något simpelt och vidar utveklar den med tiden. Sen hade man inte den kunskapen om branch prediction, superscalar, pipelining, alu osv som vi har idag som står mer för prestandan än mängden GHz vi har. Lite som att försöka räkna ut PI utan att veta vad PI är.
Sen har vi detta med programeringen, i början skrev man klar maskinkod innan asembly språket växte fram, sen C osv. Då vi då inte hade ett lättskrivet språk och kunskap så vi kunde utnyttja de resurser vi har idag, hade man inte kunna utnyttja kraften i en quadcore. Nu däremot har vi börjat lära oss hur man skriver flertrådade applikationer vilket man inte direkt gjorde effektivt i den kulminativa perioden vid core 2 duo.
Sen skall vi inte glömma att processorkraft inte är allt, det finns flera problem som teoretiskt aldrig kommer att lösas med hjälp utav världens snabbaste datorer om man använder den enklaste metoden bruteforce. Ett exempel är traveling salesman problem(tsp) som handlar om att man skall hitta kortaste vägen mellan n antal noder där man besöker varje nod en gång, för stora problem, säg 100 städer, antalet olika läsningar är 99!/2 eller 4.66*10^155. Om jag citerar min lärare, ifall jag har 10^87 stycken kärnor, och jag kunde hitta en lösning på 3*10^-24 s. tiden det tar för en foton att korsa en proton. så skulle det ta 10^39*universums ålder. Mao, tekniken är inte allt utan det handlar om hur bra vi programerar, idag har vi löst traveling salesman problem på 15112 och 24978 städer vilket är 7.6*10^56592 antal lösningar och 1.9*10^98992 lösningar. Så tro inte att processorkraft är allt det handlar om att tänka algoritmer som löser problem totalt men med lägre tidskomplexitet, detta är sådan kunskap vi inte hade då, vilket gjorde det omöjligt att kunna lösa sådana stora problem som vi gör idag.
Sen ska vi inte glömma att vi mer och mer använder GPUn idag till processering av komplex data vilket ger ett stort hopp i prestanda pga den mängd parallelism vi kan ha i program av parallel natur.
I framtiden kommer graphene att ersätta kisel i våra processorer tills vi lyckas skapa en general purpose kvant dator. Dock ligger graphen 5-10 år i framtiden för hemmanvändaren då prestandan och energieffektiviteten måste bli bättre. Det finns redan en 100GHz graphene cpu från ibm
http://www.pcworld.com/article/18865...ransistor.html , men pga graphens natur är läckstörm som resultat av långsam switch hastighet ett problem. Men vi gör framsteg varje år på detta område.