Jag har sett när det gäller superdatorer så mäter de ofta det i flops, just nu är exempelvis den snabbaste datorn 20 petaflops. Det verka vara ett enkelt sätt att mäta, även om det kanske inte visar hela sanningen (då det beror lite på hur man har byggt ihop datorn, vilket xbox 360 vs PS3 visade, att trots att PS3 hade nästan dubbelt så mycket flops så var grafiken likartat) så ger det i alla fall en indikation på hur bra en dator är, så varför används inte detta oftare då man säljer datorer till konsumenter?
Efter lite forskade, är fortfarande extremt grön, så har jag sett om jag tolkar siffrorna rätt att den bästa superdatorn ifrån exempelvis 2002 hade, 35860 gigaflops, eller 35,860 teraflops. Den bästa superdatorn ifrån november 2012 hade, 17590 teraflops. Alltså, är dagens superdatorer nästan 500 gånger snabbare, om jag tolkar detta rätt.
Jag antar att liknade uteckling sker på vanliga datorer, men den är som tråden visar svårare för konsumenten att se.
http://www.top500.org/list/2002/11/
http://www.top500.org/lists/2012/11/
EDIT: Om man går tillbaka till, 2000, så hade den bästa superdatorn, cirka 5 teraflops. Det kan sättas i förhållande till att PS3 hade 2 teraflops, så år 2000´s bästa superdator i hela världen var alltså bara 150% bättre än en spelkonsol 6 år senare, och konsolerna är sällan lika bra som de bästa konsument datorerna. Så om det ska följa samma utveckling bör vi ha konsument datorer som har mellan 10-20 petaflops om 6 år, men kommer kunden förstå det eller kommer det stå i12 4 Ghz dual core?