Citat:
Ursprungligen postat av
Bleppe_Bf
You keep using that phrase, I don't think you know what it means.
Superdatorer skalar ut, det är fler servrar som delar på arbetsbördan. De skalar inte upp genom att ha extremt snabba komponenter.
I vilket fall är minnesbandbredden den springande punkten för både virtualization for aggregation såväl som MPI och Beowulf.
100 Gbe fiberkort kan man få för runt 5000 spänn i dagsläget. 40GBASE-T över CAT8 håller på att standardiseras. Omöjligt skall det inte vara att skala ut ett homelab kluster till att göra något meningsfullt. I huvudsak att dela på minnet.
En virtuell maskin skall tillhandahålla samma maskininstruktioner som en fysisk dator med delat minne, vilket kräver fungerande protokoll för minneskoherens. Allt minne behöver inte alltid vara synkroniserat, men hårdvaran skall garantera att varje kärna ser en koherent bild av minnet när protokollet så föreskriver.
Hur skall den virtuella maskinen implementera de instruktioner som krävs för mutexar, atomiska variabler och andra synkroniseringsprimitiver? Läs på om "cache coherency" så får du lite av bakgrunden till svårigheterna.