Citat:
Ursprungligen postat av
pmatt
Verkningsgraden ser olika ut beroende på hur stor belastningen är, och där kommer då ett 1000w-agg dra mer, men skulle man smälla in två grafikkort vid en uppgradering så kommer 1000w-agget vara mer effektivt vid belastning; det skall doc sägas att ett klenare agg kommer ju alltid vara mer effektivt när datorn bara står på, slössurf eller spelas eftersom att verkningsgraden vid låg belastning är låg.
Verkningsgraden mäts och bedöms vid olika belastningar, 20, 50 och 100% har alltid gällt för de olika 80+-certifikaten, och numera finns 10% också om kortet vill vara märkt med 80+titanium.
https://en.wikipedia.org/wiki/80_Plus
Jag vet. Dock är det ju som du redan har påpekat så att den är lägre vid lägre belastning (och ännu lägre än 88% vid ännu lägre belastning än 20% (dock så gör ju tapp i effektiviteten mindre skillnad på en mindre last)
Var vi skulle hamna i snitt vet vi ju inte men även om vi skulle ta "värsta" scenariot med 500 watt last på 500 watt och 1000 watt guldnätagg med 88 respektive 92% effektivitet så drar de 568.2 respektive 543.5 watt. 57% mer överskottsvärme från nätagget. Vid lika effektivitet ingenting såklart.
Min poäng relativt det var mest att 1000 watt nätagg om både det och ett 500 watt nätagg hade dragit säg 550 watt inte alls gav hälften så mycket värme bara för att man bara använde halva dess kapacitet så att säga. "Det är ju bara halvt belastat så det blir ju inte så varmt!" (Mer intuitivt än ifrån effektivitetssiffrorna i fråga.)
Sen ute i verkligheten så är det ju så att de resterande 500 watten ju hamnar i resten av datorn och blir värme där oavsett så utöver de totala 543.5 watten talar vi en ökning om 4.5% som man gärna vill få bort på något sätt och som rimligtvis kommer tas ut genom nätagget. Men det finns ju mycket annat som skall ut med.
24.7 watt extra vid 1 kr / kwh kostar 2.47 öre / timme, kostar nätagget 700 kr mer tar det 28 340 timmar att tjäna igen mellanskillnaden i lägre elkostnad