Citat:
Ursprungligen postat av
Men-vinkeljarn
Ok. Så det är i själva hårdvaruemuleringen som den potentiella gränsen sitter. Ett starkare system borde alltid kunna måla samma eller fler antal pixlar till skärmen (måla samma frame) snabbare men att simulera hur ett annat systems hårdvara kommer fram till den framen tar ibland längre tid då man begränsar sig själv till att jobba i mjukvara som ett annat system jobbar i hårdvara.
Precis. Systemet man emulerar och systemet man kör på har skillnader som behöver hanteras av mjukvara. Denna hantering tar alltid extra tid, men hur mycket extra tid det tar beror på hur stora skillnaderna är och hur effektiv/sofistikerad emulatorn är. Det är mycket enklare att skriva en emulator om man inte behöver bekymra sig om prestanda.
Citat:
Ursprungligen postat av
Men-vinkeljarn
Är det generellt så att vissa saker aldrig går att "komma ikapp" så även världens snabbaste framtida dator kommer droppa frames för att man låser in sig i att emulera hårdvaran på ett sånt sätt att det alltid tar längre tid på det nya systemet?
Prestandaproblem kan alltid lösas av en snabbare dator i teorin, men om utvecklingen mot snabbare datorer stannar av tillräckligt skulle man väl kunna tänka sig en situation där framtidens snabbaste datorer är otillräckliga för att emulera framtidens lite långsammare datorer.
En annan aspekt förutom ren prestanda är att I/O-enheterna måste vara tillräckligt kapabla. En C64 med CRT-skärm kan direktstyra vad som visas just där elektronstrålen befinner sig med en precision och latency som kan mätas i mikrosekunder. Med modern grafikhårdvara har man oftast inte sådan precis kontroll i realtid, vilket omöjliggör perfekt emulering, åtminstone m.a.p. latency.