Citat:
Eh va? Det där får du nog formulera om. 4k och 5k definieras just av de olika upplösningarna.
Kan inte du länka till något som försöker förklara din ståndpunkt i stället?
Du fortsätter påstå saker som inte stämmer om vad jag tycker. Varför gör du det?
Jag säger inte att skalning innebär katastrof. Jag säger att vissa påstår sig störas av problemen med skalning medans andra, t ex du säger att det i praktiken inte spelar någon som helst roll.
Själv tänker jag att det kanske inte är värt pengarna att gå från 1440 till 4k. Jag skulle gärna vilja jämföra i veligheten.
Jag säger även att i det skalade läge vi pratar om ritar MacOS på en 5k buffer som sedan med GPUn skalas ner till formatet för 4k innan bilden skickas till skärmen.
Windows skalar gui-komponenterna till en storlek vald i inställningarna och låter program rita på en buffer som stämmer med vald upplösning, som i normala fall är en som skärmen klarar.
Är det fel får du gärna länka till något som berättar att Windows skalar på samma sätt som macOS (vilket du har sagt). Dvs arbetar med en buffer som är större än skärmens faktiska upplösning, men som skalas ner till skärmens faktiska upplösning.
Och sen förklara gärna varför Apple varnar när man väljer en vad de kallar ”skalad upplösning” men inte annars.
Kan inte du länka till något som försöker förklara din ståndpunkt i stället?
Du fortsätter påstå saker som inte stämmer om vad jag tycker. Varför gör du det?
Jag säger inte att skalning innebär katastrof. Jag säger att vissa påstår sig störas av problemen med skalning medans andra, t ex du säger att det i praktiken inte spelar någon som helst roll.
Själv tänker jag att det kanske inte är värt pengarna att gå från 1440 till 4k. Jag skulle gärna vilja jämföra i veligheten.
Jag säger även att i det skalade läge vi pratar om ritar MacOS på en 5k buffer som sedan med GPUn skalas ner till formatet för 4k innan bilden skickas till skärmen.
Windows skalar gui-komponenterna till en storlek vald i inställningarna och låter program rita på en buffer som stämmer med vald upplösning, som i normala fall är en som skärmen klarar.
Är det fel får du gärna länka till något som berättar att Windows skalar på samma sätt som macOS (vilket du har sagt). Dvs arbetar med en buffer som är större än skärmens faktiska upplösning, men som skalas ner till skärmens faktiska upplösning.
Och sen förklara gärna varför Apple varnar när man väljer en vad de kallar ”skalad upplösning” men inte annars.
Vad spelar det för roll vad du ”tycker stämmer”?
Du saknar ju uppenbarligen grundläggande kunskap om grafik överhuvudtaget, jag förklarar en sista gång nu sen ger jag fan i svara dig för detta börjar bli väldigt jävla tröttsamt.
1. Grafik-chippet skiter fullständigt i vad det är för enhet som sitter på andra sidan HDMI/USB-C/DisplayPort anslutningen (det gäller samtliga system) den bryr sig om vad den blir efterfrågad att mata ut för signal.
2. macOS matar ALLTID ut en signal i den upplösning som skärmen säger sig vara.
3. Om systemet identifierar en retina upplösning så gör den alltid 4:1 supersampling
4. Kopplar du in en 4k skärm så rapporterar den sig som 3840x2160, systemet identifierar detta som HiDPI/Retina och renderar till en 3840x2160 buffer som sedan skalas ner till 1920x1080 för att sedan skala upp den igen till att matcha signalen dvs 3840x2160.
5. Kopplar du in en 5k skärm så rapporterar den sig som 5120×2880, samma som ovan fast 2560x1440 och sedan tillbaka till 5120x2800.
6. Ändrar du skalningen på 4k skärmen tex så du väljer ”ser ut som 1440p” så sker exakt samma sak som i 5 förutom att ”tillbaka till 5120x2800 blir tillbaka till 3840x2160”, det är effektivt ingen skillnad- men du hakar upp dig på skalningsmismatchen men ”uppskalningen” är att rita en texturmappad quad i ortographiskt perspektiv.
7. Eventuell prestanda skillnad ligger i att en högre upplösning innebär mer data som behöver skyfflas, det har ingen som helst betydelse om du har en skärm som fysiskt kan visa 8k, 5k eller 4k, kostnaden ligger i pixelmängden oavsett den är fysisk eller ”virtuell”.
8. Den sista skalningen är i stort sett gratis, allt jobb med HiDPI behöver göras oavsett man gör denna. Det enda scenario som är något billigare är att köra i nativ upplösning men då har du ingen retina rendering eller uppskalning alls, dvs 4k på en 4k monitor, 5k på en 5k monitor eller 8k på en 8k monitor.