Citat:
Ursprungligen postat av 503
Så pass.
Då tar jag tillbaka det jag sa. Jag satt nog på föråldrad information.
Edit: När jag beaktar min egen utbildning så är jag i gengäld inte förvånad att även den tekniska aspekten var skitsnack från lärarnas håll.
Nu har man lärt sig någonting nytt i alla fall.
Ja, det där är tyvärr en seglivad myt.
Det har sitt ursprung i att de första skärmarna på de första datorerna som användes i grafiska branschen (Macintosh, originalversionen) hade 72 pixlar per tum som upplösning. Det var för att matcha så att en tryckpunkt skulle motsvara en pixel på skärmen. (Det går ungefär 72 tryckpunkter på en tum, eller om man uttrycker det på ett annat sätt, text i storleken 72 punkter skall mäta ungefär en tum i höjd när man skriver ut). Genom att göra så så kunde man får mer av "wysiwyg" på skärmen jämfört med tryck.
Sedan dess har i princip ingen skärm haft 72 pixlar per tum, utan alla har mer än så, och alla har dessutom olika upplösning. Det är en djungel där ute just nu, och nya "retina"-skärmar är på väg, med nära 300ppi i upplösning (används redan på iPhone).
Det finns alltså ingenting som motsvarar 72ppi idag, så man skall aldrig bry sig om det måttet över huvud taget.
OnT: För att svara på TS fråga:
Jag brukar prova med en bild först, scanna in i olika upplösningar, och när jag börjar se kornen från filmen eller papperskopiorna så är det ingen idé att öka upplösningen längre. Det är då max vad originalen har i informationsväg. Då behöver man inte vara rädd att förlora någon information från originalen.
Har man då väldigt högkvalitativa original (kanske storbildsdia) så kan det dock bli lite väl stora filer, så det är alltid en avvägningsfråga.