Citat:
Ursprungligen postat av stuva
Tänker detsamma blir dom mindre på månen ? Om vi såg en stjärna ibland förstod jag ideen, men nu ser vi massor med avlägsna stjärnor och då köper jag inte förklaringen med störningar i atmosfären.
Ursäkta att svaret dröjde. Det mänskliga ögat har en upplösningsförmåga omkring en bågsekund, dvs 1/3600 grad. Det är detta som din bok menar med "ett brytningsfel i linsen". Ögon är inte perfekta. De kan bara urskilja två föremål om de ligger åtminstone 1 bågsekund från varandra.
Atmosfären ger oftast en "seeing" (maximal upplösning som atmosfären tillåter) i ungefär samma storleksordning (kanske 0.2 bågsekunder som allra bäst uppe på bergstoppar vid klart väder, upp till kanske 5-10 bågsekunder vid mycket förändringar i atmostfären - när stjärnorna "blinkar" som mest). Vid vad vi skulle uppfatta som normala förhållanden kanske seeing ligger runt 1-5 bågsekunder.
Eftersom ditt öga och atmosfären ger ungefär samma begränsningar kommer du inte att se stjärnorna särskilt mycket skarpare från rymden (fast de kommer garanterat inte att blinka), men det skulle gå att bygga en kamera som kan fota skarpare bilder än vad du kan se. Hubble Space Telescope är ett sådant exempel, tror dess upplösning ligger på runt 0.05 bågsekunder. Då skulle de allra flesta stjärnor fylla en enda pixel (bildpunkt).
Låt kameran på Hubbleteleskopet fota en viss del av himlen, som vi kan dela in i ett fint rutnät där rutorna är 0.05*0.05 bågsekunder, dvs en ruta för varje pixel i kameran. Om en avlägsen stjärna (som kanske är 0.0001 bågsekund stor) finns i fältet som fotograferas, så kommer ljuset från den att träffa en av pixlarna i kameran (ljuset kan ju inte bara försvinna). På fotot kommer det då att se ut som att stjärnan är en kvadrat 0.05*0.05 bågsekunder stor - en punkt, helt enkelt.
Säg till om något är oklart.