Citat:
Ursprungligen postat av
yidaki
Tjonixen.
Entropi är ett koncept som handlar om att saker och ting går mot mer och mer kaos,
saker och ting förstörs/delas upp i sina grundkomponenter
och blandas omkring till en enda stor röra.
Människor använder sig av svedjebränning,
och gör plast av råolja.
Universum breder ut sig,
gaser blandas, stjärnor äter upp planeter,
stjärnor blir svarta hål som slukar allt.
Det är iaf den premissen jag går efter,
jag som tror att människor kan välja.
Men hur är det för en determinist?
Hur resonerar en determinist kring entropi-begreppet?
Finns det överhuvudtaget?
Eller resonerar man in det under determinismen på något sätt?
Entropibegreppet uppfanns innan kvantfysik, på den tid då man trodde att Newtons deterministiska fysik även gällde för materians minsta beståndsdelar. Till att börja med som ett begrepp i termodynamik, dvs tillsammans med storheter som temperatur och tryck och densitet osv, men sen lyckades man även att koppla detta till klassisk (dvs inte kvant) mekanik, där allt detta då definieras som statistiska storheter, dvs som olika sorters medelvärden.
Varför räkna med olika sorters medelvärden om man faktiskt kan räkna exakt på varje molekyl? (Hypotetisk fråga, iaf enl indeterministiska tolkningar av kvantfysik kan vi inte räkna exakt ens på bara en enda molekyl.) Svar: därför att antalet molekyler i t ex 1 kg luft är vad vi experter kallar för JÄVLIGT MÅNGA. Redan med bara 1 kg luft är det fler molekyler att hålla reda på än det finns digital minneskapacitet för i hela världen.
TL;DR
Entropi fungerar alldeles utmärkt som ett statistiskt mått även i deterministisk fysik.