Citat:
Ursprungligen postat av
JagHarIngaKompisar
1 + 1 = 2 går bra att räkna ut exakt, likaså andragradsekvationer och enklare differentialekvationer. Men så småningom stöter man vid vissa punkter på inexaktheter/oändligheten. Det går t.ex. inte att uttrycka den primitiva funktionen för en logaritm, men man kan räkna ut det noggrannare och noggrannare tills man är hyfsat nöjd. Som för talet pi.
Vi lever i en analog verklighet, så att saker som 1 + 1 = 2 fungerar är ett under. Vi kanske har börjat i fel ände, och hela matematiken behöver skrivas om? När det gäller datorer, radio och TV, krävs det en hel del kunskap om det analoga innan man kan börja försöka emulera det digitalt.
Naturen / verkligheten är som du mycket riktigt skriver analog.
Det hindrar oss inte från att digitalisera när vi behandlar verkliga fenomen i digitala datorer och i digitala kretsar. För att de digitala lösningarna är praktiska, tillräckligt snabba och billiga.
Som du skriver man måste förstå naturen och naturlagarna för att kunna åstadkomma något vettigt inom teknik och vetenskap.
Anledningen är att analogimaskiner (som idag nästan helt har trängts undan av digitala lösningar) är instabila och har en del tekniska egenskaper som är besvärliga att hantera. Det hindrar inte att gamla analogimaskiner kan både imponera med stabilitet och livslängd och vara blixtrande snabba (jag tänker på regulatorer och en del gamla servolösningar).
Till din trådstart: När tar det exakta slut?
För såväl analoga som digitala lösningar tar det exakata slut när vi inte längre tillförlitligt kan bryta ner en storhet i mindre delar. Det kan finnas en mängd sådana lägen, dels rena matematiska och/eller naturliga omöjligheter (ex negativt kast, tal som är 0 eller oändligt stora, osv) i praktiska applikationer är det ofta någon form av brus eller distortion som sätter gränserna för vad som definieras som "exakt".