Citat:
Ursprungligen postat av Da
Låt A_n vara det största tal som kan skrivas ut av ett datorprogram av längd n som inte kör i all oändlighet (terminerande) (säg tex. C-kod, men skall vi vara strikta så kan vi använda en Turing-maskin).
Det finns ett ändligt antal program av längd n och eftersom vi har kravet att de skall terminera så är A_n väldefinerat.
Sekvensen <A_n | n=1,2,3,...> växer mycket, mycket fort. Det dröjer inte länge innan den blir större än Grahams tal, som har en ganska enkel definition. I själva verket växer sekvensen snabbare än alla sekvenser som kan beräknas med en algoritm.
Låt nu g vara Grahams tal och betrakta A_g.
Det hjälper mig inte att visualisera G =)