En del beräkningar kräver beviserligen kvantdatorer för att att få en polynomial tidskomplexitet (såvida inte NP=P).
Använder vi oss av klassiska beräkningar och metoder, dvs hjärnan och/eller klassiska datorer så är det ickepolynomiala tidskomplexiteter som gäller.
Vad i det klassiska till skillnad från kvantdatorer är det som oftast sätter undre begränsningar i tidskomplexiteten? Hemligheten bakom kvantdatorer är dess superpositioner, så i någon mening gör dem "flera saker samtidigt". För många problem sänker det kompexliteten en kategori. Jag kan inte tillräckligt om kvantdatorer för att säga så mycket mer än så, men tråden handlar inte om kvantdatorer.
Min fråga är, oavsett om kvantdatorer hade existerat eller inte: är det det sekventiella i klassiska beräkningar som begränsar tidskomplexiteten till en undre gräns? Är en del kombinatoriska problem exponetiella för att vissa problem beräkningsmässigt måste ha tidigare steg uträttade innan följande steg kan utföras och att det i den motsvarande klassiska fysiken (räkneramar, microchip, räkna på fingrarna, var så kreativ du vill) inte finns några genvägar?
Beräkningsmässigt så måste vi med klassiska datorer dela upp problemlösning i flera förutsägbara steg, en algoritm. Dessa algoritmer även om de kan vara parallella till en begränsad konstant jobbar sekventiellt även om vi uttrycker dem abstrakt.
När vi har abstrakta idéer så måste vi ändå konkretisera dem när vi beräknar dem.
Det finns idag t.ex. inga abstrakta lösningsmetoder för SAT-solving t.ex där man på ett abstrakt plan kan slutleda sig till lösningen (snabby och för stora problem alltså). Kan det bero på fundamentala fysiska begränsning ur ett klassiskt perspektiv, vilket även gäller hjärnkraft, som kräver superposition och kvantdatorer och liknande för att få ner komplexiteten?
Använder vi oss av klassiska beräkningar och metoder, dvs hjärnan och/eller klassiska datorer så är det ickepolynomiala tidskomplexiteter som gäller.
Vad i det klassiska till skillnad från kvantdatorer är det som oftast sätter undre begränsningar i tidskomplexiteten? Hemligheten bakom kvantdatorer är dess superpositioner, så i någon mening gör dem "flera saker samtidigt". För många problem sänker det kompexliteten en kategori. Jag kan inte tillräckligt om kvantdatorer för att säga så mycket mer än så, men tråden handlar inte om kvantdatorer.
Min fråga är, oavsett om kvantdatorer hade existerat eller inte: är det det sekventiella i klassiska beräkningar som begränsar tidskomplexiteten till en undre gräns? Är en del kombinatoriska problem exponetiella för att vissa problem beräkningsmässigt måste ha tidigare steg uträttade innan följande steg kan utföras och att det i den motsvarande klassiska fysiken (räkneramar, microchip, räkna på fingrarna, var så kreativ du vill) inte finns några genvägar?
Beräkningsmässigt så måste vi med klassiska datorer dela upp problemlösning i flera förutsägbara steg, en algoritm. Dessa algoritmer även om de kan vara parallella till en begränsad konstant jobbar sekventiellt även om vi uttrycker dem abstrakt.
När vi har abstrakta idéer så måste vi ändå konkretisera dem när vi beräknar dem.
Det finns idag t.ex. inga abstrakta lösningsmetoder för SAT-solving t.ex där man på ett abstrakt plan kan slutleda sig till lösningen (snabby och för stora problem alltså). Kan det bero på fundamentala fysiska begränsning ur ett klassiskt perspektiv, vilket även gäller hjärnkraft, som kräver superposition och kvantdatorer och liknande för att få ner komplexiteten?