• 1
  • 2
2019-10-24, 14:52
  #13
Medlem
nerdnerds avatar
Varför dubbelexpontiellt? Därför att varje extra qbit dubblar en kvabtdators kapacitet, eftersom den ju dubblar antalet tillstånd som kvantdatorn kan räkna med samtidigt, parat med den vanliga Moores lag om en expontiell utveckling på antalet (q-)bits. Dvs kapaciteten går som
2^(Antalet qbits) = 2^(2^(t/T))
där t är tiden som går, och T är den tid det tar för en dubbling av antalet qbits.

Bu eller bä? Detta är iaf förklaringen bakom Nevens lag.
Citera
2019-10-24, 18:11
  #14
Medlem
protectors avatar
Nån som kan förklara vad kvantdatorn gjort, vilket problem är det som tar 10 000 år för en vanlig superdator att lösa
Citera
2019-10-24, 20:18
  #15
Medlem
Citat:
Ursprungligen postat av nerdnerd
Enligt Nevens lag växer kvantdatorers kapacitet dubbelexponentiellt, vilket är... snabbt.
https://www.quantamagazine.org/does-...rise-20190618/
Från din länk:
Citat:
If classical computers require exponentially more computational power to simulate quantum processors, and those quantum processors are growing exponentially more powerful with time, you end up with this doubly exponential relationship between quantum and classical machines.
Det känns som lite fusk eftersom konventionella datorer normalt inte ägnar sig åt att simulera kvantdatorer. En mer relevant fråga är hur de står sig gentemot kvantdatorer i att lösa praktiska problem.

Citat:
Ursprungligen postat av WbZV
Av ungefär samma skäl skulle en kvantdator behöva studera något annat än kvantmekaniska kretsar för att bevisa kvantdatorns överlägsenhet.
Att använda en kvantdator för att simulera kvantmekaniska fenomen kan faktiskt vara användbart. Det är mycket enklare i en simulering att variera parametrar och att få ut exakt den information man vill snarare än den man har mätteknik för. Säg att du vill göra artificiell fotosyntes och har en massa molekyler som i teorin skulle kunna vara användbara. Istället för att hitta på sätt att syntetisera dem alla kan man räkna på dem först och bara syntetisera de mest lovande.
Citera
2019-10-24, 21:02
  #16
Medlem
Citat:
Ursprungligen postat av protector
Nån som kan förklara vad kvantdatorn gjort, vilket problem är det som tar 10 000 år för en vanlig superdator att lösa
Förstår jag artikeln rätt så går experimentet till ungefär på följande vis:
1. Man preparerar 53 qubitar så att de hamnar i ett partiellt superpositionstillstånd. Hade alla qubitarna hamnat i superposition så hade de representerat samtliga 53-bitars tal, men eftersom man i praktiken bara kommer få en del av qubitarna i superposition så representerar de en slumpmässig delmängd av de möjliga 53-bitars talen.
2. När man läser av qubitarnas värde kollapsar vågfunktionen så att man får ut ett slumpmässigt distinkt tal av de som var representerade.
3. Man för över det avlästa värdet till en vanlig dator och upprepar sedan experimentet ett antal iterationer.

De 53 qubitarna sitter monterade i en tvådimensionell matris där intilliggande qubitar är sammankopplade med grindar. Genom att qubitarna är olika hårt sammankopplade så kommer inte alla bitmönster vara lika sannolika i den genererade utdatan. Exakt hur sannolikheten ser ut antas vara svårt att beräkna på en klassisk dator. Hypotesen är att man skulle behöva simulera den kvantmekaniska datorn för att lyckas, vilket enligt deras egen uppgift skulle ta 10000 år att genomföra. Däremot kan man göra det ganska enkelt genom att låta en vanlig dator analysera vad som faktiskt kom ut ur kvantdatorn när man läste av qubitarna. Därmed är kvantdatorn nödvändig för att kunna utföra experimentet, vilket skulle bevisas.
Citera
  • 1
  • 2

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback