Nytt påstående från Google att de byggt världens första fungerande kvantdator:
https://www.nature.com/articles/s41586-019-1666-5
Den nya kvantdatorn skall ha 53 fungerande qubitar, vilket är något färre än de 512 qubitar som Google hävdade i en snarlik artikel för några år sedan. Deras förra kvantdator sågades längs fotknölarna vid en oberoende granskning och redan nu mullras det från konkurrenten IBM att inte heller Googles nya dator är vatten värd:
https://www.wired.com/story/ibm-goog...-quantum-flop/
Problemet med bevisvärderingen är att påstådda kvantdatorer tillverkade av privata företag är hemliga konstruktioner som innehåller minst lika mycket klassisk elektronik som en vanlig dator. Det är alltså inte möjligt för utomstående granskare att reproducera de påstådda resultaten och bekräfta att datorn verkligen fungerar som en kvantdator. Man förväntas därför bevisa funktionen genom att lösa problem som en vanlig dator av princip inte kan lösa. I den aktuella artikeln hävdar Google att man lyckats konstruera ett problem som deras påstådda kvantdator kan lösa på 200 sekunder, medan en klassisk superdator skulle behöva 10000 år för att lösa samma problem. Stämmer påståendet så indikerar det således att den nya datorn använder något mer än klassiska algoritmer för att lösa problemet. Nästan som ett brev på posten så hävdar IBM att det alls inte tar 10000 år att lösa problemet på en klassisk dator, vilket om det stämmer gör att påstående om "quantum supremacy" faller platt till marken.
Själv blir jag aningen fundersam över artikelns beskrivning av det lösta problemet:
To demonstrate quantum supremacy, we compare our quantum processor against state-of-the-art classical computers in the task of sampling the output of a pseudo-random quantum circuit. ...
Vad är det egentligen för problem man försöker lösa? Att analysera hur kvantkretsar uppför sig? Varför skulle man skulle man alls vilja göra det med vanliga datorer? Varför analyserar man inte ett färdigt dataset när det redan finns mängder av publicerade slumptalsserier?
https://www.nature.com/articles/s41586-019-1666-5
Den nya kvantdatorn skall ha 53 fungerande qubitar, vilket är något färre än de 512 qubitar som Google hävdade i en snarlik artikel för några år sedan. Deras förra kvantdator sågades längs fotknölarna vid en oberoende granskning och redan nu mullras det från konkurrenten IBM att inte heller Googles nya dator är vatten värd:
https://www.wired.com/story/ibm-goog...-quantum-flop/
Problemet med bevisvärderingen är att påstådda kvantdatorer tillverkade av privata företag är hemliga konstruktioner som innehåller minst lika mycket klassisk elektronik som en vanlig dator. Det är alltså inte möjligt för utomstående granskare att reproducera de påstådda resultaten och bekräfta att datorn verkligen fungerar som en kvantdator. Man förväntas därför bevisa funktionen genom att lösa problem som en vanlig dator av princip inte kan lösa. I den aktuella artikeln hävdar Google att man lyckats konstruera ett problem som deras påstådda kvantdator kan lösa på 200 sekunder, medan en klassisk superdator skulle behöva 10000 år för att lösa samma problem. Stämmer påståendet så indikerar det således att den nya datorn använder något mer än klassiska algoritmer för att lösa problemet. Nästan som ett brev på posten så hävdar IBM att det alls inte tar 10000 år att lösa problemet på en klassisk dator, vilket om det stämmer gör att påstående om "quantum supremacy" faller platt till marken.
Själv blir jag aningen fundersam över artikelns beskrivning av det lösta problemet:
To demonstrate quantum supremacy, we compare our quantum processor against state-of-the-art classical computers in the task of sampling the output of a pseudo-random quantum circuit. ...
Vad är det egentligen för problem man försöker lösa? Att analysera hur kvantkretsar uppför sig? Varför skulle man skulle man alls vilja göra det med vanliga datorer? Varför analyserar man inte ett färdigt dataset när det redan finns mängder av publicerade slumptalsserier?