Quantum Excellence: wszystko o komputerach kwantowych

Stoisko Intela na konferencji CES Consumer Electronics Conference w Las Vegas na początku tego roku, jak zwykle, było pełne dziennikarzy i blogerów technicznych. Nowe produkty największego producenta mikroczipów są zawsze potencjalnie interesujące, chociaż w ostatnich latach te aktualizacje - nieco więcej rdzeni, trochę mniejsze zużycie energii - coraz mniej przyciągają uwagę opinii publicznej. Jednak tym razem gigant technologiczny naprawdę miał się czym pochwalić: odwiedzającym pokazano procesor kwantowy Tangle Lake, który - choć teoretycznie i tylko w niektórych zadaniach - może robić to, na co dotychczas stać było tylko najlepsze superkomputery.

Tangle Lake, ani pod względem wielkości, ani kształtu, zbytnio wyróżnia się na tle zwykłych produktów Intela. Ale zasady, na których pracuje, są dalekie od tych, na których zbudowana jest tradycyjna elektronika. Zamiast miliardów tranzystorów nowy układ ma tylko 49 elementów. I to nie są półprzewodnikowe przełączniki prądu, ale kubity („bity kwantowe”), komórki elementarne zdolne do pracy z informacją kwantową. W tym przypadku są to małe nadprzewodzące anteny.

Nie jest to jedyna opcja uzyskania kubitów dla komputera kwantowego, ale w tym przypadku ich liczba jest ważniejsza. 49 nie jest zapisem: jeszcze przed prezentacją Tangle Lake IBM rozmawiał o pracy na komputerze kwantowym o 50 kubitach, a grupa kierowana przez fizyka z Harvardu Michaiła Lukina stworzyła eksperymentalny komputer o 51 kubitach. Łatwo zauważyć, że wszystkie te projekty są zbudowane wokół liczby pięćdziesięciu kubitów: to na nim zwykle ustawia się pręt, po którym możemy spodziewać się początku „wyższości kwantowej”.

Zaleta niepewności

Richard Feynman zaproponował w 1981 r. Stosowanie nie zwykłych komputerów, ale innych układów kwantowych, które mogłyby odgrywać rolę uproszczonego modelu, do obliczania zachowania układów kwantowych. Szczerze mówiąc, warto dodać, że pomysł był najwyraźniej w powietrzu: prawie rok wcześniej został wyrażony przez radzieckiego matematyka Jurija Manina. W rzeczywistości trudność, jaką napotykają zwykłe komputery w modelowaniu takich układów, tkwi w ich kwantowej naturze, w fatalnej niepewności parametrów oddziałujących cząstek.

Trzy rodzaje komputerów kwantowych. 1. Urządzenie do wyżarzania kwantowego

Najmniej uniwersalna forma komputera kwantowego. Jest najłatwiejszy do zbudowania, ale może wykonywać tylko bardzo ograniczony zakres zadań związanych z optymalizacją. Wielu ekspertów wątpi, że takie urządzenie może mieć jakąkolwiek przewagę nad tradycyjnym komputerem. Zastosowanie: zadania optymalizacyjne Wszechstronność: ograniczona. Moc obliczeniowa: nie przekracza tradycyjnych

Załóżmy, że musimy obliczyć zachowanie atomu, jeśli skierujemy na niego foton; w tym celu musimy znaleźć polaryzację fotonu. Jedynym sposobem na to jest wykonanie pomiarów, a wcześniej polaryzacja pozostanie niepewna: fizycy mówią o superpozycji, narzuceniu możliwych wartości. Do obliczeń wszystkie opcje należy rozpatrywać osobno, aw naszym przykładzie zajmie to dwa razy więcej czasu, niż gdyby znane były niezbędne parametry polaryzacji. Co więcej, warto zacząć dodawać inne elementy do systemu (kilka atomów, kilka fotonów), a niepewności trzeba będzie pomnożyć, a złożoność obliczeń wzrośnie wykładniczo.

Ideą komputera kwantowego było przekształcenie wady w cnotę: do obliczeń należy używać bardzo niepewności, co komplikuje zwykłe obliczenia. Wyobraź sobie, że musisz wybrać hasło, którego ostatnie dwa bity są nieznane. Możliwe są tutaj cztery kombinacje: 00, 01, 10 i 11. W klasycznym przypadku każdą z nich należy rozpatrywać osobno: zamień ją we właściwym miejscu i sprawdź wynik. Jeśli jednak obiekt kwantowy - na przykład dwa kubity z superpozycją polaryzacji - stanie się nośnikiem informacji, wówczas wszystkie cztery kombinacje można sprawdzić jednocześnie.

2. Analogowy komputer kwantowy Umożliwia symulację złożonych interakcji kwantowych, które nie są dostępne do modelowania na żadnych tradycyjnych komputerach. Uważa się, że analogowy komputer kwantowy będzie zawierał od 50 do 100 kubitów. Zastosowanie: chemia kwantowa, opracowywanie nowych materiałów, problemy optymalizacyjne, pobieranie próbek, dynamika kwantowa. Uniwersalność: częściowa. Moc obliczeniowa: wysoka

Jeśli istnieje poprawna kombinacja możliwych stanów kubitowych, nie ma wątpliwości, że również ją zaakceptują. Najważniejsze jest zorganizowanie interakcji między nimi, abyśmy mogli przeczytać i zrozumieć wynikową odpowiedź. Moc komputerów kwantowych polega właśnie na wykładniczo rosnącej liczbie operacji, które można wykonać w jednym kroku. System dwóch kubitów pozwala na jednoczesne rozważenie czterech opcji rozwoju zdarzeń, system czterech - 16. Po 50, jak pamiętamy, pojawia się „wyższość kwantowa” i nie ma już wystarczającej liczby atomów do liczby kombinacji wszystkich możliwych stanów komputera kwantowego o 300 kubitach we wszechświecie.

Aby wziąć ten pasek, potrzebujemy fizycznych nośników kubitów. Rolę tę mogą odgrywać pojedyncze atomy, które mogą znajdować się w różnych stanach energetycznych, lub wady struktury krystalicznej („wolne miejsca”), które przenoszą spin w różnych kierunkach, a nawet stosunkowo duże obiekty - takie jak anteny nadprzewodzące, na których zbudowane jest Jezioro Tangle. Trudno powiedzieć, która opcja stanie się standardem w przyszłości. Tak było kiedyś z lampą elektryczną: fizyka jest zrozumiała, ale zaproponowano całą masę rozwiązań technicznych. Jedynie doświadczenie aplikacji pokaże zalety, wady i perspektywy różnych systemów.

3. Uniwersalny komputer kwantowy Najpotężniejsza i najbardziej elastyczna wersja komputera kwantowego pod względem problemów obliczeniowych. Opracowanie takiego urządzenia wiąże się z dużą liczbą trudności technicznych. Według obecnych szacunków jego skład powinien mieć co najmniej 100 000 fizycznych kubitów. Zastosowanie: bezpieczne obliczenia, uczenie maszynowe, kryptografia, chemia kwantowa, opracowywanie nowych materiałów, problemy z optymalizacją, próbkowanie, dynamika kwantowa, wyszukiwanie. Uniwersalność: pełna, z przyspieszeniem w stosunku do tradycyjnych komputerów. Moc obliczeniowa: wyjątkowo wysoka

Minimalny zestaw

Jednak, aby stworzyć prawdziwy komputer kwantowy, potrzebujesz nie tylko zestawu kubitów, ale także kanałów ich interakcji. W konwencjonalnym komputerze rolę odgrywają druty i styki elektryczne, aw komputerze kwantowym efekt splątania. Splątane cząstki mają wspólne parametry kwantowe: można je fizycznie oddzielić, ale ich zachowanie pozostanie związane niezależnie od odległości. Kubity w komputerze kwantowym nie są zbyt daleko, ale to właśnie zawiłości wiążą je w jeden, spójnie reagujący system.

Ponadto nowy komputer musi zapisywać i odczytywać informacje. Zasadniczo jest to najprostsze: do wejścia-wyjścia można użyć promieniowania, takiego jak laser lub mikrofalówka, skupionego na poszczególnych kubitach, co pozwala „pisać” i „czytać” ich stan. Technicznie jest to dość delikatna praca, która wymaga drogiego sprzętu, ale fizycy byli w stanie to zrobić od dłuższego czasu. Znacznie trudniej jest spełnić ostatni wymóg: możliwie najbardziej niezawodnie izolować kubity od świata zewnętrznego, aby utrzymać ich uwikłanie przez czas wystarczający do obliczeń i wymiany danych.


Googlelecone Google

Najnowszy rozwój grupy John Martinis w jednostce badawczej korporacji poszukiwawczej pokazuje przykład nowego podejścia do problemu korekcji błędów, tak ważnego dla obliczeń kwantowych. Kubity są rozmieszczone naprzemiennie na mikroczipie, dzięki czemu „białe” są używane do operacji logicznych, a „czarne” służą do kontrolowania błędów.

Sam kot Schrodinger może powiedzieć, jak trudno jest zachować kwantową naturę dużego i złożonego układu. Idea tego eksperymentu myślowego jest powszechnie znana: zwierzę umieszczone w pudełku jest zarówno żywe, jak i martwe, ponieważ jego los zależy od niepewnego stanu pewnej cząsteczki. Przed otwarciem pudełka (pomiar) parametry cząstki znajdują się w superpozycji dwóch stanów, a wraz z nimi kot znajduje się w superpozycji. Zwykle ten eksperyment jest cytowany jako przykład paradoksalnej natury świata kwantowego, ale jeśli się nad tym zastanowić, mówi on także o czymś innym.

Jednocześnie żywe i martwe koty nie zdarzają się tylko dlatego, że kot jest obiektem makroskopowym. Składa się z wielu cząstek, które cały czas starają się wejść w interakcję ze środowiskiem zewnętrznym i „zapaść się”, tracąc niepewność i przechodząc w jeden z możliwych stanów. Podobnie jest z komputerem: im więcej kubitów, tym mocniejszy może być, ale jednocześnie coraz bardziej przypomina kota Schrödingera, któremu trudno jest utrzymać swój stan kwantowy. Dlatego kubity są koniecznie umieszczane w komorach próżniowych, tworzą sprytne schematy chłodzenia i opracowują zaawansowane metody korekcji błędów.


Plątanina jeziora intel

Oprócz liczby kubitów i zastosowania anten nadprzewodzących ze skrzyżowaniami Josephsona jako podstawy urządzenia, o Tangle Lake nie wiadomo nic konkretnego.

Punkt zapalny

Teraz, gdy jest całkiem jasne, co tak naprawdę oznacza kalkulator kwantowy i jakie może mieć zalety, jasne jest, że technologie kwantowe nie zastąpią dobrego dobrego krzemu ani jutro, ani w odległej przyszłości. Nie oznacza to jednak wcale, że całe mówienie o „wyższości kwantowej” to kolejna kaczka. Tak, dzisiaj jest tylko kilka zadań obliczeniowych, które komputery kwantowe mogą przyspieszyć. Ale to przyspieszenie nie jest 10 lub 100 razy, ale znacznie więcej - im trudniejsze zadanie, tym bardziej zauważalne.


50Q IBM

IBM wprowadził komputer kwantowy 50-kubitów w listopadzie 2017 r., Ale niewiele o nim wiadomo. W szczególności twierdzi się, że jego czas koherencji (podczas którego można przeprowadzić obliczenia) osiągnął rekordowy 90 mikrosekund dla systemu.

Rozwiązanie wielu takich problemów jest już wymagane w praktyce. Na przykład algorytm Shore pozwala na hakowanie najnowocześniejszych szyfrów w kilka sekund, a algorytm Love Grover zasadniczo zmniejsza złożoność wyszukiwania w dużych ilościach danych. Nie powinniśmy zapominać o obliczeniach kwantowych, o których pierwotnie mówili Feynman i Manin. Według statystyk zajmują one dziś do 30–40% zasobów obliczeniowych wszystkich superkomputerów. I najwyraźniej jest to obszar, który jako pierwszy odczuje „pchnięcie kwantowe” wynikające z tworzenia nowych maszyn. A to będzie oznaczać nowe materiały, nowe leki, nowe zrozumienie nadprzewodnictwa.


Rigetti Computing 19Q

Główną cechą 19-kubitowego układu scalonego jest jego specjalizacja w uczeniu maszynowym. System został zaprojektowany do rozwiązywania problemów związanych z grupowaniem danych, na przykład podczas rozpoznawania obrazów.

Nie ma wątpliwości, że takich przykładów będzie więcej: zakres praktycznych zastosowań każdego komputera staje się jasny dopiero po pojawieniu się odpowiednich algorytmów, które jeszcze nie zostały opracowane. Ich stworzenie jest tak młodym obszarem, że według jednego z badaczy „można napisać na jednej tablicy nazwiska każdego, kto się nim zajmuje na świecie”. Specjalistów bardzo brakuje, zwłaszcza teraz, gdy w wyścigu kwantowym biorą udział giganci IT, gotowi zwabić pracowników całymi laboratoriami.


2000 D-Wave

2000Q zawiera 2048 kubitów, co formalnie czyni go najbardziej złożonym układem kwantowym na świecie. Jednak architektura D-Wave znacznie różni się od innych urządzeń i nadaje się do rozwiązywania tylko bardzo wąskich zadań. Wielu ekspertów wątpi, że podejście D-Wave może przynieść praktyczne korzyści z zastosowania efektów kwantowych.

Nadejścia ery „wyższości kwantowej” nie można porównać z wydaniem pierwszego komputera osobistego lub rewolucji mobilnej. Zwykli konsumenci nie odczują żadnych zasadniczych zmian przez co najmniej kilka kolejnych lat. Ale jeśli mówimy o branży, to już się zmieniła. Duże zainteresowanie kryptografią postkwantową, tworzeniem przez gigantów takich jak IBM i Microsoft, platformami do opracowywania algorytmów kwantowych, miliardów dolarów inwestycji - historia rewolucji kwantowej jest już pisana.

Oś czasu

Do 1990 r .: rozwój mechaniki kwantowej, prace teoretyczne

1927 r

Werner Heisenberg formułuje zasadę niepewności.

1981

W wykładzie „Modelowanie fizyki na komputerach” Richard Feynman formułuje podstawy obliczeń kwantowych.

1985

David Deutsch opisuje uniwersalny kwantowy system komputerowy do wszelkich obliczeń.

Po 1990: praktyczne próby stworzenia komputerów kwantowych. Rozpoczęcie aktywnego finansowania badań

1994

Peter Shore otwiera algorytm kwantowy do faktorowania liczb całkowitych, który pozwala na łamanie współczesnych kryptosystemów.

1994

Peter Zoller i Juan Ignacio Sirac wdrażają pierwszy schemat eksperymentalny komputera kwantowego, otrzymując bramkę logiczną C-NOT.

1997Alexey Kitaev tworzy niezawodną metodę korekcji błędów w obliczeniach kwantowych.
1998

Pierwsze dwububitowe komputery powstały na Oxford University i IBM.

2001

Komputer kwantowy IBM z powodzeniem rozkłada liczbę 15 za pomocą algorytmu Shore.

2008

D-Wave ogłasza stworzenie 28-kubitowego urządzenia.

2016 r

IBM wprowadza usługę chmurową Quantum Experience do zdalnego dostępu do obliczeń kwantowych.

2017 r

Co najmniej cztery niezależne grupy informują o tworzeniu kalkulatorów z około pięćdziesięcioma kubitami.

2018 r

Grupa John Martinis ogłasza Bristlecone, 72-kubitowy komputer kwantowy z korekcją błędów.

Artykuł „Doskonałość kwantowa” został opublikowany w czasopiśmie Popular Mechanics (nr 5, maj 2018 r.).

Zalecane

Naukowcy udowodnili poprawność Nietzschego
2019
Jak zmieni się technologia w XXIII wieku: Anno 2205
2019
Nowa generacja SUV-a Tiger: pierwsze szczegóły
2019