Komputery kwantowe 2024. Kubitowe sny o supremacji

Komputery kwantowe 2024. Kubitowe sny o supremacji
Gdyby brać za dobrą monetę wszystko, co pisze się i mówi o komputerach kwantowych (1), można byłoby pomyśleć, że nawet, jeśli nie są jeszcze rutynowym wyposażeniem centrów obliczeniowych, to za moment zmienią świat. Jednak w tej dziedzinie, po poskrobaniu wychodzi całe morze wątpliwości z kwestionowaniem samego faktu, że jakikolwiek komputer kwantowy w ogóle powstał.

Karawana tak czy inaczej jedzie. Niedawno uczonym udało się przekształcenie mikroskopu o rozdzielczości atomowej w coś, co określają jako komputer kwantowy. Technika ta, opisana w październiku 2023 r. w „Science”, polega na kontrolowaniu atomów tytanu poprzez wysyłanie sygnałów mikrofalowych z końcówki skaningowego mikroskopu tunelowego (STM). Na razie mało prawdopodobne, aby w najbliższym czasie konkurowała ona z rozwijanymi od lat podejściami do obliczeń kwantowych, którymi zajmują się Google i IBM, a także wiele startupów.

Andreas Heinrich z Instytutu Badań Podstawowych w Seulu i jego koledzy zajęli się badaniami „naturalnego kubita”, który tworzy spin elektronu. Pomiar spinu daje dwie możliwe wartości, „w górę” lub „w dół”, co odpowiada „0” i „1” w klasycznych bitach. Jednak zanim zostanie zmierzony, spin może istnieć w kontinuum możliwych stanów pośrednich, zwanych superpozycjami. To klucz do obliczeń kwantowych. Trzy atomy tytanu umieszczono w eksperymentach wewnątrz STM wystarczająco blisko, aby wzajemnie „wyczuwały” swoje spiny kwantowe.

Naukowcy użyli końcówki sondy STM do przesuwania atomów, układając trzy z nich w trójkąt. Za pomocą sygnałów mikrofalowych kontrolowali spin pojedynczego elektronu w jednym z atomów tytanu, sprawiając, że jego spin oddziaływał ze spinami pozostałych dwóch atomów tytanu, podobnie jak wiele igieł kompasu może wpływać na siebie nawzajem poprzez swoje pola magnetyczne. W ten sposób możliwa była konfiguracja prostej dwukubitowej operacji kwantowej i jej odczyt. Operacja trwała zaledwie nanosekundy - szybciej niż w przypadku większości innych typów kubitów. Heinrich uważa, że przez manipulowanie spinami w kombinacji pojedynczych atomów i cząsteczek dość łatwo można rozszerzyć tę technikę do około stu kubitów.

Kwantowy stan gry

W prognozach GlobalData Tech, Media and Telecom Predictions 2023, są przewidywania, że rynek obliczeń kwantowych osiągnie wartość od jednego do 5 miliardów dolarów do 2025 roku. Światowym liderem w dziedzinie badań i rozwoju obliczeń kwantowych jest IBM. W listopadzie 2022 r. zaprezentował swój najnowszy komputer kwantowy, Osprey, który z 433 kubitami ponad trzykrotnie przewyższał poprzedni rekord IBM - 127-kubitowy Eagle. IBM ogłosił kilka miesięcy później, że dąży do zbudowania maszyny ze stu tysięcy kubitów. Na razie ma taki plan: 1121 kubitów w 2023 roku (Condor QC), a potem 1386 kubitów w 2024 roku (Flamingo QC). GlobalData przewiduje, że komercyjne obliczenia kwantowe na pełną skalę zaczną się prawdopodobnie w 2027 roku. W październiku 2023 roku o zbudowaniu tysiąckubitowej maszyny kwantowej poinformowała inna firma, Atom computing, ale IBM nie pozwoli się zapewne prześcignąć na długo.

Dyrektor IBM ds. informatyki orzekł niedawno, że komputery kwantowe wkraczają w fazę „użyteczności”. Duże firmy technologiczne zaczęły już kilka lat temu oferować usługi kwantowe jako usługę (QaaS). Do najbardziej znanych należy Azure Quantum firmy Microsoft, która zapewnia użytkownikom dostęp do sprzętu innych firm, takich jak IonQ, Toshiba i  Quantinuum firmy Honeywell. Amazon oferuje Braket za pośrednictwem AWS, które są metodami, za pomocą których organizacja może wdrożyć obliczenia kwantowe przy użyciu komputerów kwantowych wiodących firm, takich jak D-Wave, IonQ, OQC (Oxford Quantum Circuits) i Rigetti. Google oferuje usługi kwantowe na swoim sprzęcie kwantowym. IBM jest światowym liderem w sprzedaży komputerów kwantowych i oferuje dostęp online do swoich komputerów kwantowych.

Bank JP Morgan, koncerny Volkswagen i Lockheed Martin już inwestują we własną infrastrukturę kwantową w ramach przygotowań do powszechnego wdrożenia w modelowaniu finansowym, optymalizacji procesów, cyberbezpieczeństwie oraz badaniach i rozwoju wojskowym. Giganci technologiczni, tacy jak IBM, Amazon, Microsoft i Google, inwestują w obliczenia kwantowe wielkie środki. Konkurować z nimi próbuje wiele mniejszych firm, których łączna liczba sięga na świecie dwustu. W marcu wspomniany już start-up IonQ pochwalił się inwestycjami o wartości dwóch miliardów dolarów, zamiarem bycia pierwszą notowaną na giełdzie firmą zajmującą się budową komputerów kwantowych. „The Wall Street Journal” podał, że IonQ planuje wyprodukować urządzenie mniej więcej wielkości konsoli do gier Xbox do końca 2023 roku.

Firmy zresztą odchodzą od ustanawiania rekordów kubitów na rzecz praktycznego sprzętu łączącego klasyczne układy krzemowe z kwantowymi i rozwiązań modułowych polegających także na budowie wydajnej komunikacji między systemami. IBM np. zapowiadał na 2023 r. procesor Heron, który miałby tylko 133 kubity. Może to wyglądać na krok wstecz, ale jak firma chętnie podkreśla, kubity Herona będą najwyższej jakości. Co ważne, każdy układ będzie mógł łączyć się bezpośrednio z innymi procesorami Heron, co zwiastuje przejście od pojedynczych kwantowych układów obliczeniowych do „modułowych” komputerów kwantowych zbudowanych z wielu połączonych ze sobą procesorów - to ruch, który ma pomóc w znacznym zwiększeniu skali komputerów kwantowych. Projekt Heron firmy IBM to dopiero pierwszy krok do świata modułowych komputerów kwantowych.

Spośród start-upów zajmujących się obliczeniami kwantowymi wymienionych w bazie danych firm GlobalData, 29 proc. miało siedzibę w Stanach Zjednoczonych, 13 proc. w Wielkiej Brytanii a 10 proc. w Chinach (10 proc.). Jednocześnie, jak oceniają analitycy, w 2023 r. nadal zmniejszała się różnica w możliwościach kwantowych między Stanami Zjednoczonymi a Chinami, choć firmy z USA wciąż dominują w tej sferze. Chiński rząd zainwestował 10 miliardów dolarów w budowę Narodowego Laboratorium Informatyki Kwantowej, zaś liderem wśród firm jest tam Alibaba, przed Huawei i Beidou. Alibaba zainwestowała 15 mld dolarów w centrum badań naukowych i technologicznych DAMO i nawiązała współpracę z Chińską Akademią Nauk. Jest to, ogólnie mówiąc, pole ostrej rywalizacji nie tylko między firmami, ale mocarstwami, w której USA jako państwo również wspiera tę dziedzinę. Amerykańska ustawa CHIPS and Science Act z 2022 r. przewiduje w latach 2023–2027 wsparcie dla tamtejszego sektora kwantowego w wysokości ponad 150 mln dolarów.

Chiny w niektórych dziedzinach USA przewyższają, np. w kwantowej komunikacji satelitarnej. Niedawno chińscy naukowcy zaprezentowali prototyp komputera kwantowego o nazwie „Jiuzhang 3.0” nowego typu, z 255 tzw. wykrytymi fotonami. Kierowany przez znanego chińskiego fizyka kwantowego pana Jianwei zespół podaje w „Physical Review Letters”, że udało mu się osiągnąć dziesięć kwadrylionów razy większą prędkość w rozwiązywaniu problemów związanych z próbkowaniem bozonów Gaussa, niż udaje się to istniejącym najszybszym superkomputerom na świecie. W komunikatach chińskich mówi się o „kwantowej supremacji” tego fotonicznego komputera, jednak, jak chyba to należy rozumieć, jest to dominacja w bardzo wąskiej i specjalistycznej dziedzinie. Maszyna opiera się na detekcji („wykrywaniu”) pojedynczych fotonów w nadprzewodzących nanoprzewodach. Sami twórcy przyznają, że „Jiuzhang 3.0” wciąż jest daleki od stania się uniwersalnym komputerem kwantowym. „Uniwersalne komputery kwantowe mogą wymagać manipulacji dziesiątkami milionów kubitów i możliwości korekcji błędów”, piszą.

Aby nie pozostać w tyle w wyścigu kwantowym prowadzonym przez USA i Chiny, w celu osiągnięcia europejskiej suwerenności kwantowej, UE opracowała mapę i wybrała szereg ośrodków krajowych do rozwoju obliczeń kwantowych na  swoim terytorium. To m.in. BSC-CNS w Hiszpanii, Alpine Quantum Technologies (AQT) w Austrii, PASQAL we Francji. Ambicją UE jest produkcja komputerów kwantowych przy użyciu w 100 proc. europejskiej myśli technicznej, bez uciekania się do dużych amerykańskich lub japońskich międzynarodowych konkurentów w celu uzyskania chipa. Jednocześnie kilka międzynarodowych firm, w tym IBM i Google, rozpoczęło działalność w Europie.

W 2020 roku rosyjski rząd podał, że zainwestował 700 milionów euro w rozwój technologii kwantowych. Dwa lata później powstało tam Narodowe Laboratorium Kwantowe. Rosja chce w dziedzinie kwantowej współpracować w grupie krajów BRICS. Indie niedawno ogłosiły Narodową Misję Kwantową, której celem jest podwojenie badań naukowych i przemysłowych.

Są opinie, że inwestowanie w technologie kwantowe, zwłaszcza do celów bezpieczeństwa narodowego, może się nie opłacić. Jest to bowiem obstawianie w dużym stopniu w ciemno. Przykładem jest rozwój techniki radaru kwantowego, co do którego w wielu krajach, także w USA, są duże wątpliwości, czy będzie w ogóle możliwy. Niemniej Chińczycy próbują.

Od kryptografii po AI

W XVI wieku włoski matematyk Girolamo Cardano opracował metody analizy liczb zespolonych, które określał jako „fikcyjne”, choć miały użyteczne zastosowania, np. przy rozwiązywaniu pozornie „niemożliwych” zadań, takich jak znalezienie pierwiastka kwadratowego z liczby ujemnej. W XX wieku, wraz z pojawieniem się mechaniki kwantowej, okazało się, że liczby zespolone znajdują zastosowanie w równaniach tego działu fizyki. W latach 90. odkryto, że niektóre problemy można rozwiązywać znacznie szybciej za pomocą algorytmów wykorzystujących liczby zespolone zakotwiczonych w zasadach kwantowych. Następnym logicznym krokiem było zbudowanie urządzeń, które opierają się na interakcji światła i materii w celu wykonywania tych obliczeń za nas. Tak narodziła się informatyka kwantowa.

Ponieważ informatyka kwantowa jest dziedziną wciąż w fazie narodzin, większość problemów, o których wiemy, że komputery kwantowe mogłyby rozwiązywać, jest formułowana w owej abstrakcyjnej matematyce. Przełożenia na „realny świat” są mniej lub bardziej niejasne, co nie znaczy, że nie pracuje się nad tym.

Obszary, na których obliczenia kwantowe będą mogły się wykazać, to, według najczęstszych prognoz, logistyka, planowanie, finanse, przewidywanie rynku, projektowanie nowych materiałów, leków i transportu energii. Każdy problem, w którym optymalizacja wyniku wymaga milionów możliwych wyborów w celu uzyskania najlepszego rozwiązania, jest idealnym problemem dla obliczeń kwantowych.

Jednym z zastosowań wymienianych w pierwszej kolejności ma być kryptografia. Uważa się, że komputery kwantowe będą w stanie złamać dzisiejsze algorytmy szyfrowania internetowego, więc będziemy potrzebować technologii kryptograficznej odpornej na moc kwantów. Odpowiedzią jest tu… moc kwantów. Prawdopodobnie bezpieczna kryptografia i w pełni kwantowy Internet wykorzystywałyby technologię obliczeń kwantowych.

W dziedzinie materiałoznawstwa komputery kwantowe mogłyby symulować struktury molekularne w skali atomowej, przyspieszając i ułatwiając odkrywanie nowych i interesujących materiałów. Może to pomóc w szukaniu nowych baterii, farmaceutyków, nawozów i w innych dziedzinach chemii.

Komputery kwantowe mają przyspieszyć również rozwiązywanie trudnych problemów optymalizacyjnych, w których chcemy znaleźć „najlepszą” metodę rozwiązania, robienia czegokolwiek, np. w takich dziedzinach jak logistyka, finanse i prognozowanie pogody.

Niemiecki przemysł motoryzacyjny wykorzystuje komputery kwantowe do planowania, harmonogramowania i wyznaczania tras dla setek autonomicznych pojazdów. Wiele firm wykorzystuje je do projektowania lepszych akumulatorów, aby zaspokoić zapotrzebowanie na pojazdy elektryczne.

Niektórym dość naturalne wydaje się „pożenienie” komputerów kwantowych z AI. Sukces algorytmów uczenia maszynowego zazwyczaj wiąże się z ogromną liczbą parametrów użytych w szkoleniu modeli i ogromnymi ilościami danych treningowych. W przypadku kwantowych wersji uczenia maszynowego ogromny zakres różnych stanów otwartych dla modułów kwantowych oznacza, że procedury teoretycznie mogłyby wymagać mniejszej liczby parametrów i  znacznie mniejszych zasobów danych szkoleniowych. Naukowcy już od pewnego czasu opracowują algorytmy uczenia maszynowego zaprojektowane specjalnie w celu wykorzystania mocy komputerów kwantowych. Algorytmy te mogłyby rozwiązywać problemy optymalizacyjne, grupować dane i przewidywać z większą precyzją i wydajnością. Modele kwantowego uczenia maszynowego mogą odkrywać ukryte wzorce w danych, prowadząc do dokładniejszych spostrzeżeń i prognoz. Ci, którzy więcej wiedzą zarówno o obliczeniach kwantowych, jak AI, nie są tak prędcy w przewidywaniach, kiedy kwantowa AI mogłaby stać się rzeczywistością.

Jungsang Kim z Duke University w Durham w Karolinie Północnej i naukowcy z firmy IonQ we współpracy z południowokoreańskim producentem samochodów Hyundai opracowali algorytmy kwantowego uczenia maszynowego, które mogą odróżniać dziesięć znaków drogowych w testach laboratoryjnych. Ich model wykorzystywał zaledwie sześćdziesiąt parametrów do  osiągnięcia takiej samej dokładności jak klasyczna sieć neuronowa wykorzystująca blisko 60 tys. parametrów. Potrzeba też znacznie mniej cykli szkoleniowych. Jednak efekty kwantowego uczenia maszynowego wciąż nie są w stanie przewyższyć klasycznych algorytmów. Silicon Quantum Computing, australijski start-up z Sydney, który pracuje nad tym samym w dziedzinie finansów i komunikacji, przewiduje, że minie wiele lat, zanim kwantowe uczenie maszynowe stanie się czymś praktycznym.

Może łamać szyfry, ale nie teraz i jeszcze długo raczej nie

Najwięcej emocji wywołuje wspominana już perspektywa zastosowania obliczeń kwantowych, w dobrych i złych intencjach, w kryptografii. Najpopularniejszy obecnie schemat szyfrowania został wprowadzony w 1977 roku przez informatyków, którzy zostali zainspirowani artykułem Witfielda Diffiego i Martina Hellmana z 1976 roku. Nazwali oni swoje podejście RSA, od nazwisk naukowców (Ron Rivest, Adi Shamir i Leonard Adleman). RSA, które opiera się na trudności znalezienia czynników pierwszych w stosunku do łatwości ich mnożenia, różni się nieco od podejścia Diffiego-Hellmana. Protokół Diffiego-Hellmana pozwala dwóm użytkownikom na  opracowanie klucza za pośrednictwem niezabezpieczonego kanału (takiego jak Internet), a klucz ten służy do ukrywania wiadomości. W RSA Janek używa klucza Ali opartego na dużych liczbach pierwszych do zaszyfrowania wiadomości, którą tylko on może odblokować. RSA szybko stał się jedną z najpopularniejszych metod szyfrowania z kluczem publicznym. Jest łatwy w użyciu i adaptacji.

Z biegiem czasu, gdy pojawiły się nowe algorytmy, a komputery stały się potężniejsze, Amerykański Narodowy Instytut Standardów i Technologii (NIST) zalecił stosowanie coraz większych liczb w celu zapewnienia bezpieczeństwa. Liczby są reprezentowane w postaci binarnej z 1 i 0. Na przykład liczba 13 jest zapisywana binarnie jako 1101, która ma cztery bity. NIST zaleca obecnie stosowanie klucza reprezentowanego przez co najmniej 2048 bitów, co odpowiada liczbie składającej się z ponad 600 cyfr. Do tej pory największa liczba, która została podzielona na dwie liczby pierwsze, składała się z 250 cyfr, a  proces ten zajął prawie 3 tys. godzin obliczeniowych. Jest to mocna strona RSA - nawet jeśli nie jest nie do złamania, łatwo było podnieść trudność, czyniąc liczbę bardzo trudną do złamania.

Jednak w 1994 roku, gdy amerykański matematyk Peter Shor, pracujący wówczas w Bell Labs, opracował algorytm dla komputerów kwantowych, który mógł rozwiązać problem faktoryzacji w rozsądnym czasie, dostrzeżono, że to podejście mogło również złamać szyfrowanie Diffiego-Hellmana. Artykuł Shora wywołał niepokój. Na szczęście dla kryptografów komputera, który łamałby RSA w krótkim czasie, jeszcze nie ma. Kilka lat temu naukowcy z Google i  Królewskiego Instytutu Technologicznego KTH w Szwecji oszacowali, że dopiero komputer kwantowy składający się z  dwudziestu milionów kubitów potrzebowałby około ośmiu godzin, aby złamać dzisiejsze 2048-bitowe zabezpieczenia RSA. Takiej maszyny nie ma nawet w optymistycznych planach.

Wielu przekonuje, że samo istnienie algorytmu Shora wskazuje na zmierzch szyfrowania, jakie znamy. Jednak specjaliści, którzy wdrażają rzeczywiste systemy bezpieczeństwa, są mniej zaniepokojeni kwantową przyszłością niż aktywnością bardziej konwencjonalnych hakerów. Thomas Decru, kryptograf z KU Leuven w Belgii, twierdzi, że zagrożenie kwantowe należy traktować poważnie, ale trudno jest przewidzieć, czy RSA padnie ofiarą komputerów kwantowych za pięć lat, czy może potrwa to dłużej, czy też nie wydarzy się nigdy. „Dopóki komputery kwantowe nie istnieją, wszystko, co się o nich mówi, jest w pewnym sensie spekulacją”, mówi w serwisie „MIT Review”.

Jednak ci, których obowiązkiem jest dmuchanie na zimne, dmuchają. Stany Zjednoczone pracują nad opracowaniem kryptografii odpornej na kwanty, a niedawne memorandum Białego Domu wyznaczyło termin do 2035 roku. Amerykański Narodowy Instytut Standardów i Technologii (NIST) pracuje intensywnie nad nowymi standardami szyfrowania, wychodząc z założenia, że wszystko, od tajemnic wojskowych po bankowość i zastrzeżone informacje firmowe, może być podatne na zagrożenia związane z obliczeniami kwantowymi. NIST zamierza opublikować metody kryptografii postkwantowej (PQC) w 2024 roku. Organizacja IEEE pracuje nad publikacją na temat cyberbezpieczeństwa dla praktyk kwantowych.

Chociaż jest to możliwe w dłuższej perspektywie, nie jest jasne, czy obecna trajektoria rozwoju technik kwantowych będzie zmierzać w tym kierunku. Może być to „samozaprzeczająca się przepowiednia”, gdyż wszyscy wiedzą o tym zagrożeniu i zawczasu mu przeciwdziałają.

Pułapki na cząstki, jony i atomy

Maszyny znane obecnie jako komputery kwantowe wykorzystują szereg podejść techniczno-konstrukcyjnych. Najbardziej chyba rozpowszechnione jest archwitektura, która wykorzystuje do przechowywania i manipulowania informacjami obwody prądu elektrycznego w nadprzewodnikach. Jest to technologia przyjęta przez Google, IBM, Rigetti i innych.

Nadprzewodzący kubit to zazwyczaj niewielka pętla lub pręt metalowy, który zachowuje się jak atom, obiekt kwantowy. Dwa stany kubitu odpowiadają dwóm stanom energetycznym tego sztucznego „atomu”, jego najniższemu stanowi energetycznemu, znanemu jako stan podstawowy, oraz wzbudzonemu. Stany są inicjowane i kontrolowane za pomocą impulsów mikrofalowych. Inna znana metoda budowy kubitów to technika „pułapek jonowych”, polegająca na stosowaniu grup naładowanych elektrycznie cząstek elementarnych, wykorzystująca naturalną stabilność cząstek w celu zmniejszenia błędów. Podejście to zostało zapoczątkowane przez IonQ i Honeywell.

Trzecią drogą eksploracji jest zamknięcie elektronów w cząsteczkach materiału półprzewodnikowego, które można następnie połączyć z dobrze znaną technologią krzemową klasycznych obliczeń. W tym kierunku podąża m.in. Silicon Quantum Computing. Jeszcze innym kierunkiem jest wykorzystanie pojedynczych cząstek światła (fotonów), którymi już umiemy manipulować z dużą dokładnością, np. firma PsiQuantum projektuje skomplikowane obwody „kierowanego światła” do wykonywania obliczeń kwantowych. Nie ma jeszcze wyraźnego zwycięzcy spośród tych technologii i równie dobrze może się okazać, że ostatecznie zwycięży podejście hybrydowe.

Jak wspomniano, systemy kwantowe są  bardzo wrażliwe na szumy, temperaturę i światło, które mogą zanieczyścić środowisko, a tym samym zepsuć te informacje, powodując błędy, które wymagają korekty, aby uzyskać pożądany wynik. Stany kwantowe w większości znanych typach kubitów przechowywane są w temperaturach nieodległych od zera bezwzględnego, choć wartości w stopniach różnią się w zależności od wymogów konstrukcyjnych. W przeciwieństwie do klasycznych maszyn obliczeniowych, w przypadku obliczeń kwantowych konieczne jest pisanie nowych algorytmów dla każdego obliczenia.

Kubity można zasadniczo określać jako tranzystory kwantowe. Oprócz znanych z konwencjonalnej informatyki stanów binarnych „0” lub „1” mogą również zajmować oba te stany jednocześnie, co zwiększa ich możliwości obliczeniowe. Ponadto dwa lub więcej kubitów może być splątanych, co oznacza, że stany cząstek korelują ze sobą, nawet jeśli cząstki znajdują się w wielkim oddaleniu od siebie. Zdolność ta całkowicie zmienia sposób przeprowadzania obliczeń i jest jednym z aspektów potęgi komputerów kwantowych. Co więcej, zwykła obserwacja kubitu może zmienić jego zachowanie, co według ekspertów może przynieść jeszcze więcej korzyści. Choć kubity są z klasycznego punktu widzenia czymś dziwacznym, możemy wykorzystać tę dziwaczność do opracowania algorytmów, które robią rzeczy, których nie potrafią klasyczne komputery.

Do tworzenia kubitów naukowcy stosują różne materiały defekty w strukturach kryształów diamentu, eksperymentując z wciąż to nowymi, np. nanokryształami lub cząstkami będącymi swoimi własnymi antycząstkami. Google do budowy swoich nadprzewodzących kubitów wykorzystuje aluminium, IBM - stop tego samego metalu z niobem. Każda z metod ma swoje wady i zalety. Nie znalezione jeszcze takiej, która będzie najlepsza i zepchnie inne w cień.

Aby zachowywać się jak atom, nadprzewodzący kubit musi zostać schłodzony do kilku setnych stopnia powyżej zera absolutnego, czyli –273°C. Wymaga to lodówki rozcieńczającej (chłodnicy kriogenicznej), maszyny większej niż lodówka domowa i znacznie droższej. Ponadto na każdy kubit potrzebne są co najmniej dwa przewody i inny sprzęt. Koszt jednego kubitu jest wysoki. Aby uzyskać miliony połączonych kubitów, a tyle, zdaniem specjalistów w tej dziedzinie, potrzeba do budowy wydajnych maszyn kwantowych, inżynierowie będą musieli między innymi albo zbudować większe lodówki, nad czym pracują, albo kwantowo połączyć, to znaczy, splątać, sygnały nadprzewodzących matryc kubitów umieszczonych w różnych lodówkach, co jest obecnie nieosiągalnym wyczynem. Znalezienie sposobu na przeniesienie informacji kwantowej z jednego zimnego kubitu do drugiego jest jednym z kluczowych wyzwań.

W systemach kwantowych wykorzystujących pułapki jonowe, w których naładowany atom lub cząsteczka zachowują się jak małe magnesy, dwa stany jonu odpowiadają dwóm orientacjom magnesu, powiedzmy w górę i w dół, i można je ustawić, uderzając w jon wiązką lasera cieńszą niż ludzki włos. Firmy badające tę technologię pojawiły się w ciągu ostatnich kilku lat, w tym Alpine Quantum Technologies (która ma komputer z 24 kubitami), IonQ (który ma 29 kubitów) i Quantinuum (który ma 32 kubity). AQT wykorzystuje jony wapnia. Pozostałe dwie wykorzystują jony iterbu.

Mimo pewnych różnic wszystkie te systemy zawierają: chip obliczeniowy wielkości drobnej monety, cylindryczną komorę próżniową wielkości dużej puszki z napojem wokół tego chipa, układ laserów i detektor światła. Chip przechowuje jony, utrzymując je w „pułapce” za pomocą pól elektrycznych w pustych przestrzeniach między obwodami drukowanymi. Lasery strzelają przez okna komory próżniowej, chłodząc jony i uruchamiając kubity. Pustka w przestrzeni wokół kubitu jonowego oznacza, że jego stan (0, 1 lub oba) jest stosunkowo stabilny, niezagrożony cząsteczkami powietrza. W rezultacie może on  przechować informacje kwantowe przez minuty a nawet godziny, co  jest niebotyczną poprawą w  porównaniu z kilkuset mikrosekundami w kubicie nadprzewodzącym. Ta relatywnie długa żywotność sprawia, że układy te nadają się do kwantowego przechowywania danych, ale może być problematyczna przy wykonywaniu złożonych obliczeń. Wynika to  z faktu, że właściwość, która zapewnia kubitowi koherencję, czyli stabilność przez niski poziom interakcji z otoczeniem, jednocześnie utrudnia kontrolowanie interakcji między kubitami. Obliczenia w tym systemie trwają więc znacznie dłużej. To dlatego komputery kwantowe oparte na pułapkach jonowych mają znacznie mniej kubitów. Każdy chip może zawierać najwyżej kilkadziesiąt jonów, by interakcje między nimi nie stały się zbyt skomplikowane do kontroli. Osiągnięcie milionów kubitów będzie wymagało przenoszenia jonów między modułami, co w tej chwili jest poza zasięgiem naukowców.

Skalowalność jest mniejszym problemem w przypadku innego typu kubitu, opartego na neutralnym atomie. W  takim komputerze kwantowym atomy w swoich miejscach utrzymuje światło, a nie elektryczność. Pułapki świetlne tworzy się za pomocą lasera rozszczepianego przez soczewkę nad komorą zawierającą neutralne atomy. Rozszczepianie tworzy wiele punktów świetlnych, z których każdy może utrzymać atom w miejscu. To samo zachodzi w przypadku innych wiązek laserowych, które są wykorzystywane do obsługi kubitów. Naukowcy stworzyli matryce od dwóch do tysiąca kubitów neutralnych atomów. Firma QuEra skonstruowała tą metodą komputer kwantowy z 256 neutralnymi atomami rubidu. Soczewki i lasery nowej generacji prawdopodobnie zwiększą tę liczbę do 10 tysięcy lub więcej. Dodawanie kolejnych kubitów wymaga jedynie rozszczepienia lasera na więcej wiązek. Kubity z neutralnych atomów mają również dość długą żywotność, zachowując swoje informacje przez dziesiątki sekund. Jak dotąd mogą one wykonywać kilka obliczeń na sekundę, co jest porównywalne do układów pułapek jonowych, ale ponad tysiąc razy wolniej niż system nadprzewodzących kubitów. Jednak, choć łatwo jest stworzyć neutralne kubity atomowe, są one skomplikowane w obsłudze. Wykonanie skomplikowanych obliczeń wymaga uderzenia w atom za pomocą starannie zaplanowanej sekwencji impulsów laserowych. Entuzjaści tej metody budowania kubitów uważają jednak, że ma ona wielki potencjał.

Ideał sam naprawia własne błędy

Zanim zastosujemy maszyny kwantowe do rozwiązywania wymienionych lub jeszcze innych problemów, musimy pokonać trudności związane z budową samego sprzętu. Fakt, że niektóre rozwiązania wymagają chłodzenia do temperatury bliskiej zeru absolutnemu, nie ułatwia sprawy.

Dość powszechnie uważa się, o czym już wspominano, że użyteczne obliczenia są jednak możliwe tylko na maszynach kwantowych z ogromną liczbą kubitów, a takie jeszcze nie istnieją. Wspomniany Osprey firmy IBM ma ich 433. Jak oszacowali w 2022 r. specjaliści z Microsoft Quantum w Redmond w stanie Waszyngton i ETH Zürich w Szwajcarii, nawet przy dwóch milionach kubitów niektóre obliczenia chemii kwantowej, która uchodzi za najbliższą i najbardziej dostępną dziedzinę, mogą zająć sto lat. Badania opublikowane w 2021 r. przez naukowców Craiga Gidneya z Google w Santa Barbara w Kalifornii i Martina Ekerå z KTH Royal Institute of Technology w Sztokholmie szacują, że złamanie najnowocześniejszej kryptografii w ciągu ośmiu godzin wymagałoby 20 milionów kubitów. To i tak postęp, bo chociaż 20 milionów kubitów jest poza zasięgiem, to znacznie mniej niż miliard kubitów pochodzący z poprzednich szacunków.

Z drugiej strony, od firm pracujących nad budową komputerów kwantowych często słyszymy nad wyraz optymistyczne komunikaty. Na przykład helsiński start-up Algorithmiq twierdzi, że będzie w stanie zademonstrować praktyczne zastosowania kwantowej maszyny w opracowywaniu i odkrywaniu leków w ciągu pięciu lat.

Tak czy inaczej, nie jest specjalną tajemnicą, że współczesne prototypy maszyn kwantowych, zbudowane przez IBM, Google, IonQ, Rigetti i innych, są wciąż dalekie od doskonałości. Mają wciąż skromne rozmiary i są podatne na błędy. Obliczenia kwantowe polegają na wykorzystaniu zasad mechaniki kwantowej do przechowywania i obliczania danych, np.  superpozycji, zdolności bitu kwantowego (kubitu) do jednoczesnego istnienia w stanie włączonym i wyłączonym.

Aby osiągnąć trwały (koherentny) stan superpozycji, kubity muszą być odizolowane od środowiska zewnętrznego. Na  przeszkodzie stoi wiele wyzwań naukowych i technologicznych, ponieważ kubity niestety mają tendencję do rozpadania się przed zakończeniem obliczeń. Wśród specjalistów mówi się, że obecnie znane komputery kwantowe znajdują się na etapie rozwoju NISQ (ang. noisy intermediatescale quantum - pol. faza szumów kwantowej skali pośredniej) a najtrudniejszą częścią zadania jest odizolowanie stanów kwantowych od zakłóceń środowiskowych i kontrolowanie ich na tyle precyzyjnie, aby takie obliczenia można było w ogóle przeprowadzić. Świętym Graalem tej branży jest komputer kwantowy na dużą skalę, który może korygować własne błędy. Pomimo wielu problemów, wielu specjalistów spodziewa się, że w ciągu dekady można spodziewać się przejścia od ery hałaśliwych urządzeń do  mniejszych systemów, które mogą podtrzymywać obliczenia dzięki aktywnej korekcji błędów.

Jak doniosło w październiku 2023 r. czasopismo „Nature”, grupa badaczy kierowana przez Caltech jako jedna z pierwszych zademonstrowała rodzaj kwantowej gumki do wymazywania błędów. Fizycy wykazali, że można wskazać i skorygować błędy w kwantowych systemach obliczeniowych. „Zwykle bardzo trudno jest wykryć błędy w komputerach kwantowych, ponieważ samo szukanie błędów przyczynia się do powstawaniach kolejnych”, wyjaśnia w publikacji Adam Shaw, współautor badań z Caltech. „Pokazujemy jednak, że przy pewnej starannej kontroli możemy precyzyjnie zlokalizować i  usunąć niektóre błędy bez konsekwencji”. W ramach badań naukowcy manipulowali pojedynczymi neutralnymi atomami zamkniętymi w „pęsecie” wykonanej ze światła laserowego. Atomy zostały wzbudzone do „stanów Rydberga”, o wysokiej energii, w których sąsiadujące atomy zaczynają oddziaływać, generując stany splątania, z których wypadają, gdy wydarzy się błąd, ale jest to sygnalizowane „świeceniem” atomu w świetle laserowym. Błędy są wychwytywane w locie, co pozwala korygować obliczenia.

W zeszłym roku zarówno Google Quantum AI, jak i Quantinuum, nowa firma utworzona przez Honeywell i Cambridge Quantum Computing, opublikowały prace wykazujące, że kubity można łączyć w zespoły korygujące błędy, które przewyższają podstawowe fizyczne kubity. Inne zespoły starają się sprawdzić, czy mogą znaleźć inny sposób na uczynienie komputerów kwantowych odpornymi na błędy. IBM, na przykład, bada charakterystykę szumu powodującego błędy w swoich maszynach, a następnie programuje w taki sposób, aby go odjąć (podobnie jak w słuchawkach z redukcją szumów). Jest to system daleki od doskonałości, gdyż algorytm działa w oparciu o przewidywanie szumu, który może wystąpić, a nie tego, co faktycznie się pojawia.

„Kwantowa zima” niewykluczona

Świata obliczeń kwantowych większość mediów nie rozumie, ale nie przeszkadza im to w szerzeniu „prognoz” dotyczących „rewolucji kwantowej” w każdej nieomal dziedzinie, od  medycyny i nauk materiałowych, po sztuczną inteligencję i świat finansów. Przykładem tego szumu są niedawno publikowane przewidywania serwisu „Business Insider”, który snuje wizje maszyn kwantowych pomagających „wyleczyć raka, a nawet podjąć działania w celu odwrócenia zmian klimatycznych”.

Osobą, którą ta przesada medialna i szum nad wyraz denerwuje, jest wybitny informatyk kwantowy Scott Aaronson (2), który wierzy w potencjał obliczeń kwantowych i chce pomóc w ich rozwoju, ale martwi się, że naukowcy składają obietnice, których nie mogą dotrzymać. Pisze o tym często na swoim blogu „Shtetl-Optimized”.

2. Scott Aaronson. Zdjęcie: commons.wikimedia.org

W jego ocenie, wciąż nie jest jasne, czy komputery kwantowe osiągną w chemii, neurologii, medycynie, ekonomii i innych dziedzinach wszystkie te cele, które są kreślone w strzelistych prognozach, zaś optymiści mogą „przeżyć niemiłe przebudzenie” z kwantowego snu. Popularne opisy często sugerują, że komputery kwantowe, ponieważ superpozycja i splątanie pozwalają im na wykonywanie wielu obliczeń w tym samym czasie, są po prostu szybszymi wersjami konwencjonalnych komputerów. Aaronson określa te publikacje jako mylące. W porównaniu bowiem z konwencjonalnymi komputerami, komputery kwantowe są, jak to określa, „nienaturalnymi” urządzeniami, które mogą najlepiej nadawać się do  stosunkowo wąskiego zakresu zastosowań, w szczególności do symulacji systemów zdominowanych przez efekty kwantowe.

Zdolność komputera kwantowego do przewyższenia najszybszej konwencjonalnej maszyny znana jest jako „kwantowa supremacja” (była o tym już mowa). Pojęcie to zostało ukute przez fizyka Johna Preskilla w 2012 roku. Choć Google ogłosiło ją już cztery lata temu, to w świecie rozumiejących problem nie potraktowano tego z całą powagą. Wykazanie supremacji kwantowej jest, jak pisze Aaronson, niezwykle trudne. Nawet w konwencjonalnych obliczeniach udowodnienie, że jeden algorytm pokonuje inny, nie jest proste. Trzeba odpowiednio wybrać zadanie stanowiące uczciwy test i wybrać prawidłowe, bezstronne, metody pomiaru szybkości i dokładności. Wyniki testów są również podatne na błędną interpretację i tendencyjność.

Brzmi to nieco dziwnie, ale do czasu, gdy komputery kwantowe będą gotowe do wprowadzenia na rynek, mogą już stracić potencjalnych klientów. Stać się to może, jeśli na przykład klasyczne komputery staną się wystarczająco wydajne, by symulować systemy kwantowe, na których zależy chemikom i naukowcom zajmującym się materiałami, zwraca uwagę Aaronson. Chociaż komputery kwantowe „zachowałyby swoją teoretyczną przewagę, ich praktyczne znaczenie byłoby mniejsze”.

Aaronson twierdzi, że w miarę jak komputery kwantowe przyciągają coraz więcej uwagi i funduszy, naukowcy mogą mieć większą skłonność do wprowadzania w błąd inwestorów, agencji rządowych, dziennikarzy, opinii publicznej i, co najgorsze, samych siebie. Jeśli naukowcy nie będą w stanie dotrzymać swoich obietnic, podekscytowanie może ustąpić miejsca zwątpieniu, rozczarowaniu i złości, ostrzega Aaronson. Dziedzina ta może stracić fundusze i cenne talenty, popadając w  kwantową „zimę”, podobną do tych, które nękały badania sztucznej inteligencji w ich dość długiej historii.

Pomimo dużych nadziei związanych z obliczeniami kwantowymi, znacznego postępu w dziedzinie sprzętu i optymizmu co do przyszłych zastosowań, w artykule „Nature” z 2023 r. podsumowano obecne komputery kwantowe jako „na razie [dobre] absolutnie do niczego”. W skrócie chodzi o to, że komputery kwantowe nie będą bardziej użyteczne ani wydajne niż komputery konwencjonalne, chociaż być może w dłuższej perspektywie okażą się przydatne. Nie jest to jedyna sceptyczna i powątpiewająca w użyteczność maszyn kwantowych publikacja w ostatnim czasie. Niektórzy komentatorzy wątpią również w możliwość przełamania problemów i ograniczeń, bo na przeszkodzie stoją fundamentalne bariery fizyczne, brak odpowiednich algorytmów i zrozumienia skali trudności.

Sceptycy zwracają uwagę, że algorytmy kwantowe przyspieszają realizację, w porównaniu z konwencjonalnymi algorytmami, tylko w przypadku niektórych zadań, a dopasowanie tych zadań do praktycznych zastosowań okazało się wyzwaniem. Niektóre obiecujące zadania i aplikacje wymagają zasobów znacznie przekraczających te dostępne obecnie. W  szczególności, wyzwaniem dla komputerów kwantowych jest przetwarzanie dużych ilości danych niekwantowych. Ponadto, jeśli kwantowa korekcja błędów zostanie wykorzystana do skalowania komputerów kwantowych służących do praktycznych zastosowań, jej narzut obliczeniowy może osłabić przyspieszenie oferowane przez wiele algorytmów kwantowych.

Zwraca się uwagę, że w ogóle budowanie komputerów z dużą liczbą kubitów może być daremne, jeśli kubity te nie są wystarczająco dobrze połączone i nie mogą utrzymać wystarczająco wysokiego stopnia splątania przez odpowiednio długi czas. Niektórzy badacze wyrażali sceptycyzm co do tego, że skalowalne komputery kwantowe mogą kiedykolwiek zostać zbudowane. Kanadyjski fizyk Bill Unruh wątpił w  praktyczne znaczenie komputerów kwantowych w artykule opublikowanym już w 1994 roku. Brytyjski uczony Paul Davies sądził, że 400-kubitowy komputer byłby sprzeczny z kosmologicznym ograniczeniem ilości informacji, wynikającym z zasady holograficznej.

Zastrzeżeń i problemów w sferze komputerów kwantowych jest więc mnóstwo. Jednak naukowcy, biznes i rządy poświęcają jej sporo czasu i pieniędzy. Sceptyk powie, że wynika to z nieświadomości, czym w rzeczywistości miałby być „prawdziwy” komputer kwantowy i dlaczego nie jest możliwe jego zbudowanie. Entuzjasta wskaże, że przecież komputery kwantowe już są i pracują. Jak się wydaje, o wydawaniu środków na ten cel decydują realiści, którzy może nie wszystko rozumieją, ale wiedzą, że „na wszelki wypadek” warto nie dać się wyprzedzić w tej dziedzinie. Bo a nuż uda się komuś osiągnąć rzeczywistą „supremację”, a myśl o tym jest trochę straszna. 

Mirosław Usidus