Dawno, dawno temu...
... sławny amerykański fizyk Richard Feynman, laureat Nagrody Nobla i skądinąd jeden ze współtwórców broni jądrowej, wygłosił w Massachusetts Institute of Technology (MIT) wykład, w którym przedstawił niemożność przekształcenia systemu kwantowego w klasyczny model komputerowy –
zamiast tego zaproponował podstawowy model logiczny komputera kwantowego. Tę chwilę, rok 1981, przyjmuje się za ostateczne narodziny komputera kwantowego, a Feynman traktowany jest jako jego moralny twórca. Niczego nie ujmując najwybitniejszemu z dydaktyków fizyki, jakim bez wątpienia był Feynman, warto jednak zauważyć zbieżność tez jego wykładu z pracami z 1976 roku, przypisywanymi polskiemu filozofowi Romanowi Ingardenowi, wykazujacymi niemożność przeniesienia klasycznej teorii informacji Shannona na płaszczyznę kwantową. Prace teoretyczne nad relacjami pomiędzy teorią informacji a mechaniką kwantową były zresztą prowadzone jeszcze wcześniej, od początku lat siedemdziesiątych ubiegłego stulecia, a ich podsumowanie stanowił opublikowany w 1985 roku model uniwersalnego komputera kwantowego, stanowiący dopasowany do kwantowego środowiska odpowiednik klasycznej maszyny Turinga.
Skąd się bierze kwantowa odmienność, dlaczego klasyczne teorie nie sprawdzają się w kwantowym świecie? Wyjaśnienie tej zagadki powie nam również, dlaczego komputer kwantowy dysponuje możliwościami nieosiągalnymi dla klasycznych komputerów.
Kot Schrödingera, czyli kwantowa odmienność
W klasycznych komputerach wartość bitu jest odwzorowywana przez stan jakiegoś elementu – przewodzenie/nieprzewodzenie tranzystora, zwrot natężenia pola magnetycznego lub inne zjawisko fizyczne. Przeniesienie takiego odwzorowania na platformę kwantową jest bardzo kuszące, oznaczałoby bowiem możliwość ogromnego skoku miniaturyzacji – zamiast milionów atomów, tworzących pojedynczy tranzystor, wystarczałby jeden atom, którego stanom kwantowym byłyby przypisane stany logiczne „0” i „1”. Mało tego – cząstki, a wraz z nimi atomy, mają cechę, która byłaby wymarzona do tego celu, a jest nią spin. Cóż to takiego? Wyobraźmy sobie cząstkę lub atom jako kulkę, wirującą wokół własnej osi. Jej cechą charakterystyczną będzie moment pędu – to, co utrzymuje w pionie wirującego bąka. Atom oczywiście nie wiruje, ale jego spin stanowi w uproszczeniu kwantowy odpowiednik momentu pędu wirującej kulki. Jakież byłoby piękne – rejestry procesora, zbudowane z 64 atomów każdy! Niech spin każdego z tych atomów odzwierciedla wartość odpowiedniego bitu, który, ze względu na kwantowy charakter nazwiemy qubitem (quantum bit). Niestety, z własnościami kwantowymi cząstek, w tym ich spinem, jest nieco gorzej, niż z układami w skali makro. Pamiętamy zapewne ze szkoły regułę nieoznaczoności Heisenberga, która mówi, że jeśli jesteśmy w stanie oznaczyć połażenie cząstki, to nie możemy oznaczyć jej pędu. Znając położenie cząstki nie możemy oznaczyć zwrotu jej wektora spinu. Czy to oznacza, że qubit nie ma wartości? Nie!
Qubit ma dwie wartości, „0” i „1” równocześnie. Brzmi to nieco abstrakcyjnie, ale wyjaśnienia problemu może dostarczyć szczególna postać mechaniki kwantowej, powstała właśnie w tym celu – kot Schrödingera. Erwin Schrödinger w jednym ze swoich artykułów posłużył się, celem wyjaśnienia stanu superpozycji kwantowej, dość oryginalnym eksperymentem myślowym, polegającym na umieszczeniu kota w zamkniętym pudełku, wraz z aparaturą, która może go uśmiercić, lub nie. Tak „opakowany” kot jego zdaniem doskonale ilustruje stan superpozycji kwantowej – jest równocześnie żywy i nieżywy. Oczywiście z punktu widzenia mechaniki kwantowej, bo w skali makro możemy oczywiście mówić jedynie o prawdopodobieństwie tego, czy kot żyje, czy nie.
Jeśli przyjmiemy do wiadomości równoczesność kwantowego życia i śmierci kota, fakt, że qubit zawiera równocześnie jedynkę i zero staje się oczywisty. Popatrzmy, co z tego wynika. Jeśli weźmiemy słowo złożone z ośmiu bitów, zwane popularnie bajtem, może ono zawierać jedną z 256 możliwych wartości. Tymczasem „qubajt” złożony z ośmiu qubitów zawiera równocześnie wszystkie 256 możliwych wartości. Tu właśnie tkwi ogromy potencjał komputera kwantowego – jeśli na takim „qubajcie” wykonamy jakąś operację, zostanie ona wykonana na wszystkich wartościach równocześnie. Odnosząc to do działania komputerów klasycznych, operacja taka ma charakter operacji typu SIMD (Single Instrucion Multiple Data) na 256 różnych wartościach. Oczywiście, jeśli wydłużymy słowo kwantowe, równocześnie obrabiany zakres danych ulegnie poszerzeniu – w przypadku 16 qubitów będzie to 65536 równoczesnych wartości.
Abstrahując na razie od problemu wydobycia z kwantowej jednostki obliczeniowej uzyskanego wyniku, widzimy wyraźnie, że komputer kwantowy ma olbrzymie, choć niezbyt konwencjonalne możliwości przetwarzania. I dlatego przewidywano, że jednym z pierwszych praktycznych zastosowań komputera kwantowego będzie łamanie szyfrów – przy możliwości sprawdzenia tysięcy kombinacji równocześnie nawet metoda „brute force” musi dać pozytywny rezultat w krótkim czasie. Początki, jeszcze teoretyczne, takiego zastosowania komputera kwantowego dał już w1995 roku Peter Shor, tworząc oparty na własnościach komputera kwantowego algorytm rozkładu liczby na czynniki pierwsze.
Myśląca cząsteczka
Pierwsze udane próby fizycznej realizacji kwantowej jednostki obliczeniowej polegały przeważnie na rozwiązaniach molekularnych – próbach stworzenia takiego związku chemicznego, w którym spiny niektórych atomów będą qubitami, zaś kwantowe relacje pomiędzy wchodzącymi w skład cząsteczki atomami będą realizować zaplanowaną funkcję logiczną. Ten kierunek prac nad komputerem kwantowym osiągnął swój szczyt rozwoju w 2001 roku, gdy w IBM Almaden Research Center zrealizowano komputer kwantowy zaprogramowany algorytmem Shora. Komputer – mocno powiedziane.
Zawierająca 7 qubitów cząsteczka wymyślnego związku chemicznego, po wzbudzeniu impulsem pola elektromagnetycznego dokonywała rozkładu liczby 15 na czynniki 3 i 5. Największym problemem był interfejs tak skonstruowanego procesora kwantowego – zjawisko należało obserwować w skali masowej, ponieważ jedyną metodą stwierdzenia zmiany spinów poszczególnych qubitów był rezonans magnetyczny. Dlatego w praktyce procesorem nie była pojedyncza cząsteczka, ale probówka, zawierająca około 1018 cząsteczek tego związku. Oczywiście odczyt, dokonywany brutalną metodą, niszczył uzyskane rezultaty.
Eksperyment IBM wykazał, że molekularny procesor kwantowy ma wprawdzie ogromne możliwości teoretyczne, jednak rozwój tej linii konstrukcyjnej jest na razie przedwczesny. Nie dlatego, byśmy nie byli w stanie zbudować cząsteczki zawierającej kilka tysięcy qubitów sprzężonych funkcją algorytmu Shora – problemem nie do rozwiązania na ówczesnym poziomie nauki i techniki stał się interfejs dla tak zbudowanego procesora.
Orion zrodzony z zimna
Problem odczytu wartości spinów bez zmiany ich stanu rozwiązano dopiero w 2005 roku, wykorzystując tak zwany efekt tunelowania Josephsona. Jest to zjawisko przepływu prądu na styku dwóch nadprzewodników, rozdzielonych cienką warstwą izolacyjną. Złącze Josephsona znalazło powszechne zastosowanie w rozwiązaniu zwanym SQUID - Superconducting Quantum Interference Device, przeznaczonym do detekcji i pomiarów natężenia bardzo słabych pól magnetycznych. Typowy SQUID składa się ze złącza Josephsona i nadprzewodnikowego pierścienia indukcyjnego, wykorzystywanego do koncentracji pola lub jego wzbudzenia. Popatrzmy teraz, jak wygląda układ scalony, tworzący procesor kwantowy Orion konstrukcji D-Wave.
Na płytce wykonanej z niobu widzimy 16 węzłów, zawierających poszczególne qubity procesora. W skład każdego węzła, oprócz umieszczonego w centrum qubitu (nie ujawniono zastosowanego w tym celu materiału) widzimy osiem nadprzewodnikowych pętli indukcyjnych, zaś w okolicy centrum węzła znajduje się złącze Josephsona, a raczej cały zestaw takich złącz. Można więc powiedzieć, że każdy z węzłów stanowi układ SQUID z qubitem wewnątrz. SQUID-y mogą być indywidualnie odczytywane, każdemu z qubitów można nadać indywidualnie dowolny stan. Służą do tego sieć połączeń układu i jego wyprowadzenia zewnętrzne, wykonane z aluminium, opsss... przepraszam, glinu. Oczywiście zarówno programowanie qubitów, jak i analiza odczytów z nich, dokonywane są na zewnątrz, już przez konwencjonalne komputery.
Co bardzo istotne, pomimo „nadprzyrodzonych”, uhmm... nadprzewodnikowych właściwości, układ został wykonany w konwencjonalnej technologii fotolitograficznej. Inne są tylko zastosowane materiały, inna również jest gęstość upakowania elementów.
Dlaczego zaczęliśmy od zimna jako warunku narodzin Oriona? Podstawą działania układu jest intensywne wykorzystanie zjawiska nadprzewodnictwa, a to, jak wiadomo, występuje najchętniej w bardzo niskich temperaturach. Ale nie tylko w celu uzyskania nadprzewodnictwa Orion musi być ochłodzony do temperatury 5 mK (milikelvinów), bardzo już bliskiej zera absolutnego (czyli ok. -273°C). Nadprzewodnictwo można uzyskiwać w znacznie wyższych temperaturach – celem minimalizacji temperatury pracy Oriona jest eliminacja wszelkiego rodzaju szumów, szczególnie o charakterze termicznym. Można się domyślać, że natężenie pola magnetycznego, odzwierciedlające spin qubitu, jest bliskie granicy czułości zastosowanych SQUID-ów.
W skali makro
Niewielki chip z niobu to dopiero początek przedsięwzięcia. Chip umieszczony jest w obudowie nieco przypominającej konwencjonalne obudowy procesorów. Nieco, bo jednak są drobne różnice – konstrukcja obudowy musi przecież być przystosowana do pracy w bardzo niskich temperaturach.
Zwracają uwagę połączenia pomiędzy wyprowadzeniami układu a ścieżkami obudowy, wykonane przy użyciu złotych drucików – tak łączono wyprowadzenia mikroprocesorów w latach dziewięćdziesiątych – ostatnim tak montowanym układem, jaki pamiętam, był procesor Pentium Pro.
Obudowa jest przystosowana do bezpośredniego połączenia z systemem chłodzącym, umożliwiającym uzyskanie temperatury 5 mK, czyli o 0,005 stopnia wyższej od zera absolutnego. Stosowany jest do tego wymiennik ciepła zasilany ciekłym helem.
Obudowa układu umieszczona jest pomiędzy dwoma takimi wymiennikami. Całość znajduje się w „tunelu”, utworzonym przez płytki z układami elektronicznymi o nieujawnionym przeznaczeniu.
Z cylindrycznego rozmieszczenia płytek można jedynie wywnioskować, że chodzi o zachowanie jednakowych odległości od osi, w której umieszczony jest sam procesor.
Sama maszyna nie jest wielka, ma wymiary dużej szafy. Nieco większy, choć jak na imponująco niskie temperatury pracy i tak niewielki, jest system chłodzenia. No cóż – nie musi być bardzo wydajny – pobór mocy przez nadprzewodnikowy układ wynosi zaledwie kilka nanowatów.
Słowo o przeznaczeniu
Nie bójcie się, nie będzie tu żadnego mistycyzmu i innych temu podobnych! Chodzi o prezentację przewidywanych klas zastosowań zarówno Oriona, jak i jego następców, operujących już na setkach i tysiącach qubitów – firma D-Wave Systems zapowiada 1000-qubitową, w pełni komercyjną konstrukcję już na koniec 2008 roku.
Według D-Wave podstawowym zastosowaniem maszyny kwantowej ma być rozwiązywanie zadań klasyfikowanych w teorii złożoności jako NP-complete – upraszczając – nierozwiązywalnych w zadowalającym czasie konwencjonalnymi środkami. Powszechnie znanym przykładem tej klasy zadań jest tak zwany „problem komiwojażera” – znalezienie najkrótszej trasy, jaka trzeba przebyć w drodze z punktu A z powrotem do punktu A, poprzez wszystkie punkty znajdujące się na zadanym obszarze. W prezentacji D-Wave przytoczono właśnie ten problem, z użyciem konkretnych danych – na obliczenie trasy komiwojażera dla liczącej 24.978 miejscowości Szwecji dobry współczesny PC potrzebowałby około 85 lat.
W praktycznych pokazach Orion realizował nieco mniej skomplikowane, choć pracochłonne zadania. Wyszukał struktury cząsteczek pasujących do wybranej wstępnie cząsteczki kofeiny, ułożył plan miejsc na przyjęciu weselnym (ze skomplikowanymi uwarunkowaniami „kto koło kogo”) oraz ułożył prymitywne puzzle.
Całkiem dobry początek, jak na tak wczesną fazę prac. Czy D-Wave Systems będzie w stanie za półtora roku rzeczywiście zaprezentować w pełni użytkową maszynę z tysiącem qubitów? W tych klasach zastosowań, do których ma służyć maszyna kwantowa, może odnieść ogromny sukces. Warto zauważyć, że w całej prezentacji nie padło ani jedno słowo na temat ewentualnego zastosowania Oriona do celów kryptografii, a przecież, jak wyjaśnialiśmy wcześniej, jest to wymarzone pole do popisu dla maszyny kwantowej. Są sprawy, o których się nie mówi?
Nie całkiem prawdziwy?
Jeśli przyjrzymy się szczegółom rozwiazania Oriona, zauważymy od razu, że nie jest on procesorem kwantowym w takim sensie, w jakim określa to teoria. Wszystkie ewentualne relacje pomiędzy qubitami są sterowane zewnętrznie – nie ma, jak w teoretycznym komputerze kwantowym czy w opisywanym wcześniej procesorze molekularnym IBM, bezpośrednich oddziaływań pomiedzy qubitami. Herb Martin, CEO D-Wave System sam zresztą przyznał, że Orion nie jest prawdziwym komputerem kwantowym, ale maszyną do specjalnych zastosowań, wykorzystującą zjawiska kwantowe.
Ta „niepełna kwantowość” wzbudziła, oczywiście, falę głosów sceptycznych tym bardziej, że pokaz, który odbył się w kalifornijskim Computer History Museum był pokazem niejako wirtualnym – demonstrowana maszyna znajdowała się w tym czasie w siedzibie firmy w Kanadzie. Jednak nawet sceptycy wykazują równocześnie umiarkowany optymizm. Najlepiej ilustruje to wypowiedź Lievena Vandersypena z Uniwersytetu w Delft „jest dość znamienne, że oni (D-Wave) muszą nakłonić inwestorów do wyłożenia w tej dość wczesnej fazie prac całkiem sporych pieniędzy” – mowa o 414 milionach dolarów. Czyli pokaz jako przynęta dla inwestorów? Jednak w dalszej części wypowiedzi Lieven Vandersypen uwalnia D-Wave od niejasnych podejrzeń o „naciągactwo” – „Wygląda na to, że oni maja jasną wizję drogi rozwoju komputera kwantowego i wiedzą, jak ją realizować. Co z tego wyjdzie – czas pokaże”.
Od autora
D-Wave nie udostępniło, niestety, żadnych informacji dotyczących funkcjonalnych rozwiązań technicznych Oriona – zarówno samego procesora kwantowego, jak i jego otoczenia. Prezentowany tu obraz chipu pozyskaliśmy drogą... nie w pełni legalną, zaś niektóre z podanych wyżej informacji stanowią wynik „dodania 2 do 2” ze szczątkowych danych ujawnionych przez D-Wave i publikowanych prac naukowych.
Przedstawiony tekst zawiera szereg uproszczeń i przemilczeń - chodziło o przybliżenie Czytelnikowi idei komputera kwantowego i jego drogi rozwoju.