•
Mika Hirvensalo
Algorytmy kwantowe
•
Spis
treści
Przedmowa do wydania polskiego
6
Przedmowa do drugiego wydania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Z przedmowy do pierwszego wydania . . . • . . . • • • . . . . . • . . . . . . . . . . .
1O
1.
Wstę p
.................. ................ ...... ...... . •
1.1. Krótka histori a obliczeń kwantowych . . • • • • • • 1.2. Fizyka klasyczna . . . . . . . . . . . . . . . . . . . • • • • • 1.3. Układy probabilistyczne . . . . . . • • • • . . • • • • . . 1.4. Mechanika kwantowa . . . . . . . . • • • . . • • • . . .
.••••••. . .•••. •••• .•. . . •••. .••••....
..• .•• .•• .•.
. . . .
13 13 14 16 18
2. Infor macja kwa ntowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.
Bity kwantowe . . . . . . . . . . . Rejestry kwantowe . . . . . . . . Twierdzenie o nieklonowaniu Obserwacja . . . . . . . . . . . . . Teleportacja kwant owa . . . . . Kodowanie su pergęste . . . . . Za dania . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.... .... .... .. .. . ... . ... .. ..
. . . . . . .
. . . . . . .
... . •. ... ... .. . ... ...
.... ... ....... ..... .. ...... . .•..... .. .. ... .......
....... ... .... ....•.. ....... ...••.. ..... .. .. . •. . .
. . . . . . .
24 28 32 34 36 40 41
„
3. Maszyny obliczeniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.1. Obliczenia jednostajne . . . . . . . . . . . . . . . . . . . . . . . . . . . • • . 3.1.1. Maszyny Turinga . . . . . . . . . . . . . . . . . . . . . . . . . . • • . 3.1.2. Probabilistyczne maszyny Turinga . . . . . . . . . . . . . . . . . 3.1.3. Wielotaśmowe maszyny Turinga . . . . . . . . . . . . . . . . . 3.1.4. Kwantowe maszyny Turinga ............... ~ . . . . . 3.2. Obwody . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 . Obwody logiczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2. Obwody odwracalne . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3. Obwody kwantowe . . . . . . . . . . . . . . . . . . . . . . . . . . .
.. .. .. .. .. .. .. .. ..
42 42 45 50 51 55 55 57 60
4. Szybka fa ktoryzacj a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.1 . Kwantowa t ransformata Fouri era . . . . . . . . . 4.1.1 . Podstawy . . . . . . . . . . . . . . . . . . . . . . 4.1.2. Transformat a Hadamarda-Walsha . . . . 4.1.3. Kwantowa transformata Fouriera w Zn 4.1.4. Uwagi o złożoności . . . . . . . . . . . . . . 4.2. Algorytm faktoryzacji Shora . . . . . . . . . . . . . 4.2.1. Od okresowości do faktoryzacji . . . . . 4.2.2. Rzędy elementów w Zn . . . . . . . . . . . 4.2.3. Znajdowanie okresu . . . . . . . . . . . . . .
....... ...... .. ............... . . .. . . . . . . . •. . .
.............. ............... ............... ........... ....
.......... ..... .......... .....
63 63 65 67 71 73 73 75 78
3
4.3.
Prawdopodobieństwo poprawności
. ... . .. .. . . 4.3.1. Przypadek łatwy . . . . . .... . .... . . . .... 4.3.2. Przypadek ogólny . . . . . . . . . . . . . . . . . . . . 4.3.3. Złożoność algorytmu faktoryzacji Shora . . . 4.4. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. '. . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
81 81 82 87 88
5. Znajdowanie ukrytej podgru py . . . . . . . . . . . . . . . . . . . . . . . 89 5.1. Uogólniony algorytm Simona . . . . 5.1.1. Wiadomości wstępne . . . . . 5.1.2. Algorytmy . . . . . . . . . . . . . 5.2. Przykłady . . . . . . . . . . . . . . . . . . . 5.2 .1. Znaj dowanie rzędu . . . . . . . 5.2.2. Logarytm dyskretny . . . . . . 5.2.3. Oryginalny problem Simona 5.3. Zadania . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
6. Algoryt m wyszukiwa nia Grovera
. . . . . . . .
. . . . . . . .
. . . . . . . .
.. .. .. .. .. .. .. ..
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
•. .. .. .. •. .. .. ..
. . . . . . . .
. . . . . . . .
... ... ... ... .•. .•. ... .•.
. . . . . . . .
. . . . . . . .
.. . ... ... ... .•. ... .•. ...
. . . . . . . .
90 90 91 96 96 96 97 98
. . . . . . . . . . . . . . . . . . . . 99
6.1. Problemy wyszukiwania . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1. Problem spełnia l ności . . . . . . . . . . . . . . . . . . . . • . . . . 6.1.2. Wyszukiwanie probabilistyczne . . . . . . . . . . . . . . . . . . 6.1.3. Wyszukiwanie kwantowe z jednym sprawdzeniem . . . 6.2. Metoda wzmacniania Grovera . . . . . . . . . . . . . . . . . . . . . . . 6.2.1. Operatory kwantowe dla algorytmu wyszukiwania Grovera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2. Wzmacnianie amplitudy . . . . . . . . . . . . . . . . . . . . . . . 6.2.3. Analiza met ody wzmacniania . . . . . . . . . . • . . . . . . . . 6.3. Zastosowania metody wyszukiwania Grovera . . . . . . . . . . . . 6.3.1. Wyszukiwanie w przypadku nieznanej liczby rozwiązań
. . . . .
. . . . .
. 99 . 99 . 1OO . 102 . 106
. . . .
. . . .
. . . .
106 107 111 116 116
7. Dolne ogran iczenia na złożoność dla obwodów kwantowych . . .... . . . . .. . . . .. . . . .. . . . . 120 7 .1. Zarys metody . . . . . . . . . . . . . . . . . . . . . . • . . 7. 2. Reprezentacje wielomianowe . . . . . . . . . . . . . 7.2.1. Wiadomości wstępne . . . . . . . . . . . . . . 7.2.2. Ograniczenia na stopień reprezentacji . . 7 .3. Dolne ograniczenie dla obwodów kwantowych 7.3 .1. Ogólne dolne ograniczenie . . . . . . . . . . 7.3.2. Przykłady .. . . . .. . . . . . .. . . . . . .. . .
..•.. ..... ..... ..... ..... ..... . ....
. . . . . . .
.... .... .... .... .•.. .. . . . . ..
.... .... .... .... .... .... . ...
120 121 121 125 128 128 131
8. Dodat ek A. Fizyka kwantowa . . . . . . .. . . . .. . . . . . .. . . .. 133 8.1. Krótka historia teorii kwantów . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2. Matematyczna struktura teorii kwantowej . . . . . . . . . . . . . . . . . 8.2.1. Przestrzenie Hilberta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.2. Operatory . . .... . . . .... . . . ... . . .......... . . ... 8.2.3. Reprezentacja spektralna operatorów samosprzężonych . . 8.2.4. Reprezentacja spektralna operatorów unitarnych . . . . . . .
4
133 135 137 138 143 146
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta . . . . . . . . . . 8.3.1. Kwantowa ewolucja czasowa . . . . . . . . . . . . . . . .. . . . . . . 8.3.2. Obserwable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3. Zasada nieoznaczoności . . . • • • • • • . . . . . • • . . . . . . . . . . 8.4. Stany kwantowe jako operatory . . . • • • • . . . . . . . . . . . . . . . . . . 8.4.1. Macierze gęstości ... ........ ••• .... .. .. : ... .. . . : 8.4.2. Obserwable i stany mieszane . . • • . . . . . . . . . . . . . . . . . . 8.4.3. Stany podukładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.4. Wi ęcej o ewolucji czasowej . . . . . . . . . . . . . . . . . . . . . . . . 8.4.5. Twierdzenia o reprezentacji . . . . . . . . . . . . . . . . . . . . . . . 8.4.6. Twierdzenie Jozsy o klonowaniu i usuwaniu . . . . . . . . . . . 8.5 Zadania ....... . .. .............................. „ . .
150 151 153 156 161 162 164 169 178 179 188 190
9. Dodatek B. Podstawy matematyczne .......... . ...... 192 9.1 . Teoria grup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 . Wiadomości wstępne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.2. Podgrupy, wa rstwy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.3. Grup ilorazowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.4. Grupa Z~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.5. Homomorfizmy grup . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.6. Iloczyn prosty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2. Transformaty Fouriera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1. Charaktery grup abelowych . . . . . . . . . . . . . . . . . . . . . . . 9.2.2. Ortogonalność charakterów . . . . . . . . . . . . . . . . . . . . . . . 9.2.3. Dyskretna transformata Fouriera . . . . . . . . . . . . . . . . . . . . 9.2.4. Odwrotna transformata Fouriera . . . . . . . . . . . . . . . . . . . 9.2.5. Transformata Fouriera i periodyczność . . . . . . . . . . . . . . . 9.3. Algebra liniowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1. Wiadomości wstępne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.2. Iloczyn wewnętrzny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4. Teoria liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1. Algorytm Euklidesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.2. Ułamki łańcuchowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5. Entropia Shannona i informacja . . . . . . . . . . . . . . . . . . . . . . . . . 9.5.1. Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5.2. Informacja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5.3. Ograniczenie Holevo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
192 192 193 194 196 199 200 201 201 204 206 208 209 209 209 212 215 215 217 225 225 229 231 232
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Indeks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Przedmowa do wydania polskiego
Od l?edakcji Seria ldee, nietody i na1zędzia infonnatyki przynosi pozycje, dotyczące aktualnych i \vażnych problen1ów informatyki z różnych jej dziedzin. Naszyn1 zamierzenien1 jest, by pozycje te - będąc na \vysokim poziomie nauko\vym - były jednocześnie przystępne dla szerokiego kręgu odbiorców: praco\vnik.ów naukO\yYCh, informatyków, studentów, ale również dla zainteresowanych informatyką specjalistów innych dziedzin i uczn iów starszych klas liceów. W tym względzie seria nin iejsza kontynuuje rnisj9 WSiP jako domu \vydawniczego, który pomaga uczyć się \V czasach, gdy ciągłe zdobywanie \Viedzy staje się koniecznością i 'vyzwaniem. W serii \vydawane będą pozycje zaró\vno autorów polskich, jak i pozycje tłu maczone na język polski. Op iekę nad serią w zakresie budowania oferty oraz nadzoru naukowego sprawuje Rada Naukowa, \V skład której wchodzą znani i cenieni profesorowie \vyższych uczelni: • Prof. dr hab. Lech Polkowski, Polsko-Japońska Wyższa Szkoła Technik Kon1putero\vych, Uni\versytet Warmińsko-Mazurski - przc\vodniczący (
[email protected]);
• Prof. dr hab.
inż.
Tadeusz Kaczorek, Politechnika Warszawska
(
[email protected]);
• Prof. dr hab.
inż.
Robert Schaefer, Uni\versytet
Jagielloński
( schaefer@sof tla b. ii. uj .edu. pl);
• Prof. dr hab.
inż.
Andrzej Skowron, Uniwersytet Warszawski
(
[email protected]);
• Prof. dr hab.
inż.
Ron1an Słowiński, Politech nika
Poznańska
( slowinsk@sol. put. pozna n. pl). W ramach serii ukazały się już:
• /11111ownie danych. Podstawy organizacji i f1111kcjonowa11ia, Matthias Jarke, Maurizio Lcnzerini, Yannis Vassiliou, Panos Vassiliac.lis; • Wprowadzenie do języka XHTML. 1ivorzenie dy11a111icznych stron WWW z wykorzysta11ien1 XHTML i Ja1raScrip1, John Co,vełl; • Algory1111y J..,vantowe, Mika Hirvcnsalo; • WyZJvania progran1istyczne, Steven S. Skiena, Miguel /\. Revilla. W nadziei, że seria spotka sir; z przychylny1n przyj9cicn1 ze strony Czytelników, n1y miłej lektury.
6
życzy
Od Tl111nnczn
Obficzenia k\vanto\ve cieszą się \V ostatnich latach ogromnym zaintereSO\Vaniem. Przyczyną tego jest fakt, że zastoSO\vanie komputcrÓ\V k\vanto,vych St\varza nadzieję na znaczną redukcję czasu \yYkOnY\vania obliczeń dla \vielu praktycznych problemów, np. dla przeszukhvania baz danych. W przypadku algorytn1u faktoryzacji, mającego zastoSO\vanic \V kryptografii, istnieje na,vct niożlhvość pokonania bariery \vykładniczej złożoności obliczenio\vej. Przewaga komputerów kwantowych nad klasycznymi ma swoje źródło w kwanto\vej równoległości obl i czeń: informacja \V n1aszynie k\vantowej jest repreze1ltO\Vana przez stany kwantowe - wektory z przestrzen i Hilberta, a obliczenia dokonY\vane S
„
Przedmowa do drugiego wydania
Pienvsze \vydanie tej książki spotkało się z bardzo pozyty\vnym przyjęciem, a \vielu czytelników propono,vało ulepszenia i poprawki. Wszystkie te U\vagi były dla n111ie niezwykle pomocne. Często sugero,vano też, abym szerzej omóv.1il zagadn ienie informacji kwantowej. Obawian1 się jednak, że próba przcdsta\vienia pełnej teorii inforn1acji k\vanto,vcj spo,vodov.1 ałaby, iż książka stała by się zbyt rozproszona, przez co n1ogłaby stracić \va lor edukacyjny. Przyznaję jednak, że niektóre aspekty informacji k\vantowej należy omó,vić. J uż w pierwszym \vydaniu książ ki przytaczałen1 tzw. twierdzen ie o nieklono\vaniu. W \vydaniu drugi1n dodałem silniejszą \versję tego twierdzenia, zapropono,vaną przez R. Jozsy, obejmując<} także zasadę nicusu,valności. Ponadto książka za,viera teraz słynne protokoły komunikacji, takie jak teleportacja kwanto,va. Komentarze czytelnikó\v do pierwszego wydania u t w ierdzi ły n1nie w przekonaniu, że książka ta ma służyć przede wszystkin1 jako podręcznik. Z tego 'vzględu zdccydo,vał em się nie oma,viać tu innych aspektó\v teorii informacji kwanto,vcj. Czytelnikom zainteresowanym tymi zagadnieniami polecam książki (43] autorst\va Josefa Gruski oraz [62] Michaela A. Nielsena i Isaaca L. Chuanga. Rozdział ·1., w szczególności podrozdział 1.4, za,viera najbardziej podstawo\ve \viadomości o układach k\vanto,vych, istotne z punktu \Vidzenia obliczeń k\vantowych. Podstawowe \Vłasności informacji kwantowej omówione S~) w rozdziale 2. W rozdziale tym za,varte zostały także cieka,ve protokoły kon1unikacyjne: teleportacja k\vantcl\va oraz kodo,vanie supergęste. Rozdział 3. ma następujący układ. W podrozdziale 3.1 'vpro,vadzamy maszyny Turinga oraz ich probabilistyczne odpo,viedniki jako tradycyjne, jednostajne 1nodele oblicze!). Z n1yślą o czytelnikach zainteresov.1anych obliczen ia111i k\vanto\vymi, lecz niezaznajomionych z teorią obliczei1, w podrozdziale ty111 urnieściliśmy także definicje podsta\VO\yYCh pojęć z teorii złożoności. Podrozdział 3.1 przeznaczony jest dla czytelników posiadających solidne podsta'vy n1echaniki kwantowej, ale niewi e l ką wiedzę na ten1at klasycznej teorii obliczeń. Czytelnicy, którzy \V teorii obi iczeń czują się swobodnie, mogą opuścić podrozdział 3.1 - do zrozumienia materiału za,vartcgo \V książce 'vystarczą im: rozdział 2. oraz podrozdział 3.2 (z 'vyłączeniern podrozdziału 3.2.1). W podrozdziale 3.2 jako modele obliczeń zostały przedsta\vione obwody logiczne i ob,vody kwanto\ve (stano,viące rozszerzen ie pojęcia obwodów od,vracalnych). Z uwagi na przejrzystość zapisu algorytmy kwanto\ve prczentuje111y, korzystając \vłaśnie z ob,vodó'v k\vanto,vych. 8
RQzdział czone są
4. poŚ\vięcony jest słynnemu algorytmO\Vi faktoryzacji Shora. Un1iesztu także wskazówki co do tego, które z podrozdzi ałów czytelnicy mogą pominąć (w zależności od posiadanej wiedzy). Rozdział 5. jest ściśle związany z rozdziałem 4. i może być uznany za uogólnienie algorytn1u Shora. Nie jest to jednak uogólnienie bezpośrednie. W rozdziale 6. zaprezentowana została metoda Grovera poZ\valająca na kwadratowe przyspieszenie obliczeń k\.vantovvych (w stosunku do obliczeń klasycznych). W rozdziale 7. omówiona została nietoda znajdowania dolnych ograniczeń dla obliczeń kwantowych w uproszczonym inodelu obwodów kwantowych. Rozdziały 8. i 9. są dodatkami przeznaczonymi dla początkuj ących . Rozdział 8. bądzie pomocny także dla czytelników nlających solidne podstawy z informatyki i zainteresowanych obliczenian1i kwantowymi. Rozdział 9. stanowi przegl ąd różnych dzi ał ów n1atematyki - w algorytmach kwantowych znajduje bowiem zastosowanie wiele na pozór niezwiązanych ze sobą dziedzin. Ponadto z mojego doświadczenia wynika, że podsta\vowe wykształcenie z informatyki i fizyki bardzo rzadko obejmuje wszystkie tematy zawarte w rozdziale 9. Podziękowania . Fakt, że pojawia sią drugie wydanie tej książki jest zasługą Ingeborg Mayer. Chciałbyn1 jej serdecznie podziękować za niezwykle 1niłą atmosferę współpracy. Jestem także •vdzięczny wszystkim czytelnikom pie1wszego wydania, którzy przysłali mi propozycje ulepszeń i poprawek. Turku, Finlandia,
październik
2003
Mika Hilvensalo
Z przedmowy do pierwszego wydanja
Dwudziesty wiek przyniósł idee, które zrewolucjonizo\vały nauki fizyczne. W konsekwencji tradycyjny obraz Ś\viata, \V)l\Vodzący się jeszcze z czaSÓ\V Ne\vtona, a na,vet Galileusza, uległ radykalnej zrnianie. Teoria \vzględności, st\vorzona przez Alberta Einsteina, posłużyła do opisu zacho,vania olbrzymich układó,v, będących przedmiotem badań astronomii. Z drugiej strony mechanika kwanto,va pOZ\VOlila na modelowanie zj
Mianowicie każdy element łańcucha może być reprezentowany przez układ fizyczny, który n1oże się znajdo,vać w określonym stanie, tzn. zawi erać j akiś znak alfabetu (poprzez zapamiętanie w pamięci komputera, zapisanie na piasku itd.). Ponadto pO\vinniśmy mieć możli,vość bezbłędnej identyfikacji stanów, czyli przeprowadzania obse1wacji w taki sposób, aby być pewnyn1, że badany układ reprezentuje dany znak. W książce tej będzierny utożsan1iać alfabet z rozróżnia l nymi stanarni układu fizycznego, które reprezentują inforrnację. Stany te nazywane są stana111i bazo,vyn1i. W układach kwanto,vych także wyst9puj ą rozróżnialne stany bazowe, tak \vięc ró\vnież tych układów można użyć do zapisu informacji. Jednak w przeciwicńst>vie do układów klasycznych, układ kwantowy może znajdo\vać się w stanic będącym superpozycją stanów bazowych. Móv.-iąc nieprecyzyjnie, oznacza to, że stan takiego układu 1noże być ko n1binacją stanów bazo\vych. Infonnację zapisaną w układzie kwanto\vym będzie111y nazywać inforn1acją k\vantową . W fizyce klasycznej także można mó\vić o kombinacjach stanów bazowych: możemy przygotować układ w stanie mieszanym, będącym \V istocie rozkladem prawdopodobicfistwa stanÓ\v bazowych. Istnieje jednak podstawo\va różnica 1niędzy superpozycją stanÓ\V \V fizyce kwantowej a rozkładem prawdopodobieństwa w fizyce klasycznej - ze \VZględu na 'vystępowanie efektów interferencyjnych, superpozycja nie może być interpretowana jako 1nieszanina (rozkład pra\vdopodobiefistwa) stanów bazowych. Richard Feynman w swojej pracy (38], opublikowanej w 1982 roku, zwrócił U\vagę, że efekty\vna syn1ulacja e\volucji czasowej układu kwa ntowego przy użyciu zwykłego kon1putera będzie niezwykle trudnym zadanie111. Pokazał on także, że gdyby obliczenia przeprowadzać na kon1puterze działającym zgodnie z pra\van1i fizyki k\vantO\vej, to symulacje tego rodzaju byłyby łatwiejsze do zrealizowania. Tym samym zasugerował on, że efekty\vność kon1putera kwantowego nloże być znacząco większa niż jakiegokohviek kon1 putera klasycznego. Wl
\vzględu, jako pozycję uzupełniającą, gorąco polecam książkę (43] Josefa ski, która zawiera ró\vnież bardzo \Viele odnośnikó\v do prac Z\viązanych
Gruz ob-
liczeniami k\vanto\vymi. Czytelnicy bardziej zaintcrcso\vani fizyką mogą się gn
Turku, Finladia, luty 2001
Mika Hi1ve11salo
1 Wstęp 1.1. j Krótka historia obliczeń kwantowych Z punktu \vidzenia złożoności obliczeniowej, początki teorii obliczeń k\vanto\vych sięgają \vczesnych lat 80. XX \vieku. Znany fizyk amerykański Richard P. Feynman, laureat Nagrody Nobla, \V S\vojej pracy (38] z 1982 roku sl:\vierdzil, że przy symulacji na z,vykłym komputerze układu k\vanto\vego, składają cego się z R cząstek, nie da się uniknąć \vykladniczego \vzrostu czasu obliczeń ze \vzrostem R. Z drugiej strony w symulacji układu złożonego z R cząstek w fizyce klasycznej następuje jedynie wielotnianowy \vzrost czasu obliczeń. Różnica ta \yYnika z różnej liczby zmiennych potrzebnych do opisu układów : \V fizyce klasycznej ilość parametrÓ\V rośnie łinio,vo ze \VZrostem R1, natomiast \V przypadku układó\v k\vantO\yYCh - \vykładniczo (\v podrozdziale 1.4 zapoznamy się dokładniej ze sposobem opisu ukladó\v k\vanto\vych). Feynman \yYraził to \V następujący sposób: Pełny
kwantowon1echaniczny opis dużego układu składającego się z R czą stek dany jest funkcją 7/J(x1, x2, ... , XR, t), Z\Vaną an1pl itudą pra\vdopodobiellstwa zarejestrowania cz<1stek x 1, x2, ... , xn. Funkcja ta zależy jednak od zbyt wielu zmiennych, co po,voduje, że symulo\vanie jej na Z\vykłyn1 kon1puterze z liczbą elementów proporcjonaln<1 doR lub N jest niemożlhve. (38) Feynman \vysunął też hipotezę, że problem ten 1nożna by ominąć, gdyby do obliczell zastosować komputer działający \Vedług pra\v fizyki k\vanto\vej. Pon1ysł ten sugeruje, przynajn1niej implicite, że komp uter lovanto\vy móglby \vykony\vać obliczenia znacznie szybciej niż klasyczna detern1inistyczna maszyna obliczeniowa. W pracy [381 Feynman poruszy! także problem symulacji układu k\vanto,vego na komputerze probabilistycznym, jednak ze względu na zjawiska interferencji wydaje s ię to być trudnyn1 zadaniem. Konstrukcję modelu obliczeń k\vanto,vych przedsta,vił także Benioff [7] \V 1982 roku, jednak według Deutscha [31] możlhva jest dokładna symulacja tego modelu na Z\vyklym komputerze. W 1985 roku Deutsch \V znakomitej pracy [31) pienvszy zapropono\vał \V pełni k\vanto'vy model oblic:leń oraz podał opis unhversał nego komputera k\vanto,vego, ustanawiając ty111 san1y1n solidne podsta\vy teorii obliczeń kwanto\vych; w późniejszej pracy [32] zdefiniowal także sieci kwa1ltO\Ve. Model unhvcrsalncj lovanto\vej maszyny Turinga zostal ulepszony przez Bernsteina i Vaziraniego w pracy (13), gdzie autorzy podali konstrukcję uniwersalnej k\vanto\vej maszyny Turinga, umożli,viającej symulację do,volnej k\vanto\vej maszyny Turinga ,.,, czasie \vielomiano\yYlll. Po pionierskich pracach Deutscha obliczenia k\vanto,ve ciągle byly trakto\vane jedynie jako cieka,vostka. Sytuacja zmieniła się dopiero \V 1994 roku, kiedy to 1
Trzeba określić z odpowie dni
1. Wst
Peter W. Shor przcdsta\vil S\VOje słynne algorytmy kwanto\VC, poZ\va lającc na rozkład liczb na czynniki pienvsze oraz znajdo,vanie logarytmów dyskretnych \V czasie '''ielorniano,vym [81]. Znaczenie faktoryzacji jest dobrze znane: nicza,vodność kodu RSA uży.vanego \V kryptografii opiera się na założeniu, że faktoryzacja dużych liczb jest \V praktyce zadaniem nieroZ\viąZJ'vałnym. Shor pokazał, że nic jest to prawdą, gdyby niieć do dyspozycji komputer kwantowy. Należy jednak podkreślić, że teoria znacznie \vyprzedzila techn ikę, gdyż komputera k\vanto\vego o znaczącej mocy obliczenio,vcj na razie nic udało się zbudo\vać. Główna trudność polega na tym, że konstrukcja takiego komputera wymaga spełnienia sprzecznych \varunków. Z jednej strony, aby zapob i egać zakłóceniom, pamięć komputera będąca układern kwantowym o skali niikroskopo,vcj musi być odseparo,vana od otoczenia najlepiej, jak to jest możlhve, aby uchronić delikatną superpozycji; stanó\v k\vanto,vych. Z drugiej strony „kwan towa jednostka obliczcnio,va" nic może być jednak całkowicie odizolo\vana od świal."<1 ze\vnętrzn ego, gdyż \ V trakcie tnvania obli czeń po,vinna istnieć możlhvość \VPIY'vania na ich przebieg. W zasadzie problem 'vystępowa nia nickontrolo\vanych blędó\v nie jest no\vy: \V klasycznej teorii informacji przesylane wiadon1ości n1 ogą być zaburzane przez szun1. Zadanien1 odbiornika jest \vydobycie prawidło,vej infonnacji ze zniekształconych danych bez kon ieczności transmisji dodatkonJ'Ch informacj i. Zagadnieniem tym zajrnuje się klasyczna teoria kodó\v samokorygujących [57J, której podsta\VO\vy 'vynik można za Claude'em Shannonem 'vyrazić następuj ąco: j eżeli poziom zakłó ceń nie jest zbyt \vysoki, to istnieje system kodo\vania poZ\valajt1cy na zn1niejszenie pra\vdopodobieńst\va \vystąpicnia blędó\v transmisji danych do do,volnic niskiego poziornu. Począ tkowo u\vażano, że analogiczna procedura dla ob liczeń k\vanto,vych nie jest rnożli,va na\vet w teorii. Gió,vnych argun1ent61v dostarczalo t\vierdzenic o nieklono1vaniu (91 ], które głosi, że dokladne kopiowanie infornHtcji kwanto\vcj jest niemożli,ve. Dopiero Shor \V pracy [82] pokazał, jak można 'vpro1vadzić korekcji; błędów w komputerze k\vanto,vym, l\vorząc tym sarnyrn podsta1vy kwantowej teorii kodów sa rnokorygujących . Czytclnikon1 bardziej zaintcrcso,vanym tym zagadnieniem polecamy na przykład pozycję [24]. Zdaniem J. Prcskilla, prace nad problcmern kwanto1vej korekcji blrydó1v rnogą pc,vnego dnia clopro\vadzić do zbudo1vania komputera k\varlto\vego o zn aczącej mocy obliezcnio,vej (72].
1.2. IFizyka klasyczna Fizyka \V dzisiejszym rozumieniu jest teorią opisującą całą przyrodę. Teoria ta jest OCZJ'viście zbyt bogata, abyśmy mogli ją tu szczcgólo1vo przedsta1vić. Ograniczyrny się zatem do on1ó,vicnia tych aspcktó1v, które mają istotne znaczenie dla zrozun1ienia różn ic niiędzy obliczeniami klasycznyrni i kwantO\vy111i. W S\vojcj istocie fizyka jest nauką empiryczną \Vtakirn sensie, że teoria fizyczna zostaje uznana za pra1vdzilvą jedynie \vtcdy, gdy jej prze\vidY'vania zgadzaj
1.2. Fizyka klasyczna
z wynikami eksperymentu. W związku z tyn1 nie powinno nikogo dzi\vić, że w naukach fizycznych bardzo \Vażną rol ę odgrywa pojęcie obscrwabli 2. Przykładami obsenvabli związanych z układem fizycznym są np. położenie i pęd. Pełny opis układu fizycznego nazywamy stanem układ u. Przykład
chcemy opisać mechanikę pojedynczej cząstk i X, znajdującej się w zamkniętyn1 obszarze przestrzeni. Do opisu układu \vykorzystujen1y dwie obse1wabłe: położeni e i pęd. Możen1y zatem, przy ustalonym układzie współrzędnych, rep rezento,vać stan układu jako wektor3 X= (x1,Xz, X3,p 1, p2, p3) E lR 6, gdzie (x1 ,X2,X3) oraz (p1 , f'2,p3) opisują odpowiednio położenie i pęd. Jeżeli cząstka się porusza, to stan układu zmienia się \V czasie. W mechanice klasycznej ewolucja czaSO\va stanu opisana jest ró,vnaniami ruchu Hamiltona: c1
dt
1.2.1.
Załóżmy, że
a
X;= ~H,
up,
gdzie H =H(x 1, x2, x3,p 1, p2, p 3) jest
obsenvabłą naży\vaną
hamiltonianem
układu.
Jeżeli
do układu chcielibyś111y dodać teraz nową cz
W n1cchanicc klasycznej obscnvablc noszą Z\vykle nazwę zmiennych dynamicznych. Autor używa tu tern1inu wektor do określenia ele1n entu abstrakcyjnej przestrzen i ' wektorowej - przyp. red.
i5
1. Wst
• Stan układu zależy od czasu, \vięc \V zasadzie zan1iastx \vektor stanu po\vinniśmy oznaczać przez x(t) lub x,. Jeżeli układ jest \vystarczaji1co regularny, tak jak mechanika klasyczna, to stan układu \vyznacza także stany \V przyszłości (a także w przeszłości). Można \vięc znaleźć taką funkcję U„ że x(t) = U,(x(O)). Funkcja ta zależy OCZY\Viście od \Vłasności samego układu. W naszym przykładzie U, jest wyznaczone przez harniltonian (za pośrcdnic t,vcn1 równafi ruchu Newtona). • Jeżeli dwa układy są opisane stanami x orazy, to stan ukladu po'vstalcgo z ich połączenia będzie iloczynen1 kartezjańskim \Vektoró\v stanu podukladó,v(x, y).
1.3. I Układy probabilistyczne Zani n1 omówimy niektóre szczególne \vłasności opisu ukladó\v kwantowych, musirny najpierw zapoznać się z układan1i probabiłis tyczny1ni . Układ probabilistyczny charakteryzuje się tym, że nie zna1ny jego stanu z cał ko\vitą pe\voością, znamy natomiast rozkł ad prawdopodobieńshva dla stanó,v: \vien1y, że układ może znajdo,vać się \V stanach x 1, x2 , ... , x„ z pra\vdopodobicńsl\vami odpo,vicdnio p 1, /J2, . ... p„ takimi, iż p 1 + ... + p„ = 1 (jeżeli mielibyśmy do czynienia z kontinuum stanó\v, tak jak \V przykladzie 1.2.1, to znak sumy po\Vinniśmy \vtedy zas1<1pić całką, jednak dla uproszczenia będziemy rozpatry\vać jedynie układy o skoficzoncj liczbie stanów). Wyrażenie /Jl [xi) + P2ix2) + ... + p„[x„],
(1.1)
gdzie p; > O oraz p 1 + ... + p„ = I, reprezentuje rozklad pra,vdopodobień snva i oznacza, że układ znajduje się \V stanic x; z pra\vdopodobieńsl\vcm p;. Rozkład (1.1) naZY\vany jest także stanen1 1niesza nym, natomiast stany x; są tzw. stanami czystyn1i. Zaznaczmy wyraźnie, że wyrażenie (1.1) nie oznacza \vartości oczekhvanej (wartości śred niej ) P1X1
+ P2X2 + ... + p„x„ E rrnk Il'- ,
a jest jedynie rozkładem Prlykł ad
pra\vdopodobieńst,va
(1.2)
stanó\v x;.
1.3.1. Przy rzucie symetryczną 1noncti1 pra\vdopodobierlsnvo uzyska-
nia zaró,vno orła o, jak i reszki r wynosi ~. Zgodnie z mechaniką klasyczną niożna by p rzyjąć, że peł na \vicdza o n1011ccie oraz \varunkach rzutu pozwala prze,vid:óeć \vynik z calko\vitą pe,vnością. Jednak \V praktyce nicn1ożlhve jest uwzględnienie \vszystkich okoliczności zdarzenia,'" Z\viązku z czyni stan ukła-
du reprezentO\vany jest przez stan mieszany~ LoJ + 4[r), co odz,vicrcicdla niepełny charakter naszej \viedzy o ukJadzic.
16
1 .3.
Układy
probab1l1styczne
Każdy układ nioż n a uczyn ić
probabilistycznyn1 przy u życ iu układu pomocniczego. W rzecz)'\vistości \V ten sposób konstruo1vane są algorytmy probabilistyczne: algorytrn sam 1v sobie jest ściśle detern1inistyczny, natomiast korzysta on z łatlvo dost9pnych bitó\v losowych. 4 Przykł ad
Za lóżn1y, że e1volucja czaso1va układu ze stanami zal eży dodatko1vo od ukladu pomocniczego ze stanami
1.3.2.
czysty1ni x 1, x2, ... , x11 czystyn1i o oraz r , 1v taki sposób, że stan układ u złożonego (x;, o) przechodzi'" ustalonym przedziale czasu 1v stan (x0 c;l, o), natorniast stan (x;, r ) przechodzi'" stan (x,"(il• r ), gdzie o, r : { I ..... 11} ,__, { l , .. . , 11} są pe1vnymi funkcja rni. Uk ład pomocniczy ze stanan1i o oraz r moż na zatem u1vażać za układ sterujący, określający zacho1vanie układu pienvotnego. Roz1vażn1y teraz układ sterujący, któ1y znajduje si9 w stanie niieszanym p1 l oj + + P2(r ] (1v przypadku, gdy P1,fJ2 °1- ~ uklad sterujący naz1vie1ny monetą niesymetryczną) .
Wtedy stan zlożony ma
postać
Pi f(x;, o)J + P2[(x;, r )]
i 1v 1vyniku e1volucji przechodzi'" stan P1 l(Xo(i)> O))+ P2((x,,;,, r )). W przypadku, gdy uklad pomocniczy nie zakłóca uktadu pier1votnego, n1oże n1y go pomin
+ P 2 [Xr(i) ].
Układ sterujący 111 stanie n1ieszanyn1 naZ)'lvany jest randomizeren1. Zakłada j ąc, że randomizery za1vsze są dostępne, 1nożna przyj<)Ć, i ż rozpatf)11vany układ zn1ienia się 1v sposób przypadko\vy i zignoro1vuć obecność rando1nizera. WprO\vadzając ogólniejsze poj ęcie randomizera, 111ożemy pojęcicl\VO uprościć problem oraz uzyskać bardziej przejrzysty zapis. Załóżn1y, że ewolucja czaso-
wa układu nie jest cletern1inistyczna i układ zmienia się 111 taki sposób, iż dy stun X; przechodzi \V rozkład x; ,__. P i;[xi] + P2;[x2J + .. . + p„;[x„],
każ
(1.3)
i. \V ró1vnaniu (1.3) wie lkość /Jji jest prawdopodobieńst,.ven1, że układ znajdujący się 1v stanie x; przejdzie do stanu Xj . Założyłiśn1y tu, że czas przyj inuje wartości dyskretne, co up raszcza matematyczny opis i dobr;:e nadaje się do dyskusj.i aspektó1v obliczenio11 ych. Możcrny bo\vien1 założyć, że znamy stan uk ł adu \V ch1vilach oddzielonych krótkin1i odstępa1ni i 1v każdyn1 przedziale układ zmienia się zgodnie z ró1vnaniem (1.3). 0CZ)'lviście układ nie n1usi za1vsze e1vołuO\vać 1v ten sam sposób, a zn1iana stanu uklad u 1noże być różna dla poszczególnych przedz ia łó\v. gdzie p 1; + . .. + p11; = 1 dla
każdego
1
' W klasycznej teorii obliczeń generowanie losowvch ciągów bitów jest bardzo trudnyn1 zadanie1n. Wi9cej infonnacji na ten ten1m mozna znaleźć w podro~działe 11.3pracyf64].
17
1. Wst p
Aby opisać przedstawioną czaso\vą e\volucję probabilistyczną, skorzystan1y z zapisu zastosowanego \V równaniu (lJ ). W da nym przedziale czasu rozkład Pl [X1] + P2[X2] + ... + p„[x„],
(1 .4)
przechodzi w
Pi (P11 [x1 ) + · · · + P111 [x„]) + · · · + P11(P111[X1] + · · · + P1111[X11])
=(p, 1P1 + · · · + P111P11)[x1] + · · · + (P111P1 + · · · + P1111P11)[x11J =p~ [x1 .I+ p~[x2 l + ... + P'.,[x11], gdzie wprowadz iliśmy oznaczenie p; =PilPI + .. . + p;11 p11 . Stąd prawdopodobieństwa p; oraz p; związane są zależnością p~ p~
-
I
P11
P11 P12 P21 P22
P111
Pi
P211
P2
P111 P112
P1111
p„
(1.5)
Zau\vażmy, że
elementy macierzy \V rÓ\Vnaniu (1.5) są nieujemne, a dla każdego i zachodzi Pli + ... + p 11; = 1, co zapewnia spełn ienie ró\vności p; + p~ + + ... + P'., =Pi + P2 + ... + p„ . Macierz o takiej \vłasności nazywa się macierzą Markowa, natomiast układ probabilistyczny zmieniający si9 w czasie w sposób opisany wyżej - łal1cuchen1 Marko,va. Zau\vażmy także, że rozkład
(1.4)
można trakto\vać
jako wektor o nieujemnych współrzędnych (sumujących się do 1) \V n \vymiarowej rzeclY'vistcj przestrzeni wektorowej, z [x 1], ••• , Lx11 ] jako wektorami bazowymi. Zbiór \vszystkich stanó\v mieszanych (rozkladóvv) jest zbioren1 wypuklym 5, a stany czyste są jego ekstremalami. Fakt, że stany 1nieszane są ele1ncnta1ni przestrzeni wektorowej, nie jest tu bardzo istotny, inaczej niż przy opisie ukladó\V k\vantowych. Opis probabilistycznej ewolucji czaso\vej jako przekształcenia Marko\va - tzn. przekształcenia liniowego, w którym przekształcone \VSpólrzędne pozostają nieujemne i sumują się do jedynki - okazuje się niekiedy \vygodny. Wprowadzenie do łańcuchów Marko\va czytelnik znajdzie np. w pracy [75].
1.4. I Mechanika kwantowa Doświadczenia
z fizyki atomowej, przepro,vadzonc na początku d\vudziestego wieku, potwierdzi ły przypuszczenia, że istnieją układy fizyczne niedaj ące się zadowalająco opisać na\vet przy użyciu łańcuchów Marko\va opisanych 5
18
Zbiór \vektorów Sjest wypukły, jeżeli dla każdego x 1, x2 E S oraz p 1, p 2 ;;;: O i tak ich, że p, + P2 = I, zachodzi p 1x, + f72X2 E S. Elemen t zbioru wypuklego x E Sjest ckstrcrnalą, j eżeli z równości x = p, x, + JJ2X2 \vynika, że albo p 1 =O, albo p 2 =O.
1.4. M echanika kwantowa
\V poprzednim podrozdziale. Eksperymenty te omó\vimy dokładniej \V podrozdziale 8.1, tu natomiast przedsta,vimy jedynie matematyczny opis układó\v kwanto,vych. Należy zaznaczyć, że prezentO\vany tu opis, opierający się na pojęciu tZ\v. wektoró\v stanu, nie jest najogólniejszym opisem układó\v k'\vanto'vych. Ogólny formalizm przestrzeni Hilberta podajemy \V podrozdziale 8.4. Zaletą opisu opartego jedynie na \vektorach stanu jest jego maten1atyczna prostota. W przyjętej przez nas tern1inologii pojęcia mechanika kwantowa używamy z,vykle na określenie matc1natycznej struktury opisuj<1ccj fizykę kwantową, którą 111ożna rozun1icć ogólniej. K\van10,vo1ncchaniczny opis układu fizycznego bardzo przypomina opis probabilistyczny Pi [xi] + P2[x2) + .. . + P11[X11],
(1.6)
nien1niej jednak różni się od niego w zasadniczy sposób. W mechanice k\vanto\vej stan 11-poziomo,vego układu jest reprezento\vany prlCZ \vcktor jednostko\vy w 11-\vy1niaro,vej zespolonej przestrzeni \VCktoro\VCj H11 (patrz podrozdział 8.3).6 Przestrzeń H11 nazY'vamy przes trzenią stan6\v układu. Aby to pojęcie zilustrO\vać, 'vybicrzn1y \V przestrzeni stanó'v H 11 bazę orton orn1ał n<1 {Jx1}, . . . , Jx11 )} (za kładamy, że 11 jest sko ńczone). Nietypowa notacja w postaci „ketu" Jx) została \vprowadzona przez P. Diraca i o jej u ży teczności przekonamy się później. Otóż dowolny stan układu k\vantowcgo 1nożn a przedstawić \ V postaci 0 1Jx1} + n2Jx2) + . .. + a11Jx„), ( 1.7) gdzie o:;
liczban1i zespolonymi nazy,vanymi amplitudami pra,vdopodobieńshva ('vzgłędem wybranej bazy). Warunek unormo,vania \vektora stanu 'vymaga, by spełniały one ró,vnanie Jn d 2 + Jo 2 J2 + ... + Ju 11 J2 = I. Należy zaznaczyć, że 'vybór bazy ortonormalncj { Jx1} • ... , Jx„)} jest do,volny, jednak dla ustalonej bazy odpo,viada obserwabli przyjmującej /1 'vartości. Dla up roszczenia nic będziemy \ V tym rozdziale przypisY'vać obsenvablom \Vartości liczbo,vych, a jedynie po,viemy, że ukł ad ma własności x1 , . . . , x„. Wartościami liczbowymi obserwabli zajn1ien1y się \Vpodrozdziale 8.3.2. Amplitudy a; definiuj ą rozktad prawdopodobieilstwa w n astępujący sposób: pra\vdopodobi eń stwo, że układ znaj duj ący si ę w stanie ('1.7) posiada własność X; wynosi Ja:;j 2 (mówimy także, że pra\vdopodobieilsnvo zaobserwowania x; ró\vnc jest Ja;J2). Wektory bazo\ve Jx;) naZY'vanc są stanami bazowymi, a stan (1.7) nazy\Va się s u perpozycją stanów bazowych. Od\vzoro\vanie 1/J(x;) = ex; nazywa się funkcj ą falową \vzgłędem bazy {Jx1), ••• , jx„)} . Chociaż formalizm oparty na \Vektorach stanu jest prostszy niż ujęcie ogólne, ma on jednak pe,vną nie\vygodną cechę: jeżel i stany lx), Jy) E H 11 spc lniają są
6 Skończenie przykładem
wymiarowa p rzestriel1 wektorowa nad przestrteni Hilberta.
ciałem
liczb zespo lonych jest
19
1.
Wstęp
równanie lx) = ei8 1y), to ocz)"viście odpowiada im ten sam rozkład prawdopodobieńsr.va stanów bazo\vych. Dlatego mó\vimy, że takie.stany są ró,vno,vażne i na ogól będziemy je utożsan1iać. Przykład
kwanto'vy może posłużyć do reprezentacji bitu i taki układ nazywa się bitem lovantowym. Wybierając dla takiego układu bazę ortonormal ną {IO), I I)}, n1ożna ogólny stan układu przedstawić w postaci 1.4.1. DwupoziomO\vy
układ
a:olO) + 0:1 Il ), gdzie lo:ol2 + 10:11 2 = 1. Po,vyższa superpozycja oznacza, iż pra\vdopodobiet'1stwa, że układ posiada własności Oi 1, wynoszą ocłpo,vicdnio lo:ol 2 oraz 10:112. Co możemy powiedzieć o ewolucji czasowej układów kwantowych? Macierze Markowa służące do opisu e\volucji czasowej układów probabilistycznych zastępuje się macierzam i, któ1ych elementan1i są liczby zespolone zachowujące wielkość lo 1 l2 + 10:212 + .. . + la:„12 . Stąd układ kwanto\vy będący w stanie
ewoluuje w danym przedziale czasowym do stanu
gdzie amplitudy a: 1, ... , a:„ i a:~, ... , a:;, zw iązane są za leżnością
' ,,./
'-'11
(1.8)
a,,,,
i la:; 12 + la:~l 2 + . .. + la:;,12 = la: 1l2 + la:2 12 + . .. + la:11 12 . Okazuje się, że macierze spełniające ten warunek są unitarne (patrz podrozdział 8.3.1). Unitarność n1acierzy A oznacza, że transpozycja zespolonego sprzężenia A, oznaczana jako A• , jest macierzą odwrotną macierzy A. Macierz A• nazywana jest także niacierzą sprzężoną hermito\vsko 7 do A. Mó,viąc, że ewolucja czasowa układów kwantowych jest unitarna, wielo autorów ma na myśli fakt, iż ewolucja układów kwantowych określona jest przez macierze unitarne. Zauważmy, że unitarność ev,iolucji czasowej ma bardzo ciekawe konsekwencje; oznacza w szczególności, że ewolucja czasowa układu kwantO\vego jest od,vracalna. 1 Wśród
autorÓ\V będących fizykami panuje powszechna tradycja oznaczania sprzęże nia hern1itowskiego n1acierzy przez At .
20
1.4. Mechanika kwantowa
RzecZ)'\viście,
(a1, ... , a 11 ) można całkowicie odl\vorzyć z (a;, . .. , o:;,), gdyż macierz \vystępująca \V równaniu (1.8) posiada n1acierz Od\vrotną. Zatrzymajmy się na ch,vilę nad opisem różnic między układami probabilistycznymi a układami kwantO\vymi. Jak ju ż mówiliśn1y, stan mieszany (rozkład pra\vdopodobieństwa)
(1.9) uk ładu
probabilistycznego oraz superpozycja
adxi ) + 0:2lx2) + ... + a„ lx11)
'
(1.10)
układu kwantowego \yYkazuj ą formalnie bardzo duże podobieńst\vo. Z tego \vzgłędu całkiem naturalne jest postrzeganie (1.10) jako uogólnienia wyraże nia (1.9). Na pierwszy rzut oka st\vierdzenie, że (1.10) indukuje rozkład pra\v-
dopodobi eństwa, \V którym la.;12 jest pra\vdopodobieńst\vem zaobsenvo,vania
jedynie różnicą tech niczną. Czy superpozycję (1.10) można interpretować także w taki sposób, że reprezentuje ona naszą nie\viedzę, tzn. mó,vi, że układ jest w rzeczywistości w pe\vnym stanie lx;) z pra\vclopodobiet1stwen1 lcxd 2 ? Odpowiedź jest zdecydowanie negatywna. Aby zobaczyć podstawową różnicę, przypon1nijn1y sobie„ że bazę ortonorn1aln<1 H„ n1ożna \Vybrać w sposób dowolny. Rzeczywiście, możemy wybrać bazę ortonormalną { l x~ ), ... , lx:,}} taką, że
x;,
może \vyda\vać się
lx;}= cxdx1) + a.2 lx2) + ... + O'.„lx11). Tak \vięc \\rzględem nowej bazy układ jest po prostu \V stanie l x~ ) . No,vej bazie odpo\viada inna obsenvabla, której odpo,viadają własności x~, ... , x;,. Jednakże, będąc \V stanie l x~}, układ posiada własność x~ z pra\vdopodobiei1stwe1n 'I. Przykład
1.4.2. Rozważmy układ kwantO\yY o dwóch stanach r oraz o (oczy-
uklad ten jest identyczny z bitem kwantowym; dla ilustracji z1nieniliś 1ny tylko tenninologię) . Układ ten nazwiemy 111onetą Jovanto\V<). Rozważmy wiście
ev1olu cję czasową
I
I
Io)....,. fll o) + J21r)
którą
nazwiemy rzutem symetryczną monetą (proszę spra\vdzić, że przekształ cenie to jest unitarne). Zau\vażmy, że nieza leżnie od tego, czy stanem wyj śeio \vyn1 jest Io) czy też Ir), po rzucie układ znajduje się w stanie, w któryn1 o i r
mogą być zaobserwowane z równym pra\vdopodobieństwem ~ . Wyobrażn1y 21
1. Wst
sobie teraz, że rozpoczynan1y od stanu o i d'vukrotnie \vykonujemy rzut symet ryczną monetą. Po pierwszym rzucie u kł ad jest w stanie wypisany1n powyżej. Jeżeli nie przeprowadzin1y obserwacji układu, to po drugi1n rzucie po\vróci on do stanu o (proszę spra\vdzić) . Zjawisko polegające na tyn1, że po drugim rzucie nie ma możli\vości zaobsern 0\vania stanu r, OC2Y'viście nie może zajść \V żadnym układzie probabilistycznym. 1
U\vaga 1.4.l. W mechanice k\vanto\vej stan (1.l O) jest stanem czystym: za\viera 1naksymalną informacjy o \vłasnościach układu. Stany mieszane układó'v lovantou'Ych on1a,viamy \V podrozdziale 8.4. Powróćmy
teraz do opisu układó\v k\vanlowych. RoZ\vażn1y dwa układy z bazami odpowiednio { lx1 ), ... , lx11) } oraz {IY1 ), ... , jy111 ) }. Podobnie jak \V przypadku układóv• klasycznych i probabilistycznych, o stanach bazo,vych układu złożonego można myś leć jako o parach C lx;), IYj) ). Ogólny stan układu złożo nego rnożna przedstaw ić w postaci li
łll
L L OijlX;, Yj).
(1.11)
i= I j= I Il
gdzie
Ili
L L ja;il = l. Stany postaci (1.11) t\vorzą strukturę matematyczną 2
i=I
j~ I
nazywaną
iloczynem tensorou'Ynl przestrzeni stanó\v podukladó\v. Wyjaśnimy teraz krótko znaczenie tego pojęcia. Niech H11 i H,,, będą przestrzeniami wektorowymi z bazami odpo,viednio {x 1, ••• , x11 } i {y 1, ... , y,,,}. Iloczyn tensoro\vy przestrzeni H„ i H111 oznaczamy przez H„ ® H111 • Ponieważ bazę przestrzeni H11 ® H,,, stano\vią pary uporząd kowane (x;, Yj ), jej wyn1iar równy jest 111n. Wprowadzamy także oznaczenie (x1, yj) = x; ® Yj i mó\vi1ny, że X; ® Yj jest iloczynen1 tensorowym \vektoró\v bazo\vych x; i Yi · Iloczyn tensorowy \vektoró\v innych niż wektory bazo,vc definiuje się \V taki sposób, aby był on d\vuliniowy:
Pon ie\vaż
x; ® yj tworzą bazę przestrzeni H„ ® H111 , pojęcie iloczynu tensorowego \Vektoró\v jest dobrze określ one. Zau,vażmy jednak, że iloczyn tensorowy jest nieprzemienny. Przy opisie układó\v k\vanto,vych Z\vykle opuszczamy symbol ® i stosujemy notację bliższą pienvotnej idei trakto\vania X; ® yj jako pary (X;, Yj):
22
1.4. Mechanika kwantowa Jeżeli
( 1.11)
można przedsta,vić \V
postaci
to mó,vin1y, że układ z łożony jest \V stanie rozkładalnym. W przechvnym wypadku stan układu jest stane1n splątanym. Można '"' prosty sposób sprawdzić, że pojęcie stan rozkładalny jest niezależne od wyboru baz rozpatl)'\vanych przestrzeni \vektoro,vych. Ponic,vaż H1© (H111 © H„) oraz (H1 © H111 ) ® H„ S Hm © H„ . Postępując \V len sposób, 1n ożc n1y zdefiniować indukcyj nie iloczyn tensorowy wiykszej liczby przestrzeni. Przykład
1.4.3. Uklad 111 bilÓ\v k\vanto,vych jest opisany przez 111-krotny iloczyn tcnsoro'vy d,vu,vymiaro,vych przestrzeni I lilberta H2. Stąd bazę układu l\VOrzą stany lx1 }lx2} ... ix111}, gdzie (x1, ... ,x111 ) E {0, I }m. Wymiar tej przestrzeni ró\vny jest 2111 , a układ 111 kubitÓ\V nosi nazwę rejestru k\vanto~vego o długości 111. Podsun1uje1ny ten rozdział 'vyliczeniem podstawo,vych własności ukladó'v k\vantowych o skończonej liczbie stanów, opisywanych w formalizmie wektorów stanu. • W przestrzeni Hilberta H„ układu k\vanto\vego o /1 stanach niożna \vybrać bazę urtonormalną. Wyboru bazy można dokonać \V taki sposób, aby zdiagonalizować maciert dowolnej określonej obscnvabli. • Stan układu k\vanto\vcgo jest rcprezento\vany przez \vektor o jednostko,vej norn11e (1.12)
Stany tej postaci nazywane są superpozycją stanó\v bazowych. Odpo,viada i1n rozkład pra\vdopodobieńst\va, w któryrn pra\vdopodobieńst\vo zaobserwo,vania \vlasności X; 'vynosi la:;l 2 . • Jeżeli d\va układy k'\vanto\ve są opisY'vane za pomocą przestrzeni St<1nÓ\V H„ i H,,, , to przestrzeń stanó\v układu złożonego opisana jest przez iloczyn tcnso ro\vy H„ © Hm. • Zn1iany stanÓ\V ukladów k\vantowych są opisane za pomocą przeksztu lceń unitarnych.
2 Informacja kwantowa Wbre\v temu, co sugeruje tytuł, \V rozdziale tyn1 nie przedsta\vin1y pełnej teorii informacji k\vanto,vej. Wskażemy tu jedynie różnice między sposobem zapisu informacji \V układach klasycznych i kv1anto,vych oraz omó,vimy podsta,vy przetwarzania inforn1acji kwantowej. Czytelnicy dobrze zaznajomieni z algebrą liniow
2.1. I Bity kwantowe Definicja 2.1.1. Bitem bvanton')'n1 (kubitem) na7.y\vać będziemy d'vupoziomo\vy układ k\vanto\vy. Ponie,vaż nie n1a niebezpieczeńst\va pomyłki, \V ten sam sposób nazwiemy także d\Vll\vymiarową przestrzeń Hi lberta H1. Przest rzeń H2 posiada ustaloną baz9 B = {IO) .1 1) }, tz,v. bazę obliczeniową . Stany IO) i Il ) nazy,vane są stanami bazowym i. Ogólny stan pojedynczego bitu k'vanto,vego jest \vektorem
colO) +cdl )
(2.1)
o jednostkov,rcj nonnie, tzn. lcol 2 + lei 12 = I. Liczby co i c1 nazy,vane są a1nplituda1ni stanóv,r bazo,vych odpo,viednio IO) i I I). Mó\vimy, że obscnvacja (odczyt) bitu k\vanto,vego w stanie (2.1) daje \V 'vyniku Ołub 1 z pra,vdopodobieństwem odpo\vieclnio lcol 2 i lei 12 . U\vaga 2.1.1. Jako reprezentacj9
IO) =
(
macierzową
stanów bazowych wybieramy
Ó),I1) = ( ~). W poniższych przykladach, on1awiając 'vlasności bra-
mek k\vanto,vych, korzystamy z tej \Vłaśnie reprezentacji. Definicja 2.1.2. Operacj ę na bicie kwantowym, której odpo,viada unitarne odwzoro\vanic U: H 2 --> H1, nazywamy unarną (jcdnoargumen to\vą) bran1ką bva nto,vą.
Mó,viąc
łinio,vą operację
IO),_, a IO} + bi 1)
(2.2)
clO) +djl },
(2.3)
Il }
24
inaczej, unarna bramka k\vanto\va definiuje
1--<
2.1. Bity kwantowe ::?ką że
macierz
(~ ~) est unitarna, tzn. a c ) ( a* b* ) _ ( I O) ( b d c* d• O J ·
{;waga 2.1.2. jako
Posługując się reprezentacj ą macierzową, możemy zapisać
(2.2)
natomiast (2.3) jako
Wyrażen i e a* oznacza używać także \V innym
tu sprzężenie zespolone liczby a. Notacji A • będziemy celu, jednak nie po\vinno to prowadzić do nieporozum i eń, gdyż znaczenie symbolu * Za\vsze będzie jasno \vyn i kało z kontekstu. Transpozycję macierzy oznaczać będziemy przez (a , b)T, tzn.
T (Cl) b .
(a, b) =
Przykład 2.1.1. W reprezentacji rnacierzowej marny: IO)= ( l , O)T i Il ) = (O, l)T.
Rozpatrzmy 1n acierz uni tarn ą
na stany bazowe otrzyrnujen1y M ~ I O) = I 1) oraz M~ P) = IO). Unarną bramką kwantową zdefiniowaną przezM~ nazywan1y bran1ką kwantowej negacji. W
działan iu
P rzykład un itarną
2.1.2.
Roz\vażn1y bramkę k\va n tową zdefi n iowaną
2
1- i 2
I - i
I +i
2
2
1 +i
/iZ. =
przez niacierz
W działani u na stany bazowe otrzyn1ujen1y (2.4)
25
2. Informacja kwantowa
(2.5) Ponieważ
I+ i
2
2
I
-
1..
-
2
2
I = 2,
to odczyt bitów (2.4) i (2.5) da w \vyniku Olu b 1 z jednakowyn1 prawdopodo-
bi.eństwem
równym
~. Zauważn1y, że ./jVL. ./jVL. = M-..
Z tego
względu
bramka ~ została nazwana pierwiastkiem k\vadraton'ym z negacji. Przykład
2.1.3. I
I
J2
J2
J2
- -../2
l
W
Rozważrny bramkę k\vantową
działaniu
W 2 zdefiniowaną przez macierz
l
na stany bazo,ve mamy:
Macierz W2 nazywa się macierzą Walsha, macierzą Hadamarda lub 1naci erzą Hadamarda-Walsha. Okazuje się, że jest ona bardzo użyteczna. Bardzo ważną własnością hran1ek kwantowych jest to, że reprezentują one oclwzoro\vania linio,ve, co powoduje, że do obliczenia \vyniku działania bramki na do,volny stan wystarczy znaj omość działania na stany bazowe. Przykładowo , działając
W2 na stan
~ CIO) + Il )), otrzymujemy:
Z powyższego rachunku wynika, że W2W2IO) = IO). W podobny sposób moż na pokazać, że ~V2 W2 Il) I1).
=
Jest bardzo interesujące, co dzieje się ze stanern IO), gdy dwukrotnie działamy na niego bramką W2 . Rysunek 2.1 przedstawia schemat tego zdarzenia.
26
2.1 . Bity kwantowe ~a
rysunku u san1ej gó1y 1na1ny początkowy stan IO). Po jednokrotnym podzia;.aniu bramk
illłny mog<1 wystąpić z amplitudan1i
)z. Ponowne zastosowanie W2 „rozszcze-
pia" stan IO) tak, jak poprzednio, natomiast stan I 1) „rozszczepia" s ię inaczej -w stanie koóco\vyrn IJ) pojawia
się z an1plitudą -
Jz·
Dolny rząd przedsta-
wia stan końcowy operacji W2W2IO). Poszczególne a1nplitudy obliczan1y, ninożąc amplitudy występujące na odpowiedniej ścieżce „z góry na dól'', tzn. podążając od stanu początkowego (rząd górny) do stanu końcov.iego (rząd dolny). Przyklado,vo, amplituda stanu IO), znajdującego się w dolnym rzędzie po lewej stronie, ró\vna jest ~ ~ = ~ , podczas gdy dla skrajnego prawego stanu Il ) 1nan1y
~ · (- ~)
=-
~ . Aby obliczyć \vynik operacji W2W2IO),
sun1ujen1y wszystkie stany \Vypisane w prawyn1 dolnym rogu rysunku i jako stan końcowy otrzy1nuje1ny IO) .
IO}
IO}
I
l
~
71
,
' Il}
IO}
-ftl
1
ft
, IO}
Il}
IO}
- -l
ft
'II }
Rysunek 2.1. Przyklad dwukrotnego zastosowania bra1nki Hadan1arda-Walsha; po lewej stronic pokaza l iśn1y, w jaki sposób bramka W2 działa na poszczególne stany, nato1niast po prawej stronic zapisane są wyniki o
Przy obliczaniu an1plitudy stanu IO), amplituda stanu końCO\vego jest większa niż amplitudy stanów sumo\vanych. Efekt ten nazywa s ię interferencją konstruktywną. Zjawisko znoszenia się ampl itud, które obserwowaliśrny, obliczając amplitudę stanu Il), nazY\va się interferencją destrukt)"vną . Uwaga 2.1.3. Wydajność algorytmów kwanto\vych opiera si ę na zjawisku interferencji. Najważniejsze algorytmy kwantowe omówimy dokładnie w następ nych rozdzialach. •
27
2. Informacja kwantowa Przykład
2.1.4. Niech F będzie zdefiniowane jako
W działan iu na stany bazowe mamy FIO) = IO) oraz FI I) = -1 1). Bran1ka F jest przykładem unarnej bran1ki k\vantowej nazywanej bramką z1niany fazy. W ogól ności bramki zmiany fazy n1ają postać
Fo= (
~ e9o)
dla liczby rzeczywistej e (w tyn1 przykładzie bran1k9 Fr. oznaczyliśmy przezF).
2.2. IRejestry kwantowe Stany układu d\vóch bitów k\vantO\\iych t\vorzą czterowymiaro\vą przestrzeń Hilberta H4 =H2 © l:l2 z bazą ortonormalną { IO)IO),IO)l l ),jl)I0), 11)11)}. Wpro,vadźmy oznaczenia IO) IO) = IOO), IO) Il) = 101 ) itd. Stan układu d\vóch bitów kwanto~iych jest wektoren1 (2.6) o jednostkowej normie, n1usi wi9c zachodzić równość lcol2 + lcd2 + lc21 2 + lc31 2 = l. Odczyt u kładu dwóch kubitów \V stanie (2.6) da w wyniku OO, 01, 10, 11 z prawdopodobieńst\van1i odpO\viednio lcol 2 , lc112, lc212, lc312. Jeżeli natomiast będziemy chcieli odczytać tylko jeden z kubitÓ\V, to zgodnie z prawami rachunku prawdopodobieństwa dla pienvszego (drugiego) kubitu otrzyman1y O lub 1 z prawdopodobieńst\van1 i odpowiednio lcol 2 + lei 12 i lc21 2+ lc312 (odpo2 2 2 2 wiednio lcol + lc21 i lei 1 + lc31 ). Uwaga 2.2.1. Zau,vażmy, że iloczyn tensoro\vy \Vektorów nic jest przemienny: IO) I 1) ej I 1)IO). Aby mieć rnożl iwość odwoływania się do poszczególnych kubitÓ\v, stosujemy porządek linio\vy, tzn. zapisujemy kubity od le\vej do pra\vej. Przypo1nnijmy, że stan układu d\vóch kubitó\v z E H 4 jest rozkładalny, jeżeli można go przedstawić \V postaci iloczynu stanów z przestrzeni H 2 , z= x © y. Stan, który nie jest rozkładal ny, jest splątany.
Przykład
2.2.1. Stan ; CIOO) + IOI) + I 1O) + I.I 1)) jest
rozkładalny, ponie\vaż
jak łanvo spra\vdzić
;c10)10) + 1o)p ) + ll)IO) + 11)11)) = ?ic10) + 11))?i c10) + 11)).
28
2.2. Rejestry kwa ntowe
~atomiast stan ~ CIOO} + I 11}) jest splątany. Aby to pokazać, załóżmy że jest ::taczej -
istn iej ą
liczby zespolone ao, a 1, bo, b 1 takie,
że
~(100) + IJ 1)) = (aolO) +ad l})(holO) +bd l}) = aobo lOO) + aobdOI } + a 1bollO) + a1bd 11}
\\'tedy musi być
spełniony układ równań
l
aobo = .j2 aobi =O
aibo =O
który jest jednak sprzeczny. Uwaga 2.2.2. Jeżeli stan dwóch kubitów jest stanem splątanyrn ~ CIOO} + I 11}), to \Vwyniku odczytu każdego ku bitu z osobna możemy otrzyn1ać O lub 1 zjednako\vym pra\vdopodobicństwem równym ~ . Jednakże, jeżeli chcemy odczytać
stan ukł ad u jako całości, to nie jest n1ożl iwy wynik, w któryn1 oba kubity maj<) różną wartość. Przeprowadzono doś\vi adczenia pokazujące, że takie korelacje stanÓ\V k\vantowych występują nawet wtedy, gdy kubity zostaną rozdzielone przestrzennie na odległość większą niż 10 km. Własność ta stanowi podsta,vę kryptografii kwanto\vej i protokołó\v kwantowej komunikacji. Para ku bitów w stanie ~ CIOO} + I 11 )) nazY'vana jest parą EPR 1.
Zauważmy, że gdy
oba kubity pary EPR przej dą przez bramkę Hadamarda, to stan końcowy jest znów stanem ~ CIOO} + I 11}). Pary EPR tokołach
odgrywają kluczową rolę w wielu pro-
kwantowych; ich zastosowania omówimy nieco
późn iej.
Definicja 2 .2.1 . Unitarne odwzorowanie H4 ~ H 4 nazywamy binarną bramką ~vanto,vą . Przy definiowaniu działania binarnych bramek kwa nto\vych będziemy korzystać z następuj ącej reprezentacji macierzowej wektorów · ·r · T T bazowych: IOO} = (1, O, O, O) , IO1) = (0, 1, O, O) , Il O} = (0, O, I, 0) oraz I11} = (0, O, 0, 1)T. 1
Skrót EPR pochodzi od pierwszych liter nazwisk Einsteina, Podolskiego i Rosena, którzy jako pienvsi zauważyli, że wspomniane wyżej korelacje przestrzenne mogą być źródłem paradoksów \ V n1echanice k\vantowcj (88].
29
2. Informacja kwantowa •
PrzykJad 2.2.2. Macierz
ooo o l oo Mcnot = o o o I oo 1 o l
definiuje odv„zoro\vanie unitarne, które \V
działaniu
na stany bazO\ve daje McnorlOO} = IOO}, McnoilOI } =IO!}, Mcno1IJO) =11 1} oraz Menor! 11 ) =!IO). Bramka M cnoi nalY\vana jest brarnką sterowanej negacji (co11trolled 1101), ponie\vaż drugi kubit (kubit sterowany) zmienia się \Vtedy i tylko \\ltedy, gdy pienvszy kubit (kubit sterują cy) ma \Vartość 1. Aby omó\vić kolejne przyklady binarnych bramek k\vanto,vych, musimy zapoznać sicr najpieiw z pewnym 'vażnyn1 pojcrcie111. Definicja 2.2.2. Iloczyn tensoro'vy macierzy o 'vyn1iarach r x s i t x ny także iloczynem Kroneckera)
A=
a11
a12
Gif
bll b12
a 21
a22
a2,
b 21
b22
b11
h,2
a,,
ar2
'
a„
B=
/1
(zwa-
jest macierzą rt x su, zdefinio,vaną jako
A ~ B=
a11B a12B . . . a 1. B a21B a22B . . . G2rB
a,18 a,2 8
...
llrsB
Jeżeli
macierze M1 i M1 są macierzami 2 x 2 rcprezentujący111i unarnc bramki k\vanto\ve, to łat\\IO jest spra\vdzić, że '"spólne dz iałanieM 1 na kubit picnvszy i M 2 na kubit drugi jest opisane nlacicrzą M 1 ('I M 2. Własność ter rnożna uogólnić na układy k\\lanto,ve o do,volnych \vymiarach: jeżeli macicr.lC lvt 1 i M1 definiują odwzorO\\lania unitarne \V przestrzeniach Hilberta 11„ i Hm, to nlacicrz M 1 © M1 o 'vyn1iarach 11111 x 11111 definiuje przeksztalcenie unitarne \V przestrzeni H„ ® Hm. Działanie 111acierzy M 1 ® M1 daje ten sarn \vynik, co następujące po sobie działania M 1 \V H 1 i M1 \V H2 (lub vice versa). W szczególności od,vzorowanie M1 ® Mi nic może spowodo,vać splątania ukladÓ\V H11 i Hm. PrzykJad 2.2.3.
Posługując
tacja macierzo,va IO)
sicr iloczynem Kroncckera, \vidzimy,
= ( ~)
reprezen tację macierzo,vą dla
30
oraz I1) = ( ~)
\V
że
reprezen-
natur
IO)IO} = IO}® IO), IO)ll}, I1)10) i ll)l i ):
2.2. Rejestry kwantowe
o
l
o Ó)®(6)= o o o o ~)® (6)= l o
'
l
(6) ®(?)=
o
(?) @(?)=
o o o
o
1
dObnie możemy uzyskać reprezentacj ę n1acierzO\Vl} trójki kubitów itd. Za.mny, że powyższa reprezentacja pok1y.va s ię z reprezentacją \vprowadzo- -, definicji 2.2.1 - nie jest to zbieżność przypadkowa!
Pt z) kład 2.2.4. Niech M 1 = M2 = W2 będą macierzan1i Hadamarda, on1ó-;.onyn1i \V poprzednin1 podrozdziale. Działanie macierzy Hadamarda na oba li::-....bity można trakto\vać jako binarną bramkę k\vantO\vą, reprezentowaną :nez macierz: 1
l
l
l
l
- I
l
- I
l
l
-1 -1
I - 1 - l
l
';\'tedy dla dowolnychx0 ,x 1 E {O, l} 1namy W4 Jxox1 )
= ;cJO) +(- l)x Jl ))(J0} + (- 1)' 1l} 0
=
1
~ (JOO} + (- l}' ' JOI) + (- 1)xoJl0) + (- 1)ro+x,J11 )).
(2.7)
U\vaga 2.2.3. Zauważ111y, że stan (2.7) jest rozkładalny. Jest to naturalne, gdyż stan wejściO'ń'Y Jxox1} jest rozkładalny, a W4 można przedstawić jako iloczyn bramek unarnych W4 = W2 ® W2 . Z drugiej strony bramki 1\1c1101 nie rnożna przedstawić jako iloczyn tensorowy macierzy o wymiarach 2 x 2. Można tego dowieść rnetodą nie wprost, tak jak to zrobiliśmy \V przykładzie 2.2.1, jednak teraz posłużymy się innyn1 rozun1owaniem. Rozważmy układ d\vóch kubitów \V stanie JOO}. Działanie bramki ł-ladamarda-Walsha na bit pienvszy przepro\Vadza go do stanu
+icJo) + Jl})JO) = Działanie
~(JOO) + 110}).
bran1ki Mcnoi zn1ienia
rozkładalny
(2.8) stan (2.8)
\V
stan
splątany
~(JOO} +II I}). Ponie\vaż bramka 1\1c1101 wpro\\1adza splątanie, to nic może być
iloczynem tensorowym dwóch k\vantowych bran1ek unarnych.
31
2. Informacja kwantowa Uporządkov;any układ 111
kubitów będziemy nazy.vać rejestre111 k\'1antolvyn1 o długości rn. Przestrzeń stanów takiego układu jest 111.-krotnyn1 iłoczynen1 tensorowym H2m = H2 ® .. . © H2, naton1iast stany bazowe mają postać {lx}: x E {O, 1}111 } . Jeżeli x =X1 .. . x111 u tożsa1nin1y z liczb<) przedstawioną \V systemie d>vójkO\vyrn, to można po\viedzicć, że stany bazo,ve 111-kubito,vego rejestru mają postać { la}: a E {O, 1„. „ 2111 - 1} }. Szczególna własność systen1ów kwanto\vych - wykładnicza gęstość upako,vania - staje się dobrze \Vidoczna, jeżeli przedsta\vin1y stan układu 111 kubitó\v \V postaci
colO} + cd l} + ... + c2„_J!2
111
-
l},
gdzie lcol2 + lei 12 + . . . + lc2m- 1 l2 = 1. Jak widać, do opisu rn-kubitowego ukła du potrzeba 2111 liczb zespolonych. Tak więc ilość miejsca potrzebnego \V pamięci do opisu układu rośnie wykładniczo ze \VZrostem ilości kubitów. Ewolucję czaso,vą układu 111-kubito\vego opisuje unitarne od,vzoro\vanie w przestrzeni H 2,,.. Macierz tego odwzorowania ma wymiar 2"' x 2111 - zatem również rośnie wykładniczo z fizycznym i rozmiarami ukladu.2 Rejestrami kwantowyrni zajmierny się dokładniej w podrozdziale 3.2.3.
2.3. ITwierd zenie o nieklonowaniu Do tej pory zaj rnowaliśmy się jedynie bitami k\vantowyn1i, jednak \vszystko o czym niówiliśmy, n1ożna uogólnić także na n-cyfrowe liczby k\\lanto\\IC. Jeżeli zdefiniujemy alfabet A= {a 1, ••• ,a11 }, to litery alfabetu n1ożna utożsa miać ze stanarni bazowymi la1} , ... , la„} n-pozion1owego układu bvanto\vego. Mówimy wtedy, że taka baza jest b\lanto,vą reprezentacją alfabetu A . Na koń cu rozdziału pie1wszego \vymicn iłi ś rny już najważniejsze \lvłasności kwantowych reprezentacji: • Zbiór n ele1nentÓ\v utożsamian1y z wektoran1i ortonorn1alnej bazy 11-\vymiaro\vej zespolonej przestrzeni \vektorowej H11 • Przestrzeń H11 nazywan1y przestrzenią stanó'"· Wektory ustalonej bazy la1} , • .• , la11 } nazywamy stananti bazo,vymi. Wybraną bazę nazywan1y zwykle bazą obliczenio,vą. • Ogólny stan układu bvantowcgo jest wektoren1 jednostko\vyn1 z przestrzeni stanów. Jeżeli układ jest w stanie a1la1 } + . .. + 0:11 la11 }, to prawdopodobieństwo zaobse1wo•vania układu w stanie bazowym Cl; 'vynosi lo·d2 . 2
32
Nie po,vinien już budzić zdziwienia fakt, że Feynman uważał efekt)'\vną syn1 ułacj9 układó\v kwanto\vych za pomocą nlaszyn deten11inistycznych za zadanie trudne. Wydaje się, że ze względu na efekty interferencyjne , trudne jest także efckt)'\vne sy1nulowanie u kładów kwantowych za pon1ocą n1aszyn probabilistycznych.
2.3. Twierdzenie o nieklonowaniu Przestrzeń
stanów układu złożonego z chvóch podukładó\V jest iloczynem tensoro\vym przestrzeni stanów tych podukładó\v. • \V tyn1 forn1alizmie transforn1acje stanów są odwzoro\vaniami liniowymi zachowuj ącym i normę. Można pokazać, że odwzoro\vania te są dokładnie przekształceniam i un itarnymi \V przestrzeni stanó\v. Powyższa lista obejmuje operacje, którym można (v1 tym formalizmie) poddać układ kwanto\vy. Przedstawin1y teraz dosyć zaskakujący wynik uzyskany przez "~ K. Woottersa i W. H. Zurka (91 J, tzw. t\vierdzenie o nieklonowaniu. Roz?;ażn1y \V ty1n celu układ k\vanto\vy o n stanach bazowych la1 ), ... , la11) . Oznaczmy przestrzeń stanów przez H 11 i \vyróżnijmy stan la1 ) jako stan, na '-tórym będziemy dokonY'vali zapisu inforn1acji. Unitarne odwzorowanie v. przcslr:tcni H11 0 H11 nazywa się k\vanto,vą maszyną kopiuj ącą, jeże li dla dowolnego stanu lx) E H11 U(lx) la1 )) = lx) jx). Twierdzenie 2.3.1 (Twierdzenie o nieklonowaniu). Dla maszyna kopiująca nie istnieje.
/1
> 1 kwantowa
Do,vód. Załóżmy, że taka maszyna istnieje. Ponieważ /1 > I, istnieją d\va stany ortogonalne la1 ) i la2) . Wtedy ma1ny U(la1 )la1 )) =la1)la1) oraz U(la2) la1 )) = la2)la2), a także
u( )z
=; (la 1)la 1)
+ la1 )la2) + la2)la1 ) + la2)la2) ).
Z drugiej strony z liniowości U wynika, że
Otrzy1nane reprezentacje dla n1an1y zate111
sprzeczność.
u( )z
1)
+ ja 2))la 1) ) nie
są równoważne, o
Tak więc powyższe twierdzenie rnówi, że nie istnieje operacja (odwzorowanie unitarne), która pozwalałaby na skopiowanie dowolnego stanu kwantowego. Za uważmy także, że w przytoczonym dov1odzie nie korzystaliśmy z unitarności; powoła liśmy się jedynie na liniowość od\vzorowania opisującego ewolucję czaso,vą. Jeżeli jednak byl ibyśrny jedynie zainteresowani otrzymaniem kopii stanó\v bazo,vych, to taka operacja jest doz,volona. Niech i = { 1 ... , n} będzie zbioren1 indeksó\V. Od\vzoro\vanie spełniające \Varunek 1·: l x l--> l x l, 33
2. Informacja kwantowa
f(i, I)= (i, i) jest injekt}'\vne, zatem jego definicję możem} uzupełnić (na \viele sposobó,v) tak, że f będzie pennutacją I x I i dalej będzie spełniało f(i, 1) = (i, i). Niech f(i,j) = (i',)1 ). Wtedy ochvzoro,vanie linio,ve zdefiniowa-
ne jako V(la;) laj)) = la;•} iaJ'} jest permutacją 'vektoró'v bazo,vych przestrzeni H„ ® H„. Jak łatwo spra\vdzić, każda taka permutacja jest unitarna. Ponie,vaż U(la;}la1 )) = la;} la;}, więc U jest operacją k\vanto,vego kopio,vania \vektoró\v baZO\yYCh. U\vaga 2.3.1. A. K. Pati i S. L. Braunstein wpro\vadzili zasadę komplementarną \V stosunku do zasady nieklono,vania [66). Do zasady nicus u\valności wrócimy \V podrozdziale 8.4.6, gdzie przedsta,vin1y także silniejsz<1 \versję t\vierdzenia o niekłono,vaniu auton.hva R. Jozsy. U\vaga 2.3.2. Zau\vażmy, że pr.cy definiowaniu przekształcenia unitarnego U(la;}la1 }) = la,}la;} nie było konieczne założenie, że drugi układ jest taki sarn jak pie1wszy. Wystarczy jedynie, aby posiadał co najmniej tyle samo stanó'v bazo,vych. Możlhve jest zatem zdefinio,vanie przekształcenia unitarnego U(la;}lb1}) =la,}lb;), gdzie Ibi} .... , jb,,,) (111 ~ 11) są stanami bazo,vymi innego układu. I nteresujące jest, że można trakto,vać ten drugi układ jako przyrząd pomiaro'vy do badania stanu układu pienvszego. Wtedy Ibi } można interprcto,vać jako „stan początko,vy wska:Znika", a U jako „oddzial}'\vanic porniaro,ve". Pon1iary. które mogą być opisane \V ten sposób, nazY'vane S
I
2.4. Obserwacja Do tej pory milcząco zakładaliśmy, że probabilistyczne przet\varzanie informacji przy użyciu układó\v k\vanto,vych zachodzi \vedług następującego schernatu: • Przygotowujen1y układ \V stanie początko,vym. • Wykonujerny unitarną procedurę przet\varzania informacji. • Aby poznać 'vynik, odczytujemy stan układu. Jak dotąd nie roz,vażałiśmy możlhvości 'vykon}'\vania obsenvacji' pośrednich , \V trakcie unitarnego przet\varzania. Innymi słO\yY nie analizo,valiśn1y \Vpł}'\VU obsenvacji na stan uk ł adu k\vanto,vego. Szczegółowa dyskusja tego problemu znajduje się \V podrozdziale 8.3.2. Tutaj naton1iast podamy w formie uproszczonej najczęściej stoso,van<1 metodę opisu zmian stanu układu pod wpływem jego obsenvacji. Załóżmy, że pomiar przeprowadzony na układzie \V stanie 0 1
3
lx1 } + a2lx2} + ... + a „!x„)
W literaturic z dziedziny fizyki za111ias1 . .
n11nu ponuar.
34
określenia
obsenvacja 7.\vykle używa sic; ter-
2.4.
Obserwacja
'vynik xk. Zgodnie z postulaten1 rzuton'ania 4, po dokonaniu porniaru układ znajduje się \V stanie jxk)· Przyjn1ijmy dalej, że mamy do czynienia z układem złożonym \V stanic dał
Ił
Il i
L L a;jlx;)IYj)
(2.9)
i=I j=I
i obscnvacja picnvszego pocluklaclu dala \vynik xk
(pra\vdopodobicńst\vo
Ili
otrzymania 'vyniku Xk jest ró\vne P(k) =
L
lakjl2 ). A zatem, zgodnie z postu-
j=I
laten1 rzutowania, po obscnvacji cały
k
układ
znajduje się w stanie
Ili
L akjlx~)IYj) .
(2.10)
j= I
stan układu (2.9) został zrzuto,vany na podprzestrzeń odpo,viadającą stanowi zaobsenvo,vancn1u i znormalizowany. Musin1y wyraźnie podkreślić, że przejście ze stanu (2.9) do stanu (2.1 O) nie jest zgodne z e'volucją unitarną: e\volucja unitarna jest zawsze od,vracałna, natomiast nie ma możłi\vości odzyskania stanu (2.9) ze stanu (2.1 O). Nic uda Io się do tej pory znaleźć modelu procesu obsenvacji, który byłby zgodny z C\volucją k\vanto\vą. Trudności poja\viaj ącc się przy poszukiwaniu roZ\viąza nia zagadnienia przeskoków bvanto\vych określane S<) zwykle jako paradoks po1niaru \V rnechanice k\vanton·.:j. Zamiast dokonY'vać obsenvacji pośrednich po,vodujących redukcję 'vcktora stanu z (2.9) do (2.10), możen1y 'vpro\vadz ić układ pomocniczy oraz unitarne oddzialy,vanie pomiaro,ve (kopio,vanic stanów bazo,vych) lx;) jx 1) ,_. jx;)jx;). Oznacza to, że zastępujemy proces redukcji (2.9) ,_. (2.10) przez oddzialY'vanic pomiaro\ve przepro,vadzającc stan Innymi
sło\vy początko'vy
( t t aijlx;)IYi)) lx1) = t t oijjx;)IYj)lx1) 1=1
1=1
1:1
(2.11)
FI
w li
lłt
L L aijlx;)jyj}lx;). i=I
4
(2.12)
j =I
Postulal rzutowania można traklować jako 'vyjaśnicn ie ad hoc zmiany stanu w trak. . c1c procesu pomiaru.
2. Informacja kwantowa Choć transformacje (2.1 1) ....... (2.12) i (2.9) ....... (2.10) z pozoru wydają si<; róż ne, mają jednak \Viele podobnych własności. RzeczY\v iście, oz n aczając pono\vIli
nic P(k)
=I: lakjl2 , możerny przepisać (2.12) w postaci jal
(2.13) Wyrażenia
(2.12) i (2.13) można z i nterpreto\vać następująco: \vprowadzony ukł ad pomocniczy rozbija cały u kł ad na n ortogonalnych podprzestrzeni, rozpiętych dla danego k E {I, .. . , n} na \vektorach lx;) IYj) lxk), i E { 1, ... , n}, j E { 1, ... , 111}. Wektory JP(k)lxk} są 111nożone le\vostronnic przez takie same \Vektory jednostkowe, jak w (2.10). Pra\vdopodobieńsl\vo zaobserwo\vania Xk w układzi e pierwszyn1 od pra\vej w (2.12) wynosi P(k). Wynike1 stąd, że j eże li przet\varzanic informacji k\vantowcj dokonuje się nieza leżn ie od układu pomocniczego, to przy zamianie operacji (2.9) ....... (2.10) oraz (2.11) ....... (2.12) końco\vy rozkład pra\vdopodobieńsl\va nie zmieni się. Dlatego też nie b<;dziemy w tej ksi<1żce zajmowali si<; probłemern obser>vacji pośrednich , traktując je jako uproszczony sposób zapisu procedury (2.11) ....... (2.12). W każdym razie \Viadomo, że proces obserwacji za\vsze zaburza pief\votny układ. W przypadku, gdy trzeba b<;dzie Od\vołać si<; do ukladu k\vanto\vego po obsenvacji, będziemy przyjmo\vać postulat rzuto\vania lub nawet założymy, że po obserwacji układ zostaje utracony.
I
2.5. Teleportacja kwantowa W środo\visku kryptografów przyjęło s i ę nazywać d\vie komunikujące się strony imionami Alicja i Bob. Ponieważ OŻY\via to nieco \\'Ykład, rny także przyjmiemy t<; konwencję. Zalóżrny, że Alicja jest \V posiadaniu pojedynczego kubitu \V stanie
alO) +hl I),
(2.14)
jednak stan (2.14) jest jej nieznany. Mimo to Alicja chce przesiać stan (2.14) do Boba. Jedną z moż l iwości, przynajn1niej teoretyczną, jest przesianie Bobowi ca łego d\vupoziomowego układ u kwantowego znajduj<1cego si ę w stanie (2.14). Jeże li taka n1ożłi\vość istnieje, to n1Ó\vimy, że między Alicją i Bobem istnieje kanał k\vantO\V)'. Jeżeli Alicja jest \V stanie przesyłać do Boba bity klasyczne, to mó\vimy o istnieniu mi<;dzy nimi ka nał u klasycznego. Zalóżn1y teraz, że mi ę dzy Alicj<1 a Bobem nie n1a ka nału kwantowego, natomiast istnieje kanał klasyczny. Zadan ie przesłania Bobowi stanu (2.14) 'vydaje
36
2.5. Teleportacja kwantowa się nie'''Ykonalne. Zau,vażmy, że Alicja nie zna stanu że 'vystać Bobo\vi instrukcji, jak go skonstruo\vać.
(2.14), a zatem nic mo-
Alicja mogłaby postąpić \V następujący sposób: najpienv dokonać obserwacji stanu, a następnie przesłać Bobowi wynik, O lub 1. Jeżel i jednak obie amplitudy a i b są różne od zera, to próba ta skazana jest z góry na niepo,vodzenie, gdyż Bob nie bc;dzic mógł odt\vorzyć stanu (2.14). Nic może ona też przepro,vadzić \vielu obsenvacji, ponic,vaż pomiar za\vsze zaburza stan kubitu. Nicmożlhvc jest też 'vykonanie każdej obscnvacji na innej kopii, ponic\vaż niemożlhve jest wykonanie kopii nieznanego stanu k\vanto\vego, co pokazaliśmy \V podrozdziale 2.3. Gdyby Alicji \VOi no było obsenvo,vać kubit dowolnie \Viclc razy, to mogłaby ,vyznaczyć prawdopodobieńst\va otrzymania wynikó\v O i I z dowolną dokładnością, czyli dyspono,valaby dowolnie dokładnymi prLybliżeniami liczb lal2 i lbl 2 . Jednak na,vct znajo m ość dok ł adnych wartości lal 2 i lbl2 nie 'vystarczyłaby Bobo,vi do rekonstrukcji stanu (2.14). Zauważmy bowiern, że liczby te są identyczne dla stanó'v I
I
.,/1.
.,fJ.
- IO) + -
Il)
(2.15)
oraz (2.16) które jednak istotnie się różnią: zastoso,vanic bran1ki Hadan1arda-Walsha (patrz podrozdział 2.2) do (2.15) i (2.16) daje wyniki odpowiednio IO) i Il ) (patrz zadanie 1.). W rzeclY'vistości jest nicmożli\ve, aby Alicja mogła przesłać Bobo,vi bit k\vanto,vy, korzystając jedynie z kanału klasycznego. Jest to zrozu miałe, jeśli zauważymy, że informacja klasyczna może być kopio,vana \ V sposób pełny: gdyby istnia ł sposób odt\vorzenia stanu (2.14) z informacji klasycznej (którą stan (2.14) sani o kreśla), to moglibyśmy 'vykon ać nieograniczona liczb<; kopii tego stanu. A zatem nioglibyśmy zbudować kwantową maszynę kopiującą, co jednak, jak już pokazaliśn1y, jest niemożlhve. Z drugiej strony, gdyby Alicja i Bob byli \V posiadaniu pary EPR, to mogliby zrealizo,vać S\vojc zadanie, korzystając z teleportacji kwanto\vej; protokół ten został \vprO\vadzony \V pracy [11 J.5 Opisze111y teraz protokó ł teleportacji. Opiera się on na założeniu, że Alicja i Bob dysponują d\vonut kubitami \Vstanie EPR (2.17) 5 Można argumentować, że
w celu ul\vor,;enia pary EPR, Alicja i Bob powinni dyspo· nować kanałem kwantowy1n. Możemy jednak pr,;yjąć, że podczas ostatniego spotkania wytworzyli oni ·wystarczaj«i)cą liczbę takich par.
2. Informacja kwantowa
Przyjmujen1y kon\venc:j9, że kubit le\vy należy do Alicji, naton1iast kubit pra'vy do Boba. Ponadto Alicja posiada kubit \V stanie
aIO) +bi l }, który ma być teleportowany. Stan sujemy jako
złożonego
ukladu wszystkich kubit6\v zapi-
(alO) +bi l )) ~(100) + I 11}) =
~ IO} IOO} +
fi IO) IJ I} + ~ I I}100} + ~Il ) 111}
=~1000}+ Ji lO ll } +~l lOO)+ ~1 111 }.
(2.18)
Przypon1nijmy, że jedynie skrajny pra,vy kubit należy do Boba, natomiast Alicja posiada pełny dost9p do d\vóch kubitów, Jc,vcgo i środko\vego. Protokół
teleportacji I. Alicja wykonuje na swoim kubicie operację sterowanej negacji, wykorzystując le\vy kubit jako kubit kontrolny (patrz przykład 2.2.2). W efekcie stan (2.18) zostaje przekszta łcony w
-JilOOO) + Fi lOl 1) + ~1 110} +
~1 101 } .
(2.19)
2. W następnym kroku Alicja stosuje transforrnatę Hadamarda-Walsha (por. przyklad 2.1.3) c.lo lc,vcgo kubitu, \V 'vyniku czego otrzymuje
~*
Ji ~(IO}
co
- I l ))IJO} +
można zapisać
Ji ~CIO)
- IJ })IOI},
jako
~1000) +~I 100} + ~10 11 } +~ I l 11 } b
b
b
b
+21010) - 211 10} + 21001 } - 21101 }. Wydzielając
38
kubit Boba,
możemy
(2.20) przepisać \V postaci
(2.20)
2.5. Teleportacja kwantowa
i dalej jako
~ IOO)CalO) +bi I))+ ~ IO 1)Cal1) +biO)) I
I
(2.21)
+ 2 110)(al0) - bil))+ 2 lll )(a jl ) - blO)). 3. Alicja przepro\vadza
obsef\vację
swoich dwóch kubitów. Jako wynik
może
otrzyn1ać pary OO, 01 , 1Oi 11, każdą z pra\vdopoclobieństwem ~ . Stan ukła du po obserwacji poniższa tabela.
zależy
od otrzymanego wyniku, co
Wynik Alicji
Stan po obsenvacji
OO 01 1O
IOO)(a IO) +bil)) IOl )(all) + blO)) Il O)(a jO) - hp )) I! l)Call ) - bjO))
11
zwięźle
przedstawia
Przypomnijmy, że kubity lewy i środkowy należą do Alicji, a pra\vy do Boba. 4. Alicja wysyła Bobowi wynik obsenvacj i (d\va klasyczne bity). 5. W zależności od zawa rtości przesyłki Bob wykonuje następuj
39
2. Informacja kwantowa
2.6. IKodowanie supergęste Operacją komplementarną do kwanto\vej teleportacji jest kodo\vanie supergęste, \Vprowadzone w pracy (12]. Zakladan1y, że Alicja i Bob są w posiadaniu pary EPR, oraz że istnieje n1iędzy nin1i kanał k'vanto\vy. Tym razem Alicja
chce przesłać Bobo\vi bity klasyczne. Kodowanie supergęstc jest protokołem, w który1n Alicja \V)'Syła do Boba jeden bit kwantowy, a przesiana zostaje informacja za'ń1arta w dwóch bitach klasycznych. Teoretycznie kodowanie supergęste można zreal izować w następujący sposób: Alicja posiada dwa klasyczne bity b1 i b2 oraz dzieli z Bobem parę EPR
(2.22) Pono,vnie przyjmujemy, że do Alicji należy le\V)' bit, natomiast do Boba pra\vy. Protokół
kodowania supergęstego 1. Jeśli b 1 = I, to Alicja przepro,vadza na swoi111 kubicie operację zmiany fazy. Ponadto jeżeli b2 = I, to \V)'konuje na nim także operację negacji. Zależność końcowego stanu pary EPR (2.22) od wartości kubitó\v klasycznych podsun10\vana jest w
poniższej
tabeli.
Stan po operacjach Alicji
o o
~ IOO} +~Il! }
o
1
~ 1 10} + ~IO ! )
1
o
- IOO} - - Il I} .j2 ../I.
1
1
- 110} - -
I
I
I
I
.j2
.j2
IO! }
2. Alicja przesyła S'ń1ój kubit Bobo\vi. 3. Ponieważ Bob ma teraz dost<;:p do obu kubitów, przepuszcza je przez dwukubi tową bramkę zdefiniO\vaną macierzą
I
.j2
o B=
40
I
-.j2 o
o
o
1
l
.j2
.j2
o 1
-.j2 -
o j
,12
I
.j2
o - -
I
../I.
o
(2.23)
2.7. Zadania
(proszę spra\vdzić, że
macierz B jest unitarna). Łat\vo teraz prostyn1 rachunkien1 \vykazać popra,vność 'vynikó\v zebranych \Vponiższej tabeli:
b,
b2
Stan po operacjach Alicji
+?iii
Stan po operacjach Boba
o o
~IOO)
I)
100)
o
1
~IJO) + ~IOI )
IOI)
o
-100) - - 11 l)
l
-
1
I
I
fl
fl
I
J'1
11O) - -
1
J'1
IOI)
4. Bob dokonuje obsenvacji S\voich kubitó\v. Jak bity b 1 i b 2 zostały odt\vorzone pra\vidłO\VO.
110) 111) \vidać
z
po,vyższej
tabeli,
u,vaga 2.6.1. Jeżeli chodzi o operacje przepro\vadzane przez Alicją na
początku, pamiątamy
to potrzeba i \V)'Starcza, aby stany kubitó\v były ortonormalne Qak z początku podrozdziału 2.2, stany IOO), IO I), I1O) i I ł ł ) tworzą zbiór ortonorn1ałny). J eżeli warunek len jest spełniony, to zawsze istnieje od,vzorowanie unitarne przeprowadzaj<1ce stany ortonormalnc \V stany bazo,ve.
2.7. j Zadania 1. Oblicz W2W2. Pokaż, że W2 \V działaniu na stan (2.15) (odp. (2.16)) daje IO) (odp. II)). 2. Sprawdź, że niacierz (2.23) jest unitarna.
•
3 Maszyny
oblicze~iowe
Zanin1 rozpoczniemy omawianie procesó\v obliczenio\rych, musimy najpierw ustal ić, co rozumiemy pod pojęciem maszyny obliczeniowej. W tym rozdziale zapoznan1y si<; z maszynami Turinga i obwodami jako modelami obliczefl. Pon ie\vaż będzie1ny stosować standardową notację teorii języków formalnych, musin1y teraz wp rowadzić kilka podstawowych pojęć z tej dziedziny. Alfabet to do\volny ustalony zbiór A; elen1enty alfabetu A będziemy nazywać literami. Zbiór AR, którego elementa1ni są łańcuchy składające się z dowolnego elen1enlu zbioruA i nast<;puj ąeego po nim dowolnego elementu zbioru B, będzie1ny nalY\vać złożeni e1n zbiorów A i B. W szczególności Ak jest zbioren1 ł ańcu ehó\v o długości k nad zbiorem A. Łańcuchy tego typu nazy\vane są także sło,vami. Złożenie H' i 1v2 słów 1v 1 i H' 2 to po prostu następuj
i:!.J Obliczenia jednostajne 3.1.1. j Maszyny Turinga Klasycznyn1 modclcn1 stosowanym do opisu procesu obliczeniowego jest maszyna Turinga. .1\by zdefiniować 1naszynę Turinga, ustalan1y skończony zbiór podsta\VO\vych jednostek informacji nazywany alfabetem A, skończony zbiór \vewnętrznych stanów stero\vania Q oraz funkcję przej ścia c5:Q x A ~ Q x A x { - 1,0, l}.
(3.1 )
Defi nicja 3 .1.1. (Deterministyczną) maszyn ą Turinga M nad alfabetem A nazyv.,ramy uporządkowaną szóstk<; (Q,A , qo, lfa, q,) , gdzie qo, q", q,. E Q to odpo,viedn io stan początkowy, akceptujący oraz odrzucający, a li zdefinio\Vano wyzeJ.
o,
42
3.1. Obliczenia jednostajne
Maszyna Turinga \V po,vyższej definicji naZ\vana została deterministyczną ze \vzględu na postać funkcji przejścia 8 opisującej dynamikę (sposób pro,vadzcnia obliczeń) maszyny. Podamy teraz interpretację po,vyższej definicji, stosuj<)C zapis stosowany w pracy [64]. W dalszej cząści książki wprowadzimy inne rodzaje n1aszyn Turinga. Uporządko\van
może być przekształcona
do
\V zależn ości od tego, czy odpowiednio d = - 1, d =O lub d = I. Oznacza to, że podczas przejści a ó(q1, a1) =(q2, a2, d) symbol a1 po odczytaniu jest zastępo \Vany przez t1 2 (mówimy, że maszyna zapisuje a2 , aby zastąp ić a 1); 1naszyna przechodzi vv stan q2 i rozpoczyna odczyt syn1bolu znajdującego sią, w zależ ności od \vartości d E {- I, O, I}, po le\vej stronic, \V tym san1yn1 położeniu bądź po stronie pra\vej symbolu odczytanego poprzednio. Mó,vimy także, że glon·ica odczytująco-zapisująca n1aszyny Turinga przesu,va się \V lc,vo, pozostaje nieruchoma lub przesu\va się w pra,vo.
o
Jeże li definiuje przejście odc doc', to piszcn1y c I- c' i niówin1y, że c' jest następnikiem c, c daje c' lub po c następuje c'. Przejście odc doc' nazy,va się krokiem obliczenion'y1n. Z nietypo\vymi przypadka1ni c = (q 1, 1v , c) oraz
c = (q 1, F. 1v) (przypomnijmy, że € jest pustym slo,vem nicza\vierającyn1 żad nych liter) można sobie \V razie potrzeby poradzić przez \vpro\vadzenic pustego sy1nbolu U, rozszerzenie definicji ó i zastąpienie (ą 1 , li', €) (odpo,vicclnio (q 1, e, 11•)) przez (q1, 1v, U) (odp. (q 1• U, 1v)). Proces obłiczenio'vy maszyny Turinga o wcjściu 1v E A· jest zdefinio,vany jako ciąg konfiguracji co, c 1, c2, .. . , takich że co= (q0 , c, 1v) oraz c; I- C;+ 1 dla każ dego i. Mó,vimy, że proces obliczeniowy zatrzymuje si ę, jeżel i jakieś c; nie rna następnikó\v lub gdy syrnbolem stanu konfiguracji C; jest C/a (obliczenie ukceptującc) bądźą, (obliczenie odrzucające). Jeżeli
proces obliczenio'vy maszyny Turinga T rozpoczynający się od konfiguracji (qo, e, 1v), pro\vadzi do konfiguracji końco,vej (ą, 11: 1, 11·2 ) \V 1 krokach, to mó\vimy, że T oblicza 1v 11v2 ze sfo,va 'vejścio,vcgo 1v w czasie r. Stąd nlożna patrzeć na 1naszy!1ę Turinga j<1ko na urządzenie obiiczające funkcje (częścio we) A• ---+ A• . Można taicie nic brać pod U\vagę ""Yjścia 1v 11112 i po prostu
43
3. Maszyny obliczeniowe po\viedzicć, że maszyna Turinga T akceptuje \Vejście 111, jeżeli zatrzymuje się ona \V stanie akceptującyn1, oraz że T odrzuca \Vejście 1v, jeżeli się nic zatrzymuje b11dź zatrzyn1ujc się \V stanie odrzucającym. Patrząc w ten sposób, moż na trakto,vać maszynę 'fu ringa jako klasyfikator rozdzielający slo,va na zaak-
ceptO\vane i odrzucone. Definicja 3.1.2. Zhiór sló\v S nad A nazywarny językien1 rekurencyjnie przeliczalnym, jeżeli istnieje laka maszyna Turinga T, że T akceptuje 111 \Vledy i tylko \Vlcdy, gdy 1v E S. Definicja 3.1.3. Zbiór S naZ}'\van1y językiem rekurencyjnym, jeżeli istnieje taka niaszyna Turinga T, że każdy proces obliczenio\vy T zatrzymuje się i T akceptuje 1v \vtedy i tylko \Vtcdy, gdy 1v E S. Rodziny jcyzyków rekurencyjnych i rekurencyjn ie przeliczalnych oznaczane są odpo·.viednio R i RE. Z defin icji R C RE dobrze wiadorno jednak, że R '/;- RE (patrz np. (64)). Panuje po,vszechne przekonanie, że maszyny Turinga odzwierciedlają istotę pojęcia obliczalności algorytmicznej: to, co jest obliczalne algorytmicznie, jest także obliczalne na n1aszynie Turinga. To silnie zakorzenione przekonanie, znane pod naZ\vą tezy Churcha-Turinga, po,vinno \Vlaści,vie nazy,vać się hipotezą. W tej książce pojęcie algorytmu \Vpro\vadzamy za pomoc<) niaszyn Tirringa. Maszyny Turinga dostarczają jasnych pojęć do opisu zasobów obliczenio,vych, takich jak czas i przestrzeń używana w trakcie obliczeń. Ponadto wykorzystując maszyny Turinga, można \V prosty sposób 'vpro,vadzić poję cia obliczeń probabilistycznych, niedeterministycznych oraz k\vanto,vych. Z drugiej strony \varto zaznaczyć, że \V \viększości zastoso,vań praktycznych pojęcie maszyny Turinga jest nieporęczne, gdyż implementacja na,vet najprostszych algorytmÓ\V \vyn1aga długich i mało intuicyjnych opiSÓ\V reguł przejścia. Z tego względu podstawo\ve pojęcia dotyczące obliczalności przedstawin1y \V j ęzyku maszyn Turinga, naton1iast bcydziemy także stosować inne sposoby zapisu algorytn16w, takie jak obwody logiczne, obwody k\vantov;e, a nav.·ct pseudokody. PO\V)rźsze definicje językó\v
rekurencyjnych i rekurencyjnie przeliczalnych reprezentują d\vie klasy algorytmicznych problemó\v decyzyjnych. Z problemem decyzyjnym mamy do czynienia, jeżeli musin1y zdccydo\vać, czy wejścio\ve sło\vo 1v należy, bądź nie należy, do danego języka. W przypadku języków rekurencyjnych jest oczywiste, że jeże l i maszyna Turinga akceptuje dany jązyk, to oferuje także algorytn1 rozw iązuj<1cy posta,vione zadanie. Jednak w przypadku ję zykó\V rekurencyjnie przeliczalnych odpowiednia maszyna Turinga nie oferuje dobrego roZ\viązania algorytmicznego. Jest tak dlatego, że mimo iż maszyna zatrzymuje się dla danych \vejściov„ych 1v E S, to nie \viemy, jak długo należy czekać na wynik. Czas tnvania obliczeń można określić dopiero \vtcdy, gdy maszyna zakończy działanie. Oznacza to jednak, że podjęcie decyzji 1v fj Sjest niemożliwe. Wszystkie problemy decyzyjne za\varte \V R na?y\vamy algoryttnicznic rozwiązalnymi, rekurencyjnie roZ\vh1załnym i lub rozstrzygalnymi. 44
3.1. Obliczenia jednostajne
Problemy decyzyjne znajdujące się poza R nazywan1y rekurencyjnie nieroz'viązalnyn1i lub nierozstrzygalnymi. Pod ział na problen1y rekurencyjnie rozwiązalne i nierozwiązalne jest obecnie zdecydowanie niewystarczający. Typo\vyn1 sposobem ulepszenia tej klasyfikacji jest wprowadzenie do rozważań czasu potrzebnego do rozwiązania danego problemu. Dlatego zdefiniujemy teraz kilka podsta\VO\vych pojęć związanych ze sposobe1n pomiaru czasu obliczeń. W teorii złożoności zależy nan1 Z\vykle na określeniu czasu obliczeń jedynie z óokladnością do stałej multiplikaty\vnej. Do tego celu bardzo przydatna jest notacja, którą \Vpro\vadzimy niżej . Niech
.f i g będą funkcjan1i
N -> N. Pisze1ny
f = O(g), jeżeli istnieje sta ła
> O oraz 110 E N takie, że dla każdego n ~ no marny.f\11) ~ cg(n) . Jeżel i dla każdego n ~ 110 zachodzi f(n) ~ cg(n), to piszen1y .f = Q(g). Jeżeli .f = O(g) oraz/= f2(g), to piszen1y f = 8(g) i mówimy, że fig są t~go samego rzędu.
c
Turinga zatrzyn1ującą się dla każdych danych \vejściowych, natomiast T(n) niech będzie 111aksyn1al nyn1 czasem obliczeń dla danych wejścio\vych o długości 11. Mówimy, że T(n) jest funk<;ją złożoności czasowej maszyny M. Maszyna Turinga jest maszyną o \vielomianowej złożo ności czaso,vej, jeżel i jej funkcja złożoności czasowej spełnia równm1ie T(n) = O(nk), gdziek jest stałą. Rodzinę probłemó\v decyzyjnych, które można rozwiązać za pomocą maszyny Turinga o \vielomiano\vej złożoności czasowej oznaczan1y przez P . Nieformalnie mówimy, że problemy za\varce w P są łahve, naton1iast problemy spoza P są trudne. Niech M
będzie maszyną
3.1.2. I Probabilistyczne maszyny Turinga Modyfikując definicję detenninistycznej maszyny Turinga, można sl\vorzyć n1odel obliczeń probabilistycznych. W tym celu należy zastąpić funkcję przejścia rozkładem prawdopodobieńsl\va przejścia
Ó: Q X A x
Q x A x { - 1, 0, I}
--->
[0, I] .
Wartość
ó(q1, a 1, q2, a2, d) jest interpreto'A•ana jako prawdopodobieńsl\Vo tego, że gdy maszyna będąca \V stanie q 1 odczyta sy1n bol a 1, to zapisze symbol a2, przejdzie do stanu q 2 i przesunie głowicę w kierunku d E { - 1, O, I}. Definicja 3.1.4. Probabilistyczn~ maszyną Turinga A1 nad alfabetem A nazy\va111y uporz<1dkowaną szóstkę (Q, A, ó, ąo, Cfa, q,), gdzie qo. q„, q, E Q s<1 OdjJO· wied nio stanen1 początko\vyn1, c\kceptuj<1cym oraz odrzucaj ący111. Dla wszystkich (q 1, a 1) E Q x A spełniony 1nusi być \varunek
L
ó(q1, ai, Cf2, a2, d) = l.
(qz.""d) EQxA x { - 1.0.1}
45
3. Maszyny obliczeniowe
podstawowych pro blemów zwi11za nych z pojęcie rn obl iczal ności, będ zien1y odtąd zakładać, że ó(q 1, ai, q2, a2, d) przyjn1uje jedynie wartości wymierne.1
Aby
u n iknąć
Pojęcie obl iczeń dla probabilistycznej n1aszyny Tu ringa jest ba rdziej złożone niż pojęcie obliczeń
deterministycznych. Mówin1y, że konfiguracja c = (q 1, 111 1a, a 11112 ) daj e konfiguracj ę c' =(q2, w,,aa2w2) (odpo,viednio c' = (q2, w1a,a2w2) i c' = (q2, aa2, 1v2)) z pra\vdopodobieństwe1n p = 15(q 1, a1, q 2, a2, l ) ( odpowied nio p=ó(ą1,a1,q2,a2,0) i p=Ó(q1,a1,ą2,a2 , - I)). Jeże l i c daje c' z pra\vdopodobicństwen1 p, to piszen1y c 1-p c'. Niech co, c 1 , • • • , c, będzie ciągiem ko nfiguracji, takic h że c; 1-p;., c;+ 1 dla każdego i. Wtedy mówi n1y, że c, zostało wyliczone z co w t krokach z prawdopodobieństwen1 p 0p 1 ... p, . Jeże li P1P2 ... p, :JO, m(l\vi rny ta kże, że co 1-p, c 1 1-"2 ... 1-1,, c, jest procesem ob liczeniowym probabil istycznej maszyny Turinga.
w,
Uwaga 3.1.1. Czytelnik n1ający wrażenie, że pojęcie obliczeń probabilistycznych, oparte na probab ilistycznych rn aszynach Tur inga, niezbyt dokładnie odpowiada pojęciu algorytmu wykorzystującego bity przypadkowe, n1a całkowi tą rację! Możr.a podać prostszy pod wielon1a względami rnodel obliczeń probabil istycznych, posługuj ąc się pojęciern niedeterministycznej n1a szyny Turinga. Powoden1, dla którego 'h'Yhral iśmy ten 1nodel, była chęć bardziej przej rzystego przedsta,vienia tradycyjnej defi nicji kwantowej maszyny Turinga (patrz np. [13]). od obliczeń deterministycznych jedna konfiguracja może dawać teraz \viclc różnych ko nfiguracji z pra,vdopodob i eńsl\vami sun1ującym i się do 1. Tak \vięc pełny proces obliczeniowy probabilistycznej n1aszyny Turinga 1noże być postrzegany jako d rze\vo, \V którego węzłach znajdują ~ię poszczególne ko nfiguracje. Ko nfiguracja pocz<1tko\va stanowi korze(1, a potomkarni każdego węzła c są ko nfiguracje po niej następuj ące. Rozpatrywany proces ob liczcnio\vy n1aszyny probabilistycznej jest pojedyncz
od różnien iu
dobicństwa
(3.2)
Pl [c1) + · · · + Pm [Cm] nad
konfiguracją bazową
c 1 , •.• , c,,,.
?vlożen1y więc,
zdefi nio,vać przestrzeń \vektorową, którą 1
46
tak jak
\V
rozdziale J „
teraz będziemy n azywać przestrzenią
Z zalożcnien1 tyn1 można sii,: oczywiście nic zgodzić, jednak zdolność maszyny do wykonywania obliczeń na dowolnych liczbach rzeczywistych także budzi wątpl iwości.
3.1. Obliczenia jednostajne
konfiguracyjną. Wektoran1i bazowyn1i tej przestrzeni są wszystkie potencjalnie niożl i\ve konfiguracje bazo,ve, natomiast ogólna konfiguracja (3.2) jest
\vcktorcm z przestrzeni konfiguracyjnej o nieujemnych \VSpólrzędnych, sun1uj<1cych się do 1. Jest to jednak problem bardziej skon1pliko\vany niż w rozdziale 1„ gdyż man1y tu (przeliczalnie) nieskończenie wiele \vektorów bazowych, a \vięc \vyrniar naszej przestrzeni konfiguracyjnej równy jest (przeliczalnej) n ieskof1czoności. Być może \V trakcie on1awiania ogólnych konfiguracji probabilistycznej maszyny Turinga czytelnik dornyślił się już, w jaki sposób można wprowadzić poj ęcie k\vantowej maszyny 1\1ringa. Na razie jednak pozostaniemy przy obliczeniach probabilistycznych i zapoznamy się z kilkorna modelarni akceptacji. Kiedy w przypadku probabilistycznych maszyn Turinga mówin1y o ograniczonych czaSO\VO obliczeniach, to Z\vykle zakładamy, że w~ystkie obliczenia są tej samej długości. Innymi słowy zakladan1y, że \VSZ)•stkie obliczenia są na tyle dobrze zsynchronizowane, że osiągają konfigurację zatrzyn1uj<1CA•ięc rozumieć st>vierdzenie, że maszyna probabilistyczna zaakceptowała łańcuch lub że za<1kcepto\vala język? W rzeczywistości istnieje wiele możliwości. Niektóre z nich definiujerny poniżej: • Klasa NP jest rodziną języków S, które n1og
• Definiujemy ZPP = RP n coRP. • Klasa BPP jest rodziną języków S, które n1ogą zostać zaakcepto\vane przez pewną probab il istyczną maszynę TuringaM \V czasie wielo111iano\vy1n, \V następującym sensie: jeżeli w E S, to M akceptuje IV z pra\vdopodobieńsnvem nic rnniejszym
niż~, natomiast gdy w f: S, to M odrzuca w z prawdopodo-
bieńsnvem nie mniejszym niż~.
3. Maszyny obliczeniowe
Uwaga 3.1.2. Powyższa defin icja klasy NP (Nondetenninistic Polyno111ial ti111e, niedetenninistyczny czas wielom ianowy) różni się od po\vszech nie przyjc;tej. Można podać bardziej tradycyj n11 definicję, o pie raj<)C się na pojęci u niedeterministycznej 1naszyny Turinga, którą otrzymuje sic; z maszyny probabilistycznej przez pon1 inięcie prawdopodobieństw. Innyn1i słowy niedetern1inistyczna maszyna Turinga posiada relację przejścia ó C Q x A x Q x A x { - 1, 0, 1}, która 1nówi, czy niożl iwe jest przejście z konfiguracji c doc'. Mó\viąc dokładniej, (q 1 , a 1, q 2, a2 , d) E ó oznacza, że j eżeli n1aszyna, znajduj
wyniesion..:j z
obliczeń
daje dwie inne, obie z
p!·aktycznych.
Przykładowo, jeżeli każda
prawdopodobieństwem ~ ,
konfiguracja
a ich oblicze nie \V)1n1aga r
krokó\v, to istniej e 2' konfiguracji końco\vych, z których każda n1oże być obliczona z konfiguracji
początko\vcj z pra\vdopodobieńsl\ven1 ~, .
Mówimy,
że
niaszyna akceptuje slO\V0 wtedy i tylko \vtedy, gdy przynajmniej je dna z konfiguracji końcowych jest ak::cptująca. Zauważmy, że 1nożliwa jest sytuacj a, w której tylko jedna z konfiguracji końco\vych będzie akceptuj ąca i wtedy praktycznie nie jesteśmy w stanie_o_dróżnić prawdopodobieństw akceptacji:
~,
(akceptującego)
i O (od!·zucającego), bez konieczności uru cham iania maszyny 5t(2') razy. Jednak w takim przypadku zwykle czas tnvania obl iczeń staje sic; wykł adniczy, gdyż za każdyn1 razem maszyna musi przeczytać pełne dane \Vejścio\ve o roz1n iarze n, a wtedy t ;;:: 11. Z d efinicji wynika, że każda detern1 inistyczna niaszyna Tu1ing« jest także maszyną probabil istyczn ą (choć za\vsze przeprowadza obliczenia z prawdopodobieństwem równyrn 1) i dlatego P ~ NP. Natorn iast odpcwieź na pytanie, czy P -f NP, pozostaje ciągle ol\varty1n p!·obłemem informatyki teoretycznej. Uwaga 3.1.3. Klasa RP (Rando111ized Polyno111ial ti111e, loso\vy czas wiclomiano\vy) jest bliższa praktycznym obliczeniom. Jeżeli w r/:. S, to fakt ten zostan ie st\vie rdzony \V każdyn1 piOCesic obliczeniO\V)'lll. Z drugiej strony, jeżeli 1v E S, to dowiemy sicr o ty1n z
prawdopodohieńsl\ven1
nie niniejszym
Oznacza to, że d la maszyny Turinga typu RP odpowiedzi pozytywne
48
są
niż ~ . zawsze
3.1. Obliczenia jednostajne
pra,vdziwe, natorniast odpo,viedzi negat)'\vne
są błędne
z
pra,vdopodobień
shven1 111niejszym niż~. Powtórzenie obliczeń k razy pozwala na zmniejszenie prawdopodobieństwa błędnej
decyzji w ~ S do wartości mniejszej lub równej ; • . Probabilistyczna maszyna Turinga tego rodzaju nazywana bywa też maszyną Turinga typu Monte Carlo. U'vaga 3.1.4. Jeżeli język S należy do klasy ZPP, to istnieją maszyny Turinga typu Monte Carlo M 1 i M2 akceptujące odpowiednio S oraz dopełnienie S. Łącząc te maszyny, możemy otrzymać algorytrn, którego wielokrotne użycie pozwała na uzyskanie poprawnej decyzji z calkowitą pewności ą . Jeżeli 111aszyna M1 daje odpowiedź w E S, to musi być prawdą iż iii. E S, bO\vie111 pozyt)'\vne odpo•.viedzi tej n1aszyny są zawsze pn1\vdziwe. Podobnie, możemy być pewni, że 1v rf. S, jeżel i maszyna M2 dała odpo,viedź w E A *\S. W obydwu
i,
przypadkach prawdopodobier1stwo odpowiedzi błędnej 'vynosi co naj,vyżej tak \vi ęck-krotne \V)'konanie obliczeń na rnaszynach M1 i M2 pou,ala st\vierdzić, że albo w E S, albo w rf. S, z prawdopodobieńst,vem nie mniejszym niż IMożna zaten1 po,viedzieć, że algorytm typu ZPP działa jak algorytm
;„
deterministyczny, którego oczekiwany czas obliczeń jest \ViclomianO'A'Y· Skrót ZPP oznacza zerowe pra,vdopodobief1shvo błędó'v 'v czasie wielomianowy1n (Zero enor Probability in Polynomia/ tin1e ). Algorytmy typu ZPP nazywa się też algorytn1an1i Las Vegas. Uwaga 3.1.S. Definicja klasy BPP opiera się na założen iu, że akceptujerny języki - lub mówiąc inaczej, że rozwiązujemy problemy decyzyjne - za pornocą probabilistycznej maszyny Turinga, dającej poprawne odpowiedzi z pra\v? dopodobieńshvem większym ni ż ~ _, . podobieństwo błędów \V
Skrót BPP oznacza ograniczone prawdo-
czasie \viełomiano,vyn1 (Bounded error Probability in
Polynornial tirne) . Wybór stałej~ jest arbitralny i dowolna wartośćc E (;. I) definiuje tę samą klasę. Jest tak dlatego, że rnożemy łahvo Z\viększyć prawdopodobieństwo sukcesu przez zdefiniowanie maszyny Turinga, która przep ro\vadzałaby te sarne obliczenia \viełe razy, a następnie jako odpo\viedź przyj ąć wynik, który pojawia się częściej. Po\vszechnie uważa się, że probłe111y należą ce do klasy BPP s<1 praktycznie roz,viązywa ł nc. To przekonanie jest znane jako rozszerzona teza Churcha-Turinga. Wcześniej wspon1nieliśmy, że zgod nie z telą Churcha-Turinga, pojęcie obliczalności daje się wyrazić za pomocą maszyny Turinga. Wydaje się jednak, że
probabilistyczne rnaszyny Turinga, z omó\vionymi po\V)'żej modelami akceptacji, również dobrze się do tego celu nadają. Czy jest prawdą, że każdy język zaakcepto\vany przez probabilistyczn<1 n1aszynę Turinga, niezależnie od 1110dełu akceptacji, zostanie także przyjęty przez Z\vyczaj ną maszynę Tt1ringa?
49
3. Maszyny obliczeniowe Odpowiedź
na to pyta nie j est pozytywna, a uzasadnien ie jest następujące: pon ie\vaż wyrnagaliśrny, aby prawdopodobieństwa były liczbami wymiernymi, za,vsze istnieje 1n ożł iwość symulacji drzewa obliczeń probabilistycznej maszyny Turinga przy użyciu zwyczajnej maszyny, przeprowadzającej \vszystkie potrzebne obliczenia se kwe ncyjn ie .. lnnyn1i sfo,vy, znajom ość pra,vdopodobie r1stw, które 'vykorzysty\vane są przez a lgorytm probabilistyczny, poz\vala na o bliczenie odpo,vied niego rozkładu prawdopodobieństwa w sposób detern1 inistyczny.2 Dlatego te:i: pojęcie obl iczeń probabilistycznych nie usuwa gra nicy między rozstrzygalnością a nierozstrzygalnością. Jednakże na dowolną detern1inistyczną maszynę Turinga można patrzeć ja k na niaszynę probabi l istyczną, któ ra dla każ dego stanu posiada tyl ko jedną rnożliwość przejścia. Ocz)'\viste jest zaten1, że
P
c RP,
P
~ ZPP
o raz
P C BPP.
(3.3)
Syrn ulacja niaszyny probab ilistycznej przy użyciu rnaszyny deterministycznej po lega na wykona niu kolejno wszys tkich możlhvych obliczeń maszyny probabilistycznej. Ponieważ ilość kon iecznych obliczeń nioże być wykładnicza względem rozm iaru danych wejściowych ( pa trz uwaga 3.1.2), czas obl icze ń także może być 'vykładniczy. l~odzą się zatern pytan ia: Czy obl iczenia probabi listyczne są bardziej wydajne od obliczer1 deterministycznych, tzn. czy któraś z inkluzji (3.3) jest ostra? Czy istnieje jakiś sprytny sposób symulowania obliczeń p robabilistycznych w sposób dctcnninistyczny, tuk aby czas obl iczeń nie rósł \Vykładniczo? Jak dotąd nic z na leziono na te pytania odpowiedzi.
I
3.1.3. Wielotaśmowe maszyny Turinga Prostyn1 uogólnien iem n1aszyny Turinga jest 'vielotaśmowa maszyna 'lliringa. Ten model obliczeń pojawia sit( w natura lny sposób przy dyskusji obliczeń ograniczonych p rzez pamięć. Definicja 3.1.5. (Dctcrn1inistyczną) maszyną Turinga ok taś1nach naci a lfabetem A naz)'\vamy uporząd kowaną szós tkę (Q, A, ó, q0, Cfa, q „), gdz ie qo,
2
Warunek wymierności
prawdopodobieństw n1a
tu kluczowe znaczen ie. Ograniczenie 10 można krytykować, jednak z praktycznego punktu widzenia wym ierne prawdopodobieństwa powinny być do naszych celów wysta rczające. Niektórzy dopuszczają jako prawdopodobieństwa wszystkie „liczby obliczalne", ale wprowadza to tylko dodatkowe trudności, na przyklad pytania: Które liczby są obliczalne? Jaki jest mo· dcl ohl iczcń pozwalający „obliczyć te liczby"? Czy istnieje efektywna 1netoda porównywan ia „liczb obliczalnych" (potrzebna np. aby zdecydować, czy prawdopodobieństwo jest wi<;kszc b11dź równe ~ )?
sol
3.1. Obliczenia jednostajne
Konfiguracja rnaszyny Turinga o k 2k + I wyrazów
taśrnach
jest
uporządkowaną sek\vencją
(3.4)
gdzie q E Q, natorniast x;, y; E A•. Mó\virny, że q jest stane111 bieżący111, a x;y; jest zawartością i-tej taś111y. Niech x; = v;a; oraz y; = b;w;. Mó,.vin1y wtedy, że b; jest symbolem aktualnie odczytywanym z i-tej taśmy. Jeżeli ó(q, b1, b 2, ... , bk) = (r , (c1, d 1), (c2, d 2), ... , (ck, (h)),
/
gdzie r E Q, c; E A, a d; E { - 1, O, I}, to konfiguracja c daje konfigurację c' = (r,x~,y~,x'2 ,y~„ . „ .it,y~), gdzie (,l;,y;) = (v;,Cl;C;iv;) dla d; = - l , (x;,y) = (v;a;,c;w;) diad;= Ooraz(x;,y;) = (v;Cl;C;, w;) diad;= I. Pojęcia Z\viązane z czeń itd., definiuje
obliczenian1i, takie jak akceptacja, odrzucenie, czas oblisil( dla wiclotaśmowych rnaszyn Turinga dokład nie w ten sam sposób, co dla Z\vyklych maszyn Turinga. Jeśli chodzi o zasoby parnięci UŻ)'\\'ane w trakcie obliczeń, to sensowne wydaje się zaniedbanie pamięci zajmowanej przez dane \vejścio\ve oraz parnięci potrzebnej do zapisania wyniku. Możemy to osiągnąć w następujący sposób: ustalarny k > 2 i taśmy pienvszą i ost atnią uznajemy odpowiednio za taśmę wejścio,vą i taśn1ę wyjściową, przy czyni n1aszyna nie może zmien iać zawartości taśmy wejściowej, a głowica na taśrnie wyj ściowej nie rnoże przesuwać się w le\vO. Jeże li teraz osiągniemy konfigu rację ko r\cową c = (q, u 1 , v1, u2, 112, . .. , lik> vk), to zasoby pan1ięci użyk- 1
\vane w trakcie obliczeń dane są przez
L 111;11;!. i=2
Ponownie możemy zapytać, czy zdol ność obliczeniowa wielotaśn1owej maszyny Turinga jest większa niż maszyny zwyczajnej. 'JYm razem można nawet pokazać, że zdolności te są bardzo zbliżone. Jako ćwiczenie proponujemy, aby czytelnik udowodnił, że problerny dające się rozwiązać przy użyciu niaszyny wielotaśn1owej w czasie t dają się rozwiązać przy użyciu maszyny z jedną taśn1ą \v czasie O(r).
I
3.1.4. Kwantowe maszyny Turinga Model ob l iczeń k\va ntowych rnożna otrzyn1ać przez proste uogólnienie probabilistycznej 1naszyny Turinga. W ty111 celu występujące ta rn prawdopodobieństwa należy zastąpić amplitudami prawclopodobieńst>va odpowiednich przejść. Otrzymamy w ten sposób funkcję an1płi tudy prawdopodobieństwa przejścia ó (w skrócie - funkcję przejścia) Ó: Q X A X
QX A
X {-
1, 0, 1}
----->
taką iż 8(q 1 , a 1, q2 , a2 , d)
jest am plitudą prawdopodobieństwa, tego że maszyna będąca w stanicq 1 po odczytaniu symbolu a 1 zastąpi go syrnbolern C12, przejdzie do stanu ą2 i przesunie głowicę \V kierunku d E { -1, O, l} .
51
3. Maszyny obliczeniowe
Definicja 3.1.6. Kwantową 1uaszyną Turinga (Quantu1n Tz1ring Machine, QT M) nad alfabeten1A nazywan1y uporządko\vaną szóstkę (Q, A, 8, ąo. q,„ q„), gdzie ąo , q", q„ E Q oznaczają odpowiedn io s tan początko\vy, akceptuj ący oraz odrzucający. Funkcj a przejścia niusi spełn iać warunek
L
ló(q1, a1, qz, a 2, d)l2 = I
(qz," " d)e QxAx {- I.O. I)
dla każdego(q 1 ,a 1 ) E Q x A. Pojęcia takie jak „ko nf iguracja c jest następnikiem" są prostymi uogólnieniami pojęć z\viązanych z obliczenian1i probabilistycznymi. Można także uogólnić mo-
dele akceptacji NP, RP , ZPP oraz BPP \ V taki sposób, aby odpo\viadaly one obliczeniom k\vantO\V)'m. NaZ\vy odpo\vied nich klas tworzymy Z\vykle w taki sposób, że dla danej rodziny j ęzyków F akceptowanej przez klasyczny model obliczeń (deterministyczny lub probabilistyczny) dodajen1y na początku naZ\vy literę Q , tzn. piszemy QF . J ednakże istnieje już dosyć dobrze ugruntowa ny Z\vyczaj oznaczania k\vantowego odpowiednika klasy B PP3 przez BQP, klasy pl przez EQP (Exact acceptation by a Quantun·1 computer in Polynomial time, ści sła akceptacja przez ko1nputer kwa ntO\V)' \ V czasie wicło1nia no\V)'1n) oraz klasy NP przez NQP (zamiast odpowiednio QBPP, QP oraz Q NP ). Podobnie jak \V przypadku obliczeń probabilistycznych, ogól ną konfigurację kwantO\vej 1naszyny Tur inga możn a przedstawić jako kombi nację konfiguracji bazowych
(3.5) Wybieraj ąc konfiguracje bazowe w taki sposób, aby tworzyły orto norrnal ną bazę nieskończenie\vy1ni arowej
przestrzeni wektorowej, spostrzegan1y, że konfiguracje ogól ne - sup erpozycje - są wektorami jednostkowymi w przestrzeni konfigu racyj nej. Ponadto funkcj a przejścia wyznacza w przestrzeni stanó\v odwzorowani e liniowe MJ. Mechanika kwantowa (ściślej mówi<1c, stosowany przez nas formalizrn tej teorii) narzuca dodatko\ve warunki na fu nkcj ę przejścia 8: określone przez 8 odwzorowanie liniowe Ma w przestrzeni stanó\v powinno być unitarne. Okazuje się, że u n itarność odwzorowania M,1 n1ożna zape\vnić, n ak ładając na funkcj ę przejścia warunki lo kalne (patrz (13], (45] o raz (63]). Jednak ni e będziemy ich tu oma\viać, gdyż nie chcemy zagłębiać się zbytnio \V szczegóły techniczne. W następnyn1 podrozdziale o n1ó\vi111y natorniast dokładn ie obwody k\vantowe jako n1odel obl iczeń k\vanto\vych, gdyż pozwalają one na znacznie > Kwa ntowym odpowiednikiem klasy BPP jest rodzina języków akceptowanych przez kwantową maszyn<( Turinga dzialaj ącą w czasie wielomianowym, z prawdopodobie11, . . . . .. 2 shvcm poprawnosc1 nie mniejszym n1z .
3
4
52
Rodzina j ęzyków akceptowanych przez kwan tową maszynę Turinga dzialającą w czasie wielomianowym, z prawdopodobieńshven1 1.
3.1. Obliczenia jednostajne
prostszy opis algorytmów k\vantowych niż ina to miejsce''" przypadku QTM. Wszystkie algoryt1ny kwantowe rozważane '" rozdziałach 4- 6 opisane są za pon1ocą obwodó'lv kwantowych. Podrozdział ten zakończymy anal izą 'vybranych własności k'lvantov.'Ych maszyn Turinga. Na początek zastanówmy się nad faktem, że z1niana stanu QTM wyznacza w przestrzeni konfiguracyjnej unitarn ą, a co za tyn1 idzie, odwracalną ewol ucję czaso,vą. Zwykłe Jnaszyny Turinga niogą być bowien1 także nieodwracalne.5 Powstaje pytanie, czy obliczenia odwracalne są 'vystarczająco ogólne? Czy rnożna skonstruo'lvać odwracalną maszynę Turinga, która biydzie w stanic \vykon ać dowolne zadanie obliczeniowe? Jako pie1wszy pozyt)l\vnej odpo'lviedzi na to pytanie udzi e lił Leccrf [53), który chciał udowodnić, że probłen1 korespondencji Posta6 jest nierozstrzygalny nawet dla ho1non1orfizmów injekty,vnych. Konstrukcje wprowadzone przez Lecerfa zostały później uogólnione przez Ruohonena [78). Jednak to Bennett jako pienvszy podał w pracy [8] model obłiczci1 odwracalnych, syn1ulujących obliczenia nieodwracalne. Obliczenia te były \VOlniejsze, ale miały, z dokładnośc i ą do stałej niultiplikatywnej, taką san1ą złożoność czasową, co obliczenia symuło\vane. Wymagały one jednak znacznie więcej pa1nięci (patrz także (46]). Praca Bennetta była niotywowana (przynajn1niej cz9ściov.'o) problernern tern1odynan1icznym: "''ed ług Landauera (52) nieodwracalne 'vyn1azanie bitu \vywołuje rozproszenie przynajn1nicjkTln2 dżuli cnergii.7 Ograniczenie to można on1 inąć, jeżeli obliczenia przeprowadzane są \V sposób odwracalny, a Lccerf i Bennett pokazali, że zawsze 1nożna zastosować taki sposób obliczeń. Odwracalna maszyna Turinga skonstruowana przez Bennetta opiera się na maszynie Turinga 'lvyposażonej w trzy taśmy: \Vt:;jściową, rej estrującą oraz '~yj ściową. Odwracalność uzyskuje się przez symulację oryginalnej maszyny nieodwracalnej na taśmie \vejściowej i jednoczesne zapis)l\Vanic historii obliczeń - tzn. użytych w trakcie syn1ulacji regu ł przejścia - na taśmie rejestrującej. Gdy n1aszyna kończy pracę , \vyniki kopio,vane są z taśmy \vejściowcj na czystą taśn1ę \vyjściową. Następnie obliczenia przeprowadzane są w przechvnym kieru nku, tak aby 'vyczyścić taśmę rejestrującą do da lszego użytku. \Viclkość pami9ci potrzebnej do tak ich oblicze11 jest proporcjonalna do czasu tnvania syn1uło,vanych obliczeń nieodwracalnych. Rekurencyjne \vymazywanie taśmy rejestrującej pOZ\vala zreduko\vać tę wiel kość nawet do O(s(n) log 1(11)), przy czasie trwania obliczeń 0(1(11) log 1(11)), gdzie s i 1 oznaczają wielkość użytej 5 Zwyk l ą maszynę 6
7
Turinga nazywamy odwracalną , gdy każdej konfiguracji odpowiada jednoznacznie określony prekursor. Problem korespondencj i Posta (PKP) byt jednym z pierwszych proble1nów obl iczeniowych , dla których pokazano, że są nierozstrzygal ne. Nierozstrzygal ność PKP została ustalona przez Emi la Posta w pracy (7 1]. Znaczenie PKP polega na prostocie jego kombinatorycznego sformułowania; PKP jest bardzo przydatny przy ustalaniu nierozstrzygalności innych problemów, a także przy badaniu granicy między rozstrzygalnością a nierozstrzygalnością. k = I, 380658 · l 0- 23 J/K jest stalą Boltzmanna, a T temperaturą bezwzględną.
3. Maszyny obliczeniowe pan1ięci i czas trwania obliczeń nieodwracalnych [9]. RoZ\vażania dotycz<1ce 7.ałcżności niiędzy \vielkością użytej pamięci a czasem trwania obliczeii od,vracalnych niożna znaleźć także \V pracy [54).
\Vicmy zatem, że jeżeli jakiś problem jest obliczalny na maszynie Turinga, to jest też oblic-.i:alny na maszynie odwracalnej. którą z kolei można także U\Vażać za maszynę k\vanto,vą. Dlatego też k'vanto\ve maszyny Turinga S<) co 11aj111nicj tak sa1no mocne, jak maszyny zwykle. Poja,via się następnie pytanie, czy kwanto,ve maszyny Turinga mogą rozwh1zać zadania, których roZ\viązanie nie jest możl iwe przy użyciu maszyn Z\vyczajnych. Odpowiedź jest negatywna, z tego saniego pcl\vodu, co dla 1naszyn probabilistycznych: nioże1ny symulować dzia łani e QTM na 1naszynic zwyk łej , zapa1n iętuj ąc wszystkie potrzebne konfiguracje i ich an1plitudy. Argu1ncntacja ta \vyn1aga założen i a, że wszystkie an1plitudy przejść mogą być reprezentowane \V sposób poz,valaj<1ey na zapis skończony. Na przykład 1nożna post awić \varunek, aby wszystkie an1plitudy dawały się zapisać \V postaci x + yi, gdzie x i y są liczbami 'vyn1icrnymi. Z zalożcnien1 tym można się oclY'viścic nie zgodzić, jednak możlhvość skonstruo,vania maszyny 'vykonująccj obliczenia na do,volnych liczbach zespolonych także jest 'vątpliwa. Istnieją jednak przypadki operacji kwanto,vych, kiedy zastoso\vanie nie,vyn1icrnych a1npli1ud. takich jak np. ; , jest bardzo 1 naturalne. Dlatego \V praktyce będziemy stosowali amplitudyx + yi, gdzicx iy mogą być także liczban1i nic,vymiernyrni, ale tylko wtedy, gdy istnieje „,vydajny" sposób na znalezienie \vymierncgo przybliżcniax iy. Pozostawian1y czytelnikowi sprawdzenie, że we wszystkich przykładach znaj dujących się w tej ksiwi:ce, arnplitudy nicdaji1cc wyrazić się za pon1ocą liczb \yYn1ie rnych niożna dob rze przybl iżyć a1nplitudami o wyrnicrnych x iy. Ma1ny dobre po,vody, aby wierzyć (za Feynn1ancm), że działania J..'\vantowych maszyn Turinga nie da się wydajnie syn1ulować na rnaszynach Z\vyczajnych, ani na,vet na maszynach probabilistycznych. Jednym z głó,vnych argumentów jest algoryt1n faktoryzacji Shora [81 J: istnieje k\vantowy algorytm faktoryzacji o \viclon1ianowcj złożoności czaso,vcj, natomiast minio ogromnego nakładu pracy, jak do tej pory nie znaleziono algorytmu klasycznego (na,vct probabilistyc-.i:nego) o wielomiano,vej złożoności czaso,vej realizującego to samo zadanie. Ostatnim zagadnieniem Z\viązanym z k\vanto,vymi maszynami Turinga, które 01n6,vimy \Vtym podrozdziale jest istnienie uniwersalnej k\vantowcj maszyny 1\1ringa. Mówin1y, że n1aszyna 11.iri nga jest uniwersalna, jeżeli jest ona'" stanic syrnu lować obliczenia innej niaszyny 1liringa w następującyn1 sensie: jeżeli odpowiednio zakodujen1y opis działania (reguły przejścia) oraz dane wejściowe dowolnej n1aszyny Turinga M, to uni,vcrsalna 1naszyna Turinga U będzie w stanic przeprowadzić na zakodowanych łańcuch ach te sanie obliczenia coM. Inaczej rnówiąc, unhversalną maszynę Turinga można zaprogramować \V taki sposób, aby wykon)'\vala obliczenia do,volncj innej niaszyny. Można poka1..ać, :te istnieje uniwersalna niaszyna Turinga posiadająca 5 stanó'v i operująca n;1 alfabecie o 'vymiarze 5 (74]. D. Deutsch udo,vodnił \V pracy (31) istnienie unhvcrsal ncj k\vantou·cj maszyny 1\1ringa 1nogącej symulować działanie każdej J..'\vanlO\vej maszyny Turinga z dowoln•J dokładnością. Jednakże Deutsch nie 54
3.2. Obwod brał pod U\vagę \vydajności li konstrukcję unhversalncj
i
dokł adności obl iczeń
' vyni \vzglrydem T i
i.
symulacji. W pracy [ 13) Bernstein i Vazirani podaQTM, która dla do,vołnej zadanej liczby krokó\v T E > O symuluje do\volną QTM \V czasie \Vielomiano-
3.2. IObwody
I
2.t. Obwody logiczne Przypomnijmy, że maszynę Turinga możn a trakto\vać jako obiekt poZ\vał ający na obliczanie funkcji czryściowej f: A· -+ A· . Ustalimy teraz alfabet binarnytl A = IF2 ={O, 1} i zajmicniy si<; ob\vodan1i logicznymi obliczającyn1i fun kcje {O, I}" , -+ {O, I}"'. Podstawowy1ni elementami tych obwodów będ<} funkcje: /\:!Fi -+ Jii'2 (bramka koniunkcji), zdefiniowana przez \Va runek /\(x 11 x2) = I wl\v9 x1 = x2 = I, V : IF2 (bramka alternatywy), zdcfinio,vana przez \Yarunck V(xi,x2) = O\Yl\Y X1 = x 2 =O, oraz ..., : F2 _, lF2 (bramka negacji), zdefiniowana przez -.x = I - x. 10 Obwód logiczny jest acyklicznym grafem skierowanyni, którego \vęzły zawieraj ą zn1icnne wejściowe, W)'.j ściowe lub bramki logic7.ne /\, V lub „. W węzie zrnicnncj wejściowej nic n1a strzałek (krawędzi) przych odzących , natoniiast w węzie zrniennej wyj ściowej nie nia strzałek wychodzących i jest tylko jedna strzał ka przychodzącą . Węzły /\, V posiadają po dwie st rzałki przych odzące, a węzeł ..., ma ją tylko jedn11. W kontekście Ob\vodó\V logicznych krawędzie grafu naz)"vane są także połączeniami. Liczbę \\'ęzłó\v ob\vodu nazY'vamy złożonością obwodu logicznego.
w;-+
Obwód logiczny o 11 zrn iennych \Yejściowych x 1, •.. ,x„ i 111 zmiennych 'vyjścio \yYCh y 1, ••• ,y,,, w na turalny sposób defin iuje fun kcję IF'~ -+ IF'~' : dane \vcj ścio \Ye kodujemy, n adając z1niennyn1 wejściowym wart ości Olub ·1, a każda bramka oblicza funkcję pierwotną/\, V lub „ . Wartość funkcji dana jest jako ciąg zn1icnnych \yYj ścio\vych yi, . ... y,,,.
Przykład 3.2.1. Ob,vód logiczny z rys. 3.1 oblicza funkcję/: lF~ -+ lF~ zdefinio\van11 przez/(0. 0) = (0, 0),/(0, I) = (0, I),/( I , 0) = (0, I) i/( I. I ) = ( I , 0). Stąd f(x1 .x2) =()·1,J2) 11 , gdzie .)'1 = (x1 + x2) mod 2, a J2 jest bitem przeniesienia. lF2 jest ciałem o dwóch elem entach Oi l. Dodawanie i mnożenie zdefiniowane są nast~pująco: O+ O = l + I = O, O+ I = I, O · O = O · I = 0, I · I = I. Stąd w ciele lF2: I = I uraz I - I I. 9 wtedy i tylko wtedy, gdy
8
=
10 11
Zamiast A(xi.x2) i V(x 1,x2) sto~ujc się także 02naczcniax1 A x2 oraz x 1 V x2. Z wartości funkcji f wynika, że f(x 1• x2) (y2.y1) - przyp. t łum.
=
55
3. Maszyny obliczeniowe X 2 l - - -- Oo! -. l---
-
Rysunek 3.t. Obwód logiczny obl iczający sumor bit6wx 1 ix2
Emil Post udowodnił niocnc twierdzenie charakteryzujące zupelny zbiór funkcji logicznych [70]. Twierdzenie to mówi, że dowolną fu nkcję IF"; -+ F'~' 111ożna obliczyć za pomocą ob\vodu logicznego zawierającego bramki /\, V i -.. Zbi6r bramek S nazywan1y uniwersalnyn1, jeżeli wszystkie funkcje IF~ -+ IF2 111ogą być skonstruowane przy użyci u bra1nek zawartych \V S. Pokażen1y, że S ={ /\. V, -.} jest uniwersalnym zbioren1 bramek logicznych. Fakt, iż \vszystkic funkcje lF'; -+ B"~' są także obliczalne \vynika z tego, że dowolną funkcję
IF'; ~ ?'; niożna ut,vorzyć z111 funkcji, z których każda oblicza pojedynczy bit. Po pienvsze laf\vo spra\vdzić, że V(x 1, V(x2.x3)) ró\vna się O \Vf\v x1 = x 2 = = x 3 =O. Dla uproszczenia będzi emy oznaczać V(x1 , V(x2,x3}) =Xi V x2 V X3. Oczywiście pO\vyższc spostr7.eżcnie n1ożna uogólnić na dowol ną l iczhę zmiennych: używaj<)C jedynie funkcj i dwóch zn1iennych V, można skonstruować funkcjry x1 V x2 V ... V x„, która przyjmuje wart ość O\vtw \vszystkic zn1iennc równe są O. Podobnie, używając jedynie funkcji dwóch zrnicnnych /\, można skonstruować funkcjęx1 I\ x2 /\ ... /\ x„, która pr.tyjn1uje \vartość I \Vtw \vszys1kie zn1iennc ró,vne są 1. Zdefiniujmy teraz dla każdego a = (a 1.... , a„) E ~ funkcjęM, jako
gdzie 4>;(x;) = -.x;, jeśli a; = O, oraz <.l>;(x;) = x;, jeśli a; = I. A zatem funkcje M, można skonstruo,vać, używając jedynie I\ i -.. Ponadto 1W,(x 1, •••• x„) = I wt\v t/>;(x;) = I dla każdego i. Jednak
. ) _ { x; jeśli a; = I. ( <:>, .\; -.X; jeśli a, = O. >;(x;) = I wt\v x; = a;. Wynika st ąd, że M, jest fuokcj11 charakterystyczną zbioru jcdnoelen1cntowego {a} : M,(x) = J wtw x = a. Przy użyciu funkcji charakterystycznych M, niożna '" prosty sposób skonstruować dowolną funkcjryf:f = M,, V M,, V ... V M,.., gdzie a 1. a2.... , ak są dokładnie tymi elementami!?'~, dla których f przyjmuje wartość I. tak
więc
3.2. Obwody
Tak \vięc obwody logiczne dają rnożliwość obliczania funkcji 2"'~ ~ ii';', gdy liczba z1nie nnych \vejścio,vych jest ustalo na. Rozważ1ny teraz funkcj ę .f: {O. I}" - {O. I} określ oną na do\vol nyrn łańcuch u binarnyni. Niech J,, bę dzie funkcj iF 2 istnieje obwód logiczny obliczający j;,. A zatcn1 dla dowo lnego j9zyka binarnego L isl nieje rodzina Ob\VOdów logicznych Co. c~ akceptuj
c,. ....
„
Twierdzenie 3.2.1. Język Lina obwody jednostajn ie wielorn ianowe \Vtccly i tylko wtedy. gdy L E P. Po n ieważ \V
tej książce głównyrn przedn1ioten1 naszych zaintereSO\va1i są obliczenia kwantO\\'e o wiclon1ianowej złożoności czaso,vej, \vięc '" dals;:yeh ro;:\vażaniach będzien1y SlOSO\l'ać forrna lizn1 ob,vodó\v k\vantowych, który jest podobny do forrnalizmu obwodów jednostajnie wielomianowych.
3.2.2. J Obwody odwraca lne \V rozdziale 2. wprowadziliś111y bran1ki kwantO\ve jako odwzoro\vania unitar-
ne. Jest to uogólnienie pojęcia bran1ki odwracalnej, tak więc teraz omówin1y niektóre wlasności brarnek odwracalnych. Brarnkn odwnu.:alna określona na
57
3. Maszyny obliczeniowe 111
bitach jest permutacją na ~·, tak więc posiada ona
wych oraz 1n bitó\v \vyjści ov.'Ych. nych na 111 bitach.
Oczywiście
111.
bitów wejścio
istn ieje (2 111) ! bramek odwracal-
Przykład 3.2.2. Funkcja T: IF~ -+ IF~, T(x1, x2, x3) = (x 1,x2 ,x1x2 - x3) definiuje odwracaln<1 bran1kę na 3. bitach, nazywaną bramką Toffoliego. Bramka ta zawsze pozosta\via niezn1ienione pienvsze dwa bity x 1 i x2, naton1iast na bicie trzeci111 dokonywana jest negacja x3 wt\v x 1 =x2 = I. Oznaczenie bran1ki Toffolicgo pokazuje rysunek 3.2.
xz _ ____ _ yz
XJ - --e-- - Y3
Rysunek 3.2. Bramka Toffoliego
Obwód odwracalny jest permutacją na lF~ złożoną z bramek odwracalnych, zatem nie będzierny \Vprowadzać specjalnego rozróżnienia między obwodan1i a bran1kan1i odwracalnymi. Jedyna różnica polega na tyn1, że zakładan1y Z\vykle istnienie ustalonego zbioru bra1nek odwracalnych , z których niożerny zbudować dowolnie duży obwód. Zbiór bramek odwracalnych R nazywamy uniwersalnym, jeżeli przy użyciu brarnek należących do R, stałych oraz przestrzeni roboczej 111ożna zbudować dowolny obv.ród odwracalny C: IF~ -+ Ir~ . Oznacza to, że przy użyciu brame k nal eżących do R można skonstruować taką permutację f : lF'~+m
której istnieje ustalony stały \vektor (c 1 ,
••• ,
-+
IF'~+m, dla
c 111 ) E IF~' spełniający
gdzie (y 1, ••• , y„) = C(x 1, . . . , x„). Dodatkowo w naszej konstrukcj i dopuszczamy także permutację zamieniaj<1c<1 n1iejsca111i dcl\vo lne dwa bity: ( . .. , „t;, ... , ;..), . . . )
t--t ( . ..
, „r:i, ... ,..\'.;, . . .).
Pennutacja ta nie byłaby oczy\viście potrzebna, gdyby założyć, że/ syrnu luje C w taki sposób, iż stałe są rozn1ieszczone na usta lo nych rniejscach \VŚród zrniennych, a dane 'vyjściowe odczytuje się na ustalonych bitach. Jeżeli uniwersa lny zbiór R zawie ra tylko jedną bramkę, to bramkę taką nazywamy bramką uniwersalną. Złożoność obwodu C (względen1 ustalonego uniwersa lnego zbioru bramek odwracalnych R) j est to liczba bramek t\Vorzących C. Pokazaliśmy wcześniej, że
przy użyciu obwodu logicznego zbudowanego z nieodwracalnych bramek /\, V oraz.., można obl iczyć do\vol n ą funkcję IF'; -> Jr~'.
58
3.2. Obwod
W szczególności oznacza to, że za pomocą tych bramek można także zbudo\vać do\volny obwód odwracalny. Przypomnijrny też, że działanie dowolnej maszyny Turinga może być symulowane pilez od,vracalną maszynę Turinga. Nic powinien nas zatern dziwić fakt, że działanie dowolnego obwodu logicznego można symu l ować, posługując si ę jedynie bramkami odwracalnyrni. Pra,vd<1 jest bowiem, ~c: • Bramki negacji są odwracalne, rnogą więc hyć stoso~'ane bezpośrednio. • Brarnki koniunkcji są nieod\vracalnc i dlatego syrnulujenly ich działanie za pornocą bramki Toffolicgo 7(:1·1,x2,..1:i) = Cr1. ..1"z,xix2 - x;). Zau11rain1y. ie T(x1,x2,0) = (x1,x2,x1x2), tak 'vięc przy x3 =O branlka Toffoliego oblicza koniunkcj.y zmiennychx1 i x2 • • Ponieważx1 V x2 = -i(-ixr /\ ··x2), \Vięc \vszystkic bramki V można zast
T(I, l,•x1) oraz T(l.x1,x2)= T(l,x„x 1 - x 2). Tuk \vięc bramki Toffolicgo oraz stale O i 1 'vystarczają do symulacji działania dowolnego ob,vodu logicznego zbudowanego z bramek /\, V oraz -.. Ponieważ przy użyciu obwodÓ\V logicznych można zrealizo,vać dowolną funkcję IF'~ - IF'~', więc otrzynlaliśmy następujące twierdzenie: Twierdzenie 3.2.2. Bramka lbffoliego jest uniwersa l ną branlką odwraca l ną. Uwaga 3.2.t. Prostszy do,vód po,vyższcgo t\vicrdzenia podał To ffo li \Y pracy [87]. Warto odnoto\vać, że istnieją unhvcrsalnc d\vukubito,ve bramki dla obliczeń k\vanto,vych [33], natomiast nie istnieją unhversalnc d\vubito,ve bramki od,vracalne. Mamy bo,viem tylko 4! = 24 d\vubitowe bramki odwracalne i wszystkie są liniowe, tzn. \vszystkic można przedsta\vić \V postaci T(x) = Ax + b, gdzie b E IF~, zaś A jest odwracaln<1 nlacierzą naci cialcrn binarnym. Wynika z tego, że do,volna funkcja stworzona z tych bramek także będzie liniowa, a przecież istnieją odwracalne bramki niclinio\vc, takie jak bran1ka Toffoliego.
59
3. Maszyny obl iczeniowe
3.2.3. IObwody kwantowe Pono\\111ie będziemy teraz u tożsam iać łańcuchy bitów x E IF~' z ortogonal ną bazą {lx)
: x E IF';'} 2111-\vy1niarov1ej przestrzeni H ilberta H2"'. W cel u podania
reprezentacji odwzorowań liniowych
IF';'
--+
lF';'
posł uży111y się przedstawie-
nie1n lx) = e, =(0, ... , l, . .. , O)T, gdzie e; jest \vektorem kolun1no,vyn1, z 1 na pozycji i-tej oraz O na pozostalych m iejscach, jeżeli sklado\ve x = (x 1 , ••• , x111 ) tworZ
111.
· 3 Przykł ad 3.2.3. W przestrzeni IF2 oznacza my IOOO) = ( 1, O, _ T _ T . .
... , 0)T ,
· · . 100 1) - (0, I, ... ,O) , ... , IJ 11) - (0,0, .. . , 1) . ReprezentaCja 1nac1e1zowa
bran1ki Toffołiego wygląda
MCI)=
następująco :
o
o
gdzie /2 jest macierzą jednostko\vą 2 x 2, a M~ jest brain kę negacji (patrz przykład 2.1.1).
rnacie rzą reprezentuj ącą
Bramki k\vantowe wprowadza się ja ko proste uogól nie nie bra1n e k odwracalnych. Definicja 3.2.1. Bran1ką kwantową na 111 kubitach nazywarny odwzorowa nie un itarne w przestrzeni H1 ® . . . ® H2 (!'1 razy), działające na usta lo nej (niezależnej od 111) liczbie kubitow. Ponieważ M(f)ij = I \Vt\v f(e;) =ej, \vięc M(f)* reprezentuje penn utację
do f Wynika stąd, że macierz pern1utacji jest zawsze unitarna, a bramki odwracal ne są szczególnym przypadkien1 bran1ek k\vanto\vych. Obwody kwanto,ve wprowadza się tak jak obwody odwracalne, zastępuj ąc j edynie bramki odwracalne bramkan1i kwantowyn1i. Nie będzien1y \\'prowadzać ta kże specjaln ego rozróżni en i a między Ob\vodami kwanto,vymi a bra1nka1ni k\vantowymi. Przyjm ujemy tylko, że obwód k\vantO\VY jest zbudowany z bramek kwantowych, z których każda działa na ograniczonej liczb ie kubitów. odwrotną
12
Elementami macierzy permutacji są O i l, przy czym w kolumnie znajduje się dokładnie jedna I.
każdym
wierszu i
każdej
3.2. Obwod
Definicja 3.2.2. Ob,voden1 k\vantowym na111 kubitach naZ)'\va1ny odwzorowanie unitarne w przestrzeni H2„, które można przedstawić w postaci złożenia skończonej liczby bran1ek k"\vantowych. Ponie\vaż ob\vody odwracal ne są także obwodami k\vantowymi, \vięc właśnie odkryliśn1y, że jeżeli jakiś proble1n jest obliczalny przez obwód logiczny, to jest także obliczalny przez obwód kwanto\vy. Ciekawie 'vygłąda porównanie
mocy obliczeniowej Ob\vodów kv1antowych o rozmiarach wielomianowych (tzn. zbudowanych z wielon1ianowej liczby bra1nek kwantowych) i k\vanto\vych maszyn Turinga o wielo1nianowcj złożoności czasowej. A. Yao w pracy (92) pokazał, że są o ne identyczne. Interesujące
jest też, jakiego typu brarnki potrzebne są do obli czeń k\vanto\V)'Ch. Jako pierwszy odpo\viedzi udzielił David Deutsch, który pokazał, że d la obliczeń kwantowych istnieje 3-kubitowa bramka uniwersalna i .i [32]. Okazało się, że najważniejszą rolf~ w obliczeniach sterowanej negacji (patrz przykład 2.2.2).
kwantowych odgrywa bramka
Twierdzenie 3.2.3 ([5]). Używając jedynie bran1ek sterowanej negacji oraz bran1ek unarnych, niożna zbudować do\volny ob\vód k\vantO\V)'. Uwaga 3.2.2. Chociaż do obliczeń kwanto,vych \\')'Starczają bramki 2-ku bitowc, to do klasycznych obliczeń odwracalnych bramki 2-bitowe nie są \vystarczaj11ce. Łat\VO to pokazać, Od\vołując si ę do u\vagi 3.2.1. Uwaga 3.2.3. Wiadomo, że obliczenia kv1antowe n1ożna przep ro,vadzać na liczbach rzeczywistych [13]. Ponadto do obliczeń tych można podchodzić w sposób „dyskretny" [13). Z poniższego twierdzenia Shi [80] można wyprowadzić nawet więcej ważnych \vnioskó,v. Fakty te znane były już \vczcśnicj, niemniej jednak twierdzenie to ujmuje wiele stwierdzeń \V bardzo zwięzłej forn1 ie. Twierdzenie 3.2.4 ((80]). Używając jedynie bramek Toffoliego oraz bramek Hadamarda-Walsha, można zbudować dowolny Ob\vód kwantowy. Uwaga 3.2.4. Z tZ\v. twierdzenia Gottcs1nana-Kni.lla (40] \V)'nika, że działanie dowo lnego ob,vodu kwanto\vego, zbudowanego jedynie z bramek Hadamarda-Walsha i bra1n ek sterowanej negacji, rnożn a syrnulo\vać za pornocą ob\VOdów klasycznych w czasie wielomiano\vy1n. następnych rozdziałach formalizmu obwodów kwantowych będziemy na ogół użY'vać do reprezentacji algorytmów kwanto,vych. Na zakończenie tego podrozdziału podamy bardzo ważne twierdzenie Solovaya i Kitaeva [50].
W
n Przez bramkę uniwersalną rozun1ien1y bran1kę kwantową, za pon1ocą której można priybliżać dowolne sieci kwantowe. Ponadto zaklada się zwykle, że można używać do· datkowych, pomocniczych kubitów. Ich wartości są zadawane na początku w pewien ustalony sposób, a na końcu obliczeń, przy odczytywaniu wyniku, są ignorowane.
3. Maszyny obliczeniowe
Twierdzenie 3.2.5. Niech S berdzie skończonyn1 zbiorem unarnych bramek k'vanto,vych, przy których użyciu można przybliżyć każdą unarną bran1ky kwantową z do\volną dokladnością. Wtedy istnieje stała C, zależna jedynie od S, oraz c ~ 4, takie że działanie każdej unarncj bramki l-."\vantowcj można
pr..:ybliżyć z dokładnością e przy użyciu co naj,vyżej C log" ( ~) bramek ze zbioru S.
„
Z po,vyższego twierdzenia oraz ł\vicrdzenia 3.2.3 wynika, że dzialanie obwodu k\vanto,vego, skladającego si
O (11 logc ( ~)) bramek ze zbioru uni,versalnego. gdzie€ jest \vyrnaganą dokladnością symulacji.
4 Szybka faktoryzacja W tyn1 rozdziale omówimy kwantowy algoryln1 fakto1yzacji Shora. Aby lepiej zrozumieć działa nie tego algorytmu, najpierw zapoznamy się z kwantową tra nsform!lt~1 Fouriera. Zagadnienia Z\vi ązane z transformatami Fouriera oraz inne szczególy niaten1atycznc można znaleźć \ V rozdziale 9. Czytelnik dobrze obezny z tą tematyką może od razu przystąpić do lektury niniejszego rozdzialu.
4.1. j Kwantowa transformata Fouriera 4.1.1. I Podstawy Niech C = {g 1 , • •• ,g11 } będzie grupą abelo\vą (będziemy stosować notacją addytywną), a {x 1, . .. , x„} niech będzi e zbiorem charakteróv; grupy C (patrz pudrozdzial 9.2). Funkcje .f: G -+ C t\vorzą zespoloną przestrzeń \Vektoruwą V, z dudawaniern i mnożeniem przez skalar zdefiniowanynii punkto\vo. Jeże li.fi ,f 2 E \/, to zwykły iloczyn wewnętrzny (patrz podrozdzi ał 9.3).f1 i.f2 zdefinio,vany jest jako li
Każdy iloczyn \vewnątrzny wprowadza nomię Ilf li = J (f 'lf }. W podrozdziale 9.2 pokazaliśmy, że funkcje B; = ~X; ł\vorzą 01tonor111alną bazę przestrzeni \vcktovn rowej, w Z\viązku z czym każda funkcja.f E \I może być przedstawiona w postaci
f = c1B1 + ... + c„8 11 , gdzie c; są liczbami zespolonyn1i, nazyv1anymi wsp ółczynnikan1i Fouriera fu nkcji/ Dyskretna transformata Fouriera funkcji/ E \I jest fu n kcją f E \I zdcfinio,vaną przez f (g;) = c;. Ponie\v1lŻ funkcje B; t\vorzą bazę ortonormalną, łat\vo zobaczyć, że C; = (B;jf }, a zatem ~
~
Jl
l (g;) = ~ I: xt
(4.1)
k: I
Transformata Fouriera
spe łn ia tożsamość
Ilf li = 11111. Własność tę
Parsevala (4.2)
wkrótce wykorzystarny.
63
4. Szybka faktoryzacja
Niech H będzie skończonym układe1n k\vanto,vym, za pomocą którego rnoż na rcprczcntO\vać elen1enty grupy C, tzn. {lg):g E G} jest ortonorn1alną bazą układu k\vanto,vego H. Aby reprezentować od,vzoro,vania linio,vc za pon1ocą macierzy, stosujemy reprezentację lg;) =e; =(0..... I, .. „ O)T ('vszystkie 'vspólrzędne ró,vne O, z 'vyjątkicm 1 na i-tym miejscu; patrz podrozdział 9.3). Ogólne stany układu są liniowymi kombinacjami stanó'v bazo,vych, takimi że k\vadraty modułó'v \VSpółczynnikó\v sun1uji1 się do 1. A zatem ogólny stan (4.3) u k ł ad u
H niożc być postrzegany jako odwzorowanie
f: G --+ C,
i odwrotnie,
gdzie f(g;) = c; każde
oraz
11111 = l
od,vzoro,vanie (4.4) definiuje stan
(4.4) układu
H.
Definicja 4.1.1. K'vantO\vą transformatą Fouriera (Q11a11t11111 Fourier Tra11s-
fon11, QF1') nazY'vamy operację li
li
(4.5) ;:::I
i= 1
Innymi słowy QFT jest Z\vykłą transfonnat
lg;) ......
"
~ .L xł(g;)lgk}
(4.6)
4~1
(zadanie I.), a zatem \V bazie lg;) QFT ma
następującą reprezentację
macic-
rzową:
xi
xi
xi(g11)
x~(g,)
x~(g11)
x i{gr)
x2(g11)
.jii x;,(g2)
(4.7)
Jakiego obwodu kwanto,vego trzeba użyć, aby zrealizować operację (4.6)? Poja\via się tu problem polegający na tyrn, że Z\vykle 11 = ICI = dim(H) jest du7..ą liczbą, a fi jest iloczynem tensoro'vym mniejszych przestrzeni. \.Vymagaliśmy jednak, aby działania ob,vodó\v k\vanto,vych były lokalne i nie zmieniały jednocześnie dużej liczby cyfr k'vanto,vych. Innymi sło'vy problem polega na tym, jak rozłożyć 111acierz QIT (4.7) na iloczyn tcnsoro'vy macierzy o małych 'vyn1iarach 64
4. 1. Kwantowa transformata Fouriera
lub na iloczyn kilku macierzy, które da się przedstawić \ V postaci iloczynu tensorowego 1nacierzy działających jedynie na małych podprzestrzeniach. Do zadania tego podejdziemy \V następujący sposób: za łóżmy, że G = U EB V jest sumą prostą podgrup U i V. Niech r = IUl i s = IVI, skąd IGI = rs. Zarazen1 niech U i V będą reprezento,vane przez układy kwantowe Hu oraz Hv z bazami ortononnalnyrni odpowiednio oraz
{lv1 }, · · ·, lvs} }.
Wtedy iloczyn tensorowy Hu &> Hv reprezentuje G w bardzo naturalny sposób: każdy elen1ent g E G nloże być jednoznacznie przedsta\viony \ V postaci g = li + v, gdzie 11 E U i v E V, a zaten1 nlożemy reprezentować g = li + v przez lu}lv}. Ponie\vaż man1y rozldad G =U x V, więc wszystkie charaktery G można zapisać jako ~
~
~
\I
lj
XiJ(g) = XiJ(u + v) =X; (11)xj (11),
gdzie
xY i x: są charakterami odpo\viednio ui V (patrz pod rozdział 9.2.1), a
(i,)) E {l, . .. ,r} Możemy
zatem
x {l, „ „s}.
dokonać także rozkładu
Lemat 4.1.1
(Rozkład
reprezentacją
elementów G. Wtedy
transforn1at Fouriera.
transformaty Fouriera). Niech G = U $ V będzie sumą prostą podgrup U i V, a {lu}lv}: u E U, v E V} niech będzie k\.\1 a ntową
(4.8) r
=
s
Jrs 2: 2: xij
(4.9)
l=I
jest transforn1atą Fouriera na G. Do grup U i V 1nożna reku rencyjnie zastosować rozkład transforn1aty Fouriera. Warto także zaznaczyć, że stan (4.9) jest rozkładalny.
4.1.2. I Transformata Hadamarda-Walsha Rozpatrzn1y przypadek szczególny G = lF~'. Wszystkie charaktery grupy addytywnej \V JF'~' są postaci x..(x) = ( - I )"',
. gdZie
y E ""'" Jl' 2 .
65
4. Szybka faktoryzacja
Aby zreal izować odpo\viednią kwantową transformatę Fouriera, musimy znaleźć obwód kwantowy wykonuj ący operację
1x>.....
2: c- 1)'·l'1Y>·
Elementy x = (x1, x2, . .. ,x1n) E ~· posiadają naturalną reprezentację k\va ntową \V postaci 111 kub itów: lx) = lx1 )lx2} ... lxm }, co dokładn ie odpo\viada algebraicznemu
rozkładowi
lF'~' = IF2 EB . .. EB IF2. Bio rąc
pod U\vagę le1nat 4.1.1, \vidzi1ny, że \vystarczy znal eźć QFT na lF2 , gdyż
111-krot ny iloczyn tensoro\vy tego odwzoro\vania wykona QFT na iF'~'. Zau\vaż my, że QFT na IF2 z reprezentacją {IO), Ii)} jest zdefi nio\vana przez I
10>..... vzc10>+I! }), I II) ..... vz
IJ)).
Powyższe przekształcenie można \vykonać (oznaczanej także W2)
( I
1 )
Otrzy111 al iś1ny
zatc1n
H=
I J2
1 -
ł
przy użyciu macierzy Hadamarda
• n ast9pujący
\vynik:
Lemat 4 .1.2. Niech Hm = H © ... © H (111 razy). Wtedy dla lx) = lxr} lx2} .. . lxm} mamy I 'L_., " ' ( - 1)·X'·\'Iy. ) Hm IX } = .jF
(4.1 O)
'
vEli".:' . Także \V
przypadku do\vol nego 111 1nacierz Hm naZ)l\vana jest macierLą Hadamarda. Kwantowa transformata Fouriera (4.10) naz)'\vana jest także transfonnatą Hadamarda, transformatą Wałsha lub transformatą lładamarda-Walsha.
66
4.1 . Kwantowa transformata Fouriera
4. 1.3. I Kwantowa transformat a Fouriera w
z„
Wszystkie charaktery grupy Z„ n10żna zapisać \V postaci ' - In·
x„(x) = e""n-" ,
gdzie x i y są reprezentantami warstw (patrz podrozdziały 9.1.3, 9.1.4 i 9.2). Dla uproszczenia zapisu, każdą warstwę k + 11/E oznaczać będziemy liczbą k. Wtedy Z„ ={O, 1,2, ... ,n - I}, gdzie doda\vanie notacji.
wykonaliśn1y
modulo n. Od tej pory
będziemy używali
tej
Odpo\viednia QFT na Z„ jest operacją n- I
lx) >-> Le- '~" IY) .
( 4.11)
>~o
Teraz jednak, w odróżnieniu od IF';', nie ma prostego sposobu na znalezienie takiej reprezentacji k\vanto\vej elen1entów Ł„, aby bazę
IO), Il ), 12) ... 111 - J) można było zapisać
\V postaci iloczynu tensorowego dwóch 1nnicjszych baz reprezentujących podukłady Z„. Jeżeli jednak znamy jakiś rozkł.ad na czynniki 11=11 1112, taki że nwd(n 1, n 2) = 1, to szukany rozkład możemy znaleźć za pomocą chińskiego twierdzenia o resztach (twierdze nie 9.1.2). Na n1ocy tego t\vierdzenia istnieje bowiem bijekcja
określona
przez F((k1, ki )) = a 1n2k 1 + a2n 1ki, gdzie a 1 (odp. a2) jest 111ultiplikatywną odwrotności ą 112 (odp. n 1) n1oduło 111 (odp. n2). W zadaniu 2. polecamy sprawdzić, że F rzeczy\viście jest izomorfizmem. Zauważ1ny również, że odwzorowanie k1 ,_. a 1k1 (odp. k2 ,__, a2k2) jest permutacją Z„, (odp. Z„2 ), gdyż a 1 (odp. a2) posiada odwrotność n1ultiplikatywną. Teraz możc1ny przystąpić do rozkład u QFT (4.1 1). Załóżn1y, że
dla
z„,
i Z„2 istnieją kwantO\Ve transformaty Fouriera, tzn. 1na-
1ny k\vantowe reprezentacje Z„, i Z„,
{IO). II ), 12) ... 1111 - 1) } oraz dysponujemy programami
I
{ IO), Il), 12) ... 1112 - I}}
realizującym i
odwzorowania
4. Szybka faktoryzacja
Ola elementÓ\V z„ wykorzystamy reprezentację k\vantową Jk) = Jk1)Jk2), daną przez chińskie twierdzenie o resztach z k = a1112k1 + a211 1k2. Budując ob\vód kwanto\vy \vykonujący mnożenia (k1, ki) ,_. (a 1k1, a2k2), a następnie łącząc go z obwodami QFT dla obu sklado,vych, otrzymujemy Jk1 }Jk2} ,_. Ja1k1 )Ja2k2}
'f e- " ~ „ ..fili
,_. (__!___'f e_,."!:'' 111)) ( Jlr, '• =()
Rozkład
ten
2 1
1-
1
Ji2})
11=0
możemy zastoSO\vać
rekurencyjnie do 11 1 i 11 2. Zauważmy, że otrzymany rozkład \vymaga \VStępncj znajomości faktoryzacj i 11=11 1112, takiej że nwd(n1,n2) = I, lecz w ogólności proble1n polega ni1 znalezieniu nietrywialnej faktoryzacj i 11. Algorytrn Shora korzysta z odwrotnej k\vantowej transformaty Fouriera na Z 2m . Ponieważ jednak nie istnieje rozkład 2m na liczby \vzględnie pierwsze, musimy poszukać innego roZ\viązania. Szczęśliwic o k'\vanto,vych transformatach Fouriera na grupach ~ możemy dowiedzieć się czegoś \Vięcej.
Pon ie\vaż
odwrotna transforn1ata Fouriera w 2'"'L~r
:Ł„
jest symetryczna
\VZględem
l :ti'"
(4.11) (czynnik e- • zastępujcrny przez e7), IO \vybór, którą Z nich badać,
jest k\vestią osobistych preferencji. My pokażemy poniżej, \V jaki sposób zrcalizo,vać odwrotną transformatę Fouriera na ~ · Grupa Zi- posiada bardzo naturalną reprezentację 'vykorzystuj ącą 111 kubitów: element x = x„_ 12'"- 1+ + x111 _ 22111 - 2 + ... + x12 + xo, gdzie każdy X; E {O, I}, jest reprezentowany przez
68
4.1. Kwantowa transformata Fouriera
W jaki sposób zrealizować odwrotną QFT 2m -J
I lx) ,__, ,/F
L
''"" e 7" iy)
(4.12)
>~
przy użyciu obwodu kwantowego? Na początek zwróćmy uwagę na fakt, który w tym momencie nie powinien j u ż zaskakiwać: superpozycja po prawej stronie (4.12) jest stanern rozkłada lnym. Lemat 4.1. 3. 2"'- 1
°2Xłl)'
iri..f
'Ki.x
:::ie
Le ''" ly) =CIO) +ell' p ))CIO) +e2il l )) . . . (IO) +e;m=rp))
(4.13)
y=O
Dowód. Stosując przedstawie nie IY) = ly'b) = IY)lb), gdzie y' oznaczam - l najbardziej znaczących bitó\v y, ab jest najmniej znaczącym bitem y, możemy podzielić surnę "'' ( 4.13) na dwie części: 2•n - l
2m- l _ l
2::-l"'
2l11-l _ J
lrrirl>'
Le-;;;;- IY) =
L
>~
.)'=O
f =O
2m- l _ l
2m- l _ I
=
L
ly'O) +
e'~~IY) IO) +
2m- l _ I
-L
'm
e
L
2::it12\1 +I)
2::1X)·
e?
L
e
2 "'
IY' l)
e'';," e';:~IY)l l)
r:i'Jc
ly)(IO) +ei="I!)).
>~
o
Tezy do\vodzin1y indukcyjnie. Rozkład
(4.13) daje także wskazówkę, w jaki sposób przy użyciu obwodu kwantowego obliczyć transformatę (4.12). W wyrażeniu (4.13) I-ta faza stanu Il ) zależy tylko od bitów x0 ,x1 , • . „x1_ 1 i może być zapisana jako
= exp
7rix1_1) exp (7rix,1_2) ( 20 2
-( - - l )x1_1exp
(7riX1 , -2) 2
... exp
... exp
(r.ix,) ( 7riX_0) _, exp 21 21 1
0) • ( rrix,) ( 7riX exp _ _ 1 2 21 21 69
4. Szybka faktoryzacja Może1ny teraz przystąpić do opisu obwodu cję (4.12). Mając reprezentację k'vantową
k\vantowego wykonującego opera(4.14)
odwracamy porządek kubitów i otrzymujemy odnTotną reprezentację binarni1 (4.15) W praktyce po,vyższa operacja od\vracania porlądku kubitÓ\V nic jest konieczna, gdyż równic dobrze rnoglibyśn1y operować na reprezentacji (4.14); wpro\vadzarny j ą tu jedynie dla pclności 'vY'vodu. Na stanic (4.15) 'vykonujen1y od strony prawej do lewej następujące operacje: transformata Hadamarda na 111-tyn1 kubicie (pierwszym od pra,vcj) daje I
ft lxo)lx1 ) .. -IXm-2)(10) + ( Następnie uzupełniamy fazę
I)'•
(
1
1)'•
(- I
'11)).
t· ' do \vyrażcnia
(;rix
(;rix
, ) ... exp • ,1 ) exp __0, ) , exp (rrix~-z 2 2 2
stosując 'varunkowo operację
zmiany fazy
Tri) , ... , exp ( Tli • ,) . exp ( 2' „_, ) , exp ( 2Tri 2
Oznacza to, że dla
każdego
I E {I, 2, ... , 111 - l }, do in-tego kub itu 'vprowa-
dzamy czynnik fazo"'Y exp (
2:~,) wtedy i tylko \vtedy, gdy ku bity 111-ty oraz
1-ry mają \vartość l. Procedura ta daje stan I
!·u-
ft lxo) lx1 ) ... lx,,,_2)(10) +ci=" li )). W ten sam sposób postępujemy z kubitami znajdującymi się na pozycjach kolejno 111 - I, ... , 2, I: dla /-tego ku bitu najpienv '''Ykonujemy transformację Haclamarcla, co przepro,vadza ten kubit \V stan
~(IO) +( - J)x,_,IJ)), a następnie dla każdego k z zakresu I - I, I - 2, ... , 1 wprowadza1ny \Varunkowo czynnik fazo,vy , ,_, ) cxp ( Tri 2 \Vtedy i tylko wtedy, gdy kubity /-ty oraz k-ty rcalizujen1y, 'vykorzystując od\vzorowanic
70
mają \Vartość
1.
Operację tę
4.1. Kwantowa t ransformata Fouriera
IO) IO) ,_. IO) IO) IO)IJ ) ,_. IO}l l } ll}IO) >-> IJ)IO) ::i
11)11) ...... e 'l l )ll) 1'
działające
na kubity /-ty i k-ty. Macierz tego odwzorowania
możemy zapisać
jako
oo o o l o o oo I o o o o e ll"F I
>k.1
=
(4.16)
:r;
Jeśli
nie brać pod U\vagę zn1iany ustawienia kubitów (x,,,_1,Xm-2 • ... ,xo) ,...... (x0 ,x1, ... ,x,,,_i), to opisana procedura n1oże być zrealizowana przy użyciu sieci o ~111(111 + l) bramkach, przedstawionej na rysunku 4.1. „\'.111- l
X1t1 - 2
YI
>
H
X111 - 3
xo
YO
ef>
Yz
_______ .._______..______•---@- Ym- 1
Rysunek 4.1. Obwód !..'wantowy realizujący
kwantow11 transformatę
Fouriera na
Z2"'
Ze \vzględów typograficznych na rysunku 4.1. pon1inęliśmy indeksy bramek cp; powinny one być ponumerowane w następujący sposób (od lewej do prawej): 111- I.111- 3' ef>,„ _ I .O, ej}„,_2.11r- J , iu- 3.0 ·
4.1 .4. I Uwag i o złożoności Pod pojęciem dyskretnej transformaty Fouriera zwykle rozumiemy 1ransfor1natę Fouriera w Z„, daną przez 11 - l
](x) =
L e- ~f(y).
( 4.17)
)-=
Ze względów praktycznych, standardowo \vybiera się n = 2"'. Za pomocą transformaty (4.17) można przybl i żyć ciągłą transforn1atę Fouriera, w Z\viązku z czyn1 odgrywa ona nicZ\vykJe ważn ą rol ę w fizyce i naukach inżynieryjnych.
4. Szybka faktoryzacja
Przez obliczanie transformaty (4.17) rozu1n ie1ny procedurę, która dla danych wejścio\vych w postaci \vektora (4.18)
(/(0), .f(I), ... , .f(2!" - 1))
daje na wyjściu (](O), j(I), .. „ .f(2"' - 1)).
(4.19)
Naiwny sposób chliczania transforn1aty Fouriera polega na zastoSO\vaniu wprost formuły (4.17) do obliczenia elen1entów w (4.19). Jak łatwo zauważyć, złożoność czasowa tego algorytmu równa jest 0((2"')2). Czas obliczeń niożna znacznie skrócić przez zastosowanie szybkiej transformaty Fouriera, która opiera się na rozkładzie j(x) =
~
2'" - 1
L
e- '~"j(y)
)-=
=
~(
2~ - 1 - 1
L
2~ - 1 -1 1
e- ''';.: ' j(2y) +
y=O
=
~(
2m- l _ l
L
L
11
e- "" ;)." /(2y +
t))
y=O
e- ~f(2y)+e- ';."'
y=O
2111 ' - J
Le '?tj(2y + I)), .1--0
bardzo przypon1inającyn1 rozkład z leniatu 4.1.3. Powyższe równanie oznacza, że \vektor (4.19) niożna znaleźć, obliczając dwie transforn1aty Fouriera w Z„. Stosuj ąc ten rozkład rekurencyjn ie, otrzy1nuje1ny algorytm o złożoności czasowej 0(1112111 ) , a wi9c znacznie lepszej n iż złożoność metody naiwnej. Sposób obliczania QFT jest całkiem inny: w typowym przypadku, na \Vejściu zarniast (4.18) niamy kwan to\vą superpozycję
coIO) + c1Il) + ... + c2„- 1l2111 - I )
(4.20)
i Qrr operuje na współ czynn ikach (4.20). Jednocześnie rozm iar fizycznej reprezentacji (4.20) jest mały. Układ (4.20) składa się jedynie z 111 kubitów. Man1y jednak 2111 współczynników c;. Wcześniej przekonaliś1ny się, że QFT w Z 2,,, można wykonać \V czasie 0(1112) (transformatę Hadamarda-Walsha nawet w czasie 0(111)), a \vięc wykładniczo szybciej \V stosunku do klasycznej transformaty Fouriera. Jednak główna różnica polega na tym, że fizyczne reprezentacje danych wejściowych (4.18) i (4.20) 1nają odpowiednio S2(2"') o raz 111 bitÓ\V, a więc mają wykładniczo różne rozmiary. Później zobaczymy, że kluczo\vyn1 punkten1 wielu cieka\vych, szybkich algorytmów kwan towych jest \vykorzystanie k\vantowej współbieżności do kodo\vania istotnej dla nas inforn1acji \\'e współczynnikach (4.20), a następnie szybkie obliczenie QFT. 72
4.2. Algorytm faktoryzacji Shora
4.2. j Algorytm faktoryzacji Shora 4.2.1. IOd okresowości do faktoryzacji Mai O(patrz (28)). Z drugiej strony, problem od\vrotny - faktoryzacja - okazuje się niezwykłe trudny do rozwiązania. Uwaga 4.2.1. Nieda\vno zaprojckto,vano deterministyczny algorytm o \Vielon1iano,vej złożoności czasowej, rozstrzygający, czy dana liczba jest liczbą pienvszą [l ]. Powszechnie u~•aża się, że nie istnieje algorytn1 klasyczny, poz\valająey na \V)'dajne rozwiązanie :.:adania faktoryzacji , zdefiniowanego \V nastepujący sposób: mając 11 = pq, iloczyn dwóch liczb pienvszych, znajdź p i ą. Faktoryzacja odgr)"va znaczącą rolę \V kryptografii: nieza,vodność słynnego kodu RSA z kluczem publicznym opiera się na założeniu, że nie istnieje algorytm poZ\valający na szybką faktoryzację. W 1994 roku Peter W. Shor (81] przedstawił probabilistyczny J.."\vanto\vy algoryt1n faktoryzacji o wielomianowej złożon ości czasowej; algorytm ten on1ówi1ny '"bieżącym rozdziale. Na początek pokażcrny, w jaki sposób :.:redukować zadanie faktoryzacji do zadania znajdowania rzędó\v elementów \V Z„. Niech (4.21) będzie
(nieznanym) rozkładem na czynniki pienvsze liczby nieparzystej (potęgi dwójki można łatwo zidentyfiko,vać i się ich pozbyć). Założymy ró\vnież, że k ~ 2, tzn. \V rozkładzie (4.21) \V)'Stępuji1 co najmniej dwie różne liczby pierwsze. Ponieważ istnieje algorytm o wielorniano,vej złożoności czasowej rozpoznający potęgi (patrz zadanie 3.), możen1y ró,vnież założyć, że 11 nie jest potęgą liczby picr.vszej. Wystarczy, jeśli będzicn1y potrafili szybko znaleźć jakiś nietl')'\vialny dzielnik 11, gdyż \Vtedy, stosując rekurencyjnie tę procedur9 do pozostałych dzielników, będziemy także \V stanie znaleźć szybko pełny rozkład (4.21 ). Wybierzmy \V sposób loso,vy, z jednostajnym prawdopodobieństwem, element a E Z 11 , a "1 1. Jeżeli d = nwd (a, n) > I, LO d jest nietl')'\vialnym dzielnikiem n i nasze zadanie jest sko1iczone. Jeśli d = 1, zaklada n1y, że n1ożemy w jak i ś sposób znaleźć r = rz„(a) (rz,iCa) oznacza rząd clernentu a w Z11; wiadomości z teorii liczb, z których lu korzystamy, znajdują si9 \V podrozdziałach 9.1.3 i 9.1.4). Wtedy
a'
=I (mod 11), 73
4. Szybka faktoryzacja
co oznacza, że 11 jest dzielnikiem a' - I. OcZ)'\viście nie daje nam to jeszcze sposobu na obliczenie nietl)'\vialnych dzielników 11, jeżeli jednak r jest parzyste, to lat\vo możemy znaleźć rozklad a' - I: a' - I = (a !' - I )(a!' + I). , Pon ie,vaż 11 jest
dzielnikiem a' - l, /1 musi mieć wspól ny dziel nik z a I - l lub • a l + I (albo z obydwoma) i dzielnik ten n1ożemy znaleźć za pomocą algorytmu Euklidesa.
„
Czy możen1y być pewni, że znaleziony \V ten sposób dzielnik liczby 11 jest nie, tl)'\vialny? Jc:!eli 11 jest dzielnikiem a ! ± I, to algorytm Euklidesa zwróci 11 jako n ajwiększy \YSpólny dzielnik. Na szczęście, jak wkrótce wykażemy, prawdopodobieńst\Yo, że 11 jest dzielnikiern al' ± I nie jest duże. Po pierwsze, 11
Ia !' a !'
l oznacza loby, że
= I (111od
11),
co, z definicji rzędu , nie n1oże być spelnione. Może być jednak tak, że 11 jest dzielnikiem a'' + I i nie ina \VSpólncgo dzielnika z ai' - I. W tym przypadku dzielnik ot;zymany w wyniku zastoso\vania algorytm u Euklidesa także będzie równy 11. Z drugiej strony, /1 I al' + I oznacza, że '
al
= -1 (mod 11),
, tzn. a ! jest nietl)'\vialnym pienviastkiem i.......vadratowym z 1 modulo 11. W następnym podrozdziale pokażemy, wykorzystuj
oraz a i :/=. - I (mod 11) wynosi co naj1n niej ~.A zatem, jeżeli bylihyś1ny w stanie szybko znaleźć r = rz(a), to moglibyśmy także, z rozsądnym pnl\vdopodobieńst\vem, znaleźć nietl)'\vialny dzielnik 11. , Pe,vne obawy n1oże budzić \vielkość liczb a l ± I. Czy mogą być one tak ogron1ne, że nasza procedura będzie i tak malo wydajna? Szczęśliwie na topytanie istnieje prosta odpowi edź : podzielność przez 11 jest \vlasnością okrcso,vą , o okresie n, tak więc jeżeli n1an1y r = rz(a), to wystarczy znaleźć a l ± I modu lo /1 (znane są szybkie algorytmy potcygowania 1nodularnego). Możemy
tcrc;z skupić się na problemie znajdowania r = rz(a). Ponieważ 11 jest nieparzyste, ale nic jest liczbą pienvszą, grupa z;, nie n1oże być cykliczna,
74
4.2. Algorytm faktoryzacji Shora
a każdy element a E rzędu
z;, n1a rząd r = rz(a) mniejszy od ~cp(n) < ~ . Z definicji
n1an1y
c/+sr
= a1 ( 1nod n)
dla każdej liczby naturalnej s, z czego wynika, że funkcja/: 7t wana przez
-->
Z„ zdefinio-
j(k) = ak (111od 11)
(4.22)
ma okres równy r. W podrozdziale 4.2.3 pokaże111y, że okres ten ko znaleźć, korzystając z kwantowej transformaty Fouriera. P rzykład
4.2.1. Naj mn iejszą szej metody jest 15 = 3 · 5.
l iczbą, którą można rozłożyć
można
przy użyciu
szyb-
po,vyż
zrs= {1,2,4, 7,8, 11, 13, 14} i rzędy ełementó\v równe są odpowiednio O, 4, 2, 4, 4, 2, 4, 2. Jedynym elementen1, dla którego a ;' = - I (mod 15) jest a = 14 = - I (1nod 15). Jeżel i przykładowo a= 7, to 15 I 7 4 - 1 oraz 7 2 - 1 = 3 (111od 15), 7 2 + I = 5 (1nod 15). Jako nietl)l\Vialne dzielniki 15 dostajerny 3 = nwd(3, 15) i 5 = nwd(5, 15).
4.2.2. I Rzędy elementów w z„ Niech n = p~' . .. p~' będzie rozkladem na czynniki pief\\•sze nieparzystej liczby n, nato1niast a E z;, niech będzie losowo \vybranym elementem (z jednostajnym rozkładem prawdopodob ie ństwa) . Z chil1skiego twierdzenia o resztach wynika użyteczny rozklad z;, na iloczyn prosty grup cyklicznych
z:, =z·,, x ... x z·,,. 1'1
(4.23)
'':.:
Przypomnijmy, że moc każdego czynnika dana jest przez IZ*,; I = cp(p;1) = P;
=p;'- (p; 1
I) (patrz podrozdzia ł 9.1.4). Za u,vażmy, że moc każdego Z*,; jest
liczbą parzystą. Rozkład
ele1nentu a E Z~ biydziemy zapisY'vać jako
'·
(4.24) nato1n iast
rząd
eleme ntu a \ V
z;,.. oznaczy1ny przez rz „(a). 1
4. Szybka faktoryzacja
Z uwagi na rozkład (4.24 ), losowy wybór e le1nentu a. E z;, jest ró\vno\vażny loSO\Vern u wyborowi k ele111entóv,i \V (4.24) i vice versa. Następujący lemat będzie pon1ocny przy szacowaniu prawdopodobieńsnv. Lemat 4.2.1 . Niech <{)(p' ) = 211 11, gdzie u ~ l, 2 f v, as ~ O niech będzie ustaloną liczbą całkowitą. Wtedy prawdopodobieńst\vo, że loso\vo wybrany (zjedma rząd postanostaj ny1n rozkładem pra\vdopodob ieństwa) element a E
z;,.,
ci 1sr, gdzie 2{ I, wynosi c:o najwyżej ~ . Do,vód.
Jeśli
s > u, to szukane
możemy założyć, że '71•
u.,JJ'
pra\vdopodobieńsnvo
s ~ u. Niech g
będzie
równe jest O, a zatem generatorem Wtedy
z;,.
= {gO,g I' ... ,g-?•v- 1} ·I ·
2uv rz(g' ) = n \Vd(i 2' V) , 1
tak więc rząd jest postaci 2-'1 wtedy i tylko wtedy, gdy j = 2 11 -•w, gdzie 2 ł iv. Zbiór {O, 1, 2, .. . , 2"v - I} zawiera dokładnie 2' v wielokrotności liczby 211 - s, n1ianowicie O· 211 -s, I · 2 11 - ·' , • • • , (2' v - 1)211 - • , jednak tylko polowa z nich ma nieparzysty mnożnik. Stąd szukane prawdopodobieńsl\vo ró\vne jest I 2' z·v
12'
I
o
~-=22"~ 2' 2v 11
Powyższy lemat możerny zastosować do oszacowania prawdopodobieńsl\Va, iż rząd wylosowanego e le1nentu będzie nieparzysty.
Lemat 4.2.2. Prawdopodobieńsl\Vo, że dla losowo wybranego (z jednostajnyrn rozkładem pra\vdopodob i eńsnva) a E z;,, r = rz(a) jest liczbą nieparzystą,
.
.
. . l
\\l)'nOSI co naJWYZej 2' .
Dowód. Niech (a,, . .. , ak) będzie rozkładem (4.24) elementu a E z;,. Niech r; = rz •;(a;). Ponieważ r = nww{r1, ••• , rk} (zadanie 4.), więc r jest niepa-
,,i
rzyste wtedy i tylko wtedy, gdy wszystkie r; są nieparzyste. Przyjmując \V łen1acie 4.2.1 s = O, snvierdzarny, że prawdopodobieńst\vo iż lo1 sowo wybrane a; E Z ,, ma nieparzysty rz11d równe jest co najwyżej -2 . Stąd P; pra,vdopodobieńsnvo, żer jest nieparzyste, wynosi co najwyżej l
I
I
Pi ~ 2 ..... 2 = 2"
76
o
4.2. Algorytm faktoryzacji Shora
A co z
prawdopodobieństwem
korzystając
z lemat u 4.2.1,
=-
1 (rnod 11)? Okazuje
się, że
=- I
będzie rozkładem na czynniki pienvsze
. .. p;• ~
nieparzystej liczby n oraz niech k
Dowód. Z ko ngruencji a''
ai'
możemy oszacować róv;nież tę wartość.
Lemat 4.2.3. Niech n = p~'
dopodobieństwo, że a~
że
tego,
2.
Jeżeli r
= rz„(a) jest parzyste, to pra\v-
(1nod n), 'vynosi co naj,vyżej
=- I
f_, .
2
(1nod n) wynika, że (4.25)
dla każdego i. Niech r; = rz ,, (a;), czyli r = nww{r1> .. . , rk}. Zapiszmy r = 2' t P1
i r; = 2'' t;, gdzie 2 ł t i 2 ł t;. Z faktu, że r; I r dla każdego i, 'vynika n ieró\vność
s;
~
s. Jednakże kongruencje (4.25)
dla każdego i: gdyby s; łożenie
a''
k
~
=l
mogą być spełnione
jedynie, gdy s; = s
< s dla j akiegoś i, to także r ; I ~ (konieczne jest tu za-
2!), z czego \vynika, że c·
(mod p/).
(4.26)
Jed nak z (4.26) i ( 4.25) \vynika l gdyżp; f 2. Z tego 'vzględu
=-
1 (mod p;'), co nie może być prawdą,
a'' ::= -1 (mod n), jest równe co iż s; = s dla każdego i, które na mocy lematu
prawdopodobieńsnvo P2 , że
naj,vyżej prawdopodobieńsnvu,
4.2.1 "rynosi P2 =
OC
k
1=0
i=2
L P(s1 = l) II P(s; = s 1) oo
k
=II i=2
P(s; = s1)
L P(si = !) /=O
k
=
II P(s; = s) ~ 2!., .
o
i=2
Łącząc
len1aty 4.2.2 oraz 4.2.3 otrzymujen1y podany niżej lemat.
77
4. Szybka faktoryzacja
Lemat 4 .2.4. Niech n = p~' ... p~' będzie rozkladcm na czynniki pierwsze nieparzystej liczby 11 o raz niech k
~
2. Wtedy dla losowo \vybranego (z jedno-
stajnym rozkladem prawdopodobieństwa) a E Z7, prawdopodobieństwo, że r = rz„(a) jest parzyste oraz a l' ~ - J (n1od n) , równe jest co najmni ej
•
Do naszych celó\v oszaco\va nie z powyższego lematu jest wystarczające. Niemniej jednak, z teoretycznego punktu \Vidzenia, cieka\ve 'vydajc się pytanie, czy wynik ten można popnnvić. Odpo,viedź jest l\vierdząca. Lemat 4.2.5. Wszystkie oznaczenia przyjn1ujcn1y jak podobieńsl\vo, że
.
r = rz„(a) jest nieparzyste lub a''
wyżej .
= -1
Wtedy pra,vdo-
(n1od 11) równe jest
. . I
co naJ\V)'ZCJ ,_, . 2 Do\vód. Oszac0wanie to 'vyn ika bezpośrednio z następujących spostrzeżeń: po pienvsze, r j est nieparzyste wtedy i tylko wtedy, gdy każde s; =O; po drugie, jeżeli
a 1'
=-
1 (mod n), to wszystk ie liczby s; S
P(r jest nieparzyste lub a ';
= - 1 (mod 11))
~ ?(wszystkie liczby s; są równe) ~ 2,_,. 1
Ostatnia
nierówność
wynika
bezpośredni o
o
z len1atu 4.2.3.
Stwierdzenie 4.2.1. Przyjmujemy notację j ak w lemacie 4.2.4. Prawdopodo-
bieństwo, żer jest parzyste i ai ~
- 1 (1nod n), równe j est co
najmniej~.
u,vaga 4.2.1. Badają;; gru p9 lli1> rnożn a się przekonać, że ogra niczenie na prawdopodob ieńst\vo w powyższym lemacie j est optymalne.
4.2.3. I Znajdowanie okresu dla losowo 'vybranego (z jednostajnym rozkłade111 prawdopodob i eństwa) a E Z7, prawdopodobieństwo, iż r = rz„(a) jest pa-
Z lema tu 4.2.4 wie1ny, rzyste i al
78
że
-f= - I (mod n), \vynosi co naj n1 niej (6 dla każdej nieparzystej
4.2. Algorytm faktoryzacji Shora
liczby 11 posiadającej co najmniej dwa różne dzielniki pie"vsze. W podrozdziale 4.2.1 sl\vierdziliśn1y, że informacja o rzędzie takiego elementu a poz\vala \V efektywny sposób znajdo\vać nietry.vialne dziel niki 11, a więc procedura obliczania rzęd u dostarczyłaby wydajnego algorytrnu probabilistycznego do faktoryzacji. Dlatego uzasadnione 'vyclajc się przypuszczenie, że znajdowanie r = rz11 (a) jest obliczeniowo bardzo trudnym zadaniern. Jest oczY'viste, że problen1 znalezienia r = rz„(a) redukuje okresu funkcji/ Z -+ Z11 zdefiniowanej przez
się
do znalezienia
f(k) = d' (mod 11).
(4.27)
RzccZY'viście, jeżeli okres/równy jest r, to a'= a0
= I (mod 11).
Powszechnie wiadomo, że informację o okr csowości można uzyskać za pomocą transformaty Fouriera (patrz podrozdzial 9.2.5). Pokażen1y, że korzystając z QFT, n1ożna zna leźć okres funkcji (4.27) z niezero,vym prawdopodobicrisl\ven1. Naturalnie nie
możemy obliczyć
QFT funkcji (4.27) na
całym
Z . Dlatego
\vybieramy dziedzinę Z„ = {O, I, .. „ n1 - I}, gdzie 111 > /1 jest \vystarczaj
jak ob l iczać QFT \V Z 21.
Wartość/
ustalin1y później.
Procedura, któn1 chcemy przcdsta,vić, 'vyn1aga k\vanto\vych reprezentacji Z,,, i Z 11 (drugą grupę można zastąpić zbiorem 2awicraj<1cym Z„). Picr\vsza grupa 'vyrnaga I kubitó,v, natomiast druga co naj,vyiej I kubitÓ\V. De oznaczenia reprezentacji będziemy stosować zapis lx)ly}, gdzie x E Z,,, i y E Z 11 • Kwantowy algorytm znajdowania rzędów l. Rozpoczynan1y od stanu IO)IO). Stosuje n1y transformatę Hadan1arda-Wal-
sha \V Z111 i uzyskujemy superpozycję 1n- l
~ "~ lk)IO) .
(4.28)
y/11
k.O
2. Obliczan1y k
>-+ a
4
(rnod
11),
otrzymując
(4.29) Ponie\vaż funkcja k >-+ a" (1nod 11) posiada okres r, 'vyrażenie (4.29) 1nożna przepisać
\V postaci 79
4. Szybka faktoryzacja r- 1
s1
.),,; L L lqr+ l}la
1 ),
(4.30)
/:() q=O
gdzie s1 jest naj,viększą liczbą całkowitą, dla której s1r +I < 111. 0C-L.)"viście s1 . rnoze . srę . za bardzo zm1en1a . . ć : zawsze mamy -Ili - I - -I -=:::: / nie s1 r 1·
I < -Ilir - -. 1·
3. Obliczamy odwrotną QFT na Z 111 i jako wynik otrzymujemy r·- 1
l -.;m
J
L L -.;ml "L..,e " S1
,.., q=O
111-
2<1'<•"''
"'
IP}laI }
p,,f]
(4.31) 4. Dokonujemy obserwacji k\vanto,vej reprezentacji Z111 '"stanie (4.31), otrzymując jako \vynik jakieś p E Z„. 5. Stosując algorytm Euklidesa, znajdujP-my rcdukly
p,
q,
rozwinięcia liczby P
Ili
na ułamek łańcucho'vy (patrz podrozdział 9.4.2) i wybieran1y na1mniejsze q; takie, że aq' = I (mod n), jeżeli takie q; istnieje. W następnym podrozdziale oszacujen1y tej metody.
4.4.2. Niech n = I 5 i a = 7 okresu. Wybierzn1y 111 = 16. Przykład
prawdopodobicńsl\vo poprawności
będą
elementami, dla których szukamy
l. W pienvszym kroku przygoto\vujcmy stan IS
~L
lk} IO).
A-:0
2. Obliczenie k ,_. 7k (n1od 15) daje
!CIO) Il) + Il) 17) + 12) 14) + 13) I13} + 14} I1} + ... + Jl 5}Il 3}) =!((IO}+ 14} + 18) + Jl2})1J ) +Cl I} + 15} + 19} + I 13})17} + (12) + 16) + IJO} + IJ4})!4} + Cl3) + 17} +II I } + IJ5})1J3)).
sol
4.3.
Prawdopodobieństwo poprawności
3. Odwrotna QIT \V Z 16 daje
~((jO) + j4) + j8) + jl 2))jl)
il 12))17)
+(IO) + ij4) -18) -
+(IO) - 14) + 18) - j 12))14) +(IO) - il4) -18) + ij 12))j13)). 4.
Każde z pra\vdopodobieństw zaobsenvo\vania elen1ent6w O, 4, 8 i 12 . I
Jest 4 .
°
równe
5. Jedynym redukten1 1 jest~, który nie daje okresu. Reduktami ~ są~ i ~ 6 i ten drugi daje poprawny okres 4. Ohsenvacja 8 także nie daje okresu, gdyż 8 są T O 1. I , natomiast . o kres mozemy . • o bserwując . l?- ; red ukta1111. T6 uzys kac,
1
2
. 12
red u k tarn i 16
są
O I .3
T, T 1 4 .
4.3. I Prawdopodobieństwo poprawności 4.3.1. j Przypadek łat wy Pra,vdopodobieństwo
otrzymania danego p E Z111 podczas obseiwacji stanu
(4.31) równe jest r-1
P(jJ)
s1
r- 1
= L -,I e ~ L e ~ - = _,,,2IL m
,,, ~
l=O
?
m
q=O
1=0
s,
Le
?
i::::q, - .
(4.32)
q:O
Pokażemy, że wartość p
otrzyn1ana podczas obsenvaeji (4.31) z niezerowy1n pra\vdopodobieństwem daje okres r. Aby lepiej zrozun1ieć, \V jaki sposób należy szacować pra,vdopodobieńshvo (4.32), zalóżn1y na początek, że r jest dzielnikien1 111. Przypomnijn1y, że s 1 jest naj,viększą liczbą całko\vitą, taką że sir+ I < 111 , oraz O ~ I < r. S tąd mamy
s1 = ';~ - I dla każdego I. W ryn1 przypadku (4.32) równe jest ,,,
l
„ L e 2„"" -; -
P(p) = -, Ili"
2
(4.33)
mJ•
q=O
Suma \V ( 4.33) przebiega po wszystkich charakterach
z!! '
obliczonych dla p.
4. Szybka faktoryzacja Stąd
(patrz podrozdzial 9.2. I)
~-· L...,e •'
~
?da
{„ Ili
=
ą=O
J. eżeJ i p
= Q \V Z„_ ,
,
O w pr1:eciwnyn1 przypadku
i dlatego
r
• • 1·I p = (1·' • 111 dl a pe\Vnego l. I Jeze \V pr1:eciwnyn1 przypadku. Jeśli
{O
zatem r Ili I 111
I 111, ' vynikiern
· r, · r, ... , r (
1) ·
r ,
Ili }
n1oże być
jedynie p ze zbioru • . . przy czyni prawdopo dOb.1enSf\VO \\'YStąp1en1a
obsenvacji (4.31)
każdej z tych \Vartości ró\vne jest ~ . Ponieważ znarny 111 i z obserwacji (4.31) • man1y p = d · r' mozen1y teraz pro• bO\vac' zna Iez'ć r za 111
pomocą
a Igorytn1u
Euklidesa, redukując 111 P = ~ do ułamka nieskracalnego. Niestety opisana procedura działa nieza\vodnie jedynie \vtedy, gdy n\vd(d, r) = I; \V prt:ypadku
„
nwd (d. r) > l otrzymamy dzielnik r jako niianownik ulamka P = ~. Szezęśliwie, na gruncie teorii liczb n1ożna pokazać, że prawdopodobieńst\vo \Vystąpie nia nwd (d, r) = I zbiega do O niezbyt szybko.
,,, ,.
P rzykład
4.3.1. W przykład z ie 4.2.2 okres r = 4 był dzielnikiem 111 = 16 i jedynyn1i elementami. które n1ożna było zaobsenvować, były O, 4, 8, 12, \Vielokrot-
ności 4 =
1:-Jednakże Oi 8 nie dały okresu, gdyż mnożniki Oi 2 n1ialy \VSpól-
ny dzielnik z 4.
4.3.2. j Przypadek ogólny Poni eważ
= 21, OCZ)'\viste jest, że nie rnożemy mieć do czynienia \vyłącznie z przypadkami, gdy okres r jest dzielnikiem 111. Jednak możen1y zapytać, jakie 111
jest pra\vdopodobieńsl\vo zaobscnvO\vania p bliskiego \Vielokrotności J eżeli
1 ;'..
bo,viem
„, /!. Ili
~1·
=
- I
I/.~ c1!!.!.I'
jest \vystarczająco 1nale i nwd(d, r ) = I, to ~ jest reduktem P 1 za po1nocą r
Ili
algorytmu Euklidesa możemy znaleźć \V 'vydajny sposób wszystkie redukty Ili P (patrz podrozdział 9.4.2).
4.3. Prawdopodobieństwo poprawności
Ustalimy teraz 111 '"taki sposób, aby n1 ożna było zastosować metodę ułamkó\v łańcuchowych. Dla dowolnej liczby całko,vitej d E {O, I, ... , r - l} zawsze istnieje jednoznacznie określ ona liczba calkcl\vita p, taka że spełniona jest nierówność
I
l
111
(4.34)
- -
Wybieraj<)C teraz 111 takie, że
2 11 :,;;;
-p - -d ,;:: _I ,;:: _ I 2 < _l 2 Ili
1·
--.;;:: 2111 "'"" 211
2r
m .;;; 2112 , 1narny pewność, iż
'
skąd na rn ocy t\vierdzenia 9.4.3 \Vynika, że jeśli n\vd(d, r) = tcm
1, to
f. jest reduk-
P. Ili
Jed nakże w 1Zm
jest tylko r liczb całkowitych p spełn i ających (4.34) - po jednej dla każdego d E {O, l , ... , r - 1}. Jakie jest prawdopodobicńst\VO zaobse rwowania jednej z n ich? l nnyrni słowy po\vinniśrny oszacować prawdopodob ieństwo zaobserwowania p spełni aj ącego dla pewnego d nierówność r
jpr - dni I .;;; 2 .
(4.35)
Lemat 4.3. 1. W wyniku obserwacji (4.31) dla
takie
że lpr -
Dowód.
P(p) = -
r
l
111 1
I
~
(4.32) (zadanie 5.), dostajemy
. 2 Stn
~ l=O
IOO otrzyrnarny p E /Z""
~ , z pra\vdopodobieństwem nic mniejszym niż ~ .
d1nl .;;;
Obliczając
11 ;;::
::pr(11•I)
"'
si11~ ~ 1n
dla dowolnego ustalonego d (u,vzględniając okresowość funkcj i sin2 ). Zakla. r, r] , oszacuJerny dając, że x = pr - cbn przyjmuje wartości z przedziału [2 2 teraz • 2 1iX(S 1 SIT!
j(x) =
+ I)
~:.
Si ll:? ~ . Ili
83
4. Szybka faktoryzacja
Nie jest trudno pokazać, że /(x) jest funkcją par.tystą, posiadającą \V maksimum (s1 + I)2 \V x =O oraz minima \V punktach skrajnych
(-~,
±;.Stąd
i]
sin' ~' (s, + I) j(x) ~ '.""' " . Sm -
'"'
Ponieważ St jest największą liczbą cał kowitą, t aką że
1!: (1 2
sir+ I
< 111, n1an1y
- .!:...) < !!!.(si+ I)< 11'2 (1 + .!:...) Ili 2111 Ili
oraz (4.36) Wybór 111 ~
2 11
sprawia, że \vyraz .!:... jest pomijalnie mały, co poZ\vala na1n sko111
x
rzystać z oszacowań sinx ~ oraz sin ;c 1+x)~ 1 2
?
(;x)- (zadanie 6.).
Otrzymujemy wtedy f(x)
•
~ n' ~ (111)2(1 r
7
("2 !...)2)
(4.37)
111
z czego 'vynika, że P(p)
~ ~!r (1 -
9' 1'1
(rr2 r )
2
111
(4.38)
).
Czynnik I -
(:rr!...)2 2
(4.39)
Ili
O i dla 11 ~ IOO jest już \viększy od O. 9999. Stąd pra\vdopodobicństwo zaobsenvowania ustalonego p , takiego że 111 1 ' ~ 2, . CO naJmnlCJ . . . 2S I dl a dO\VO Inego /1 7~ I00 . - 2I < p - d r "' rowne JCSt \V (
4.38) dąży do I przy
.!:... -+
Ili
r
Jednak takich \vartości p E Z 111 ,
że - ~ < p - d'.!f ~ ~, jest dokładnie r: są to
liczby cał kowite n aj bl iższe d 1;'. dla każdego d E {O, l, ... , r - I} . A zaten1, jeżeli 11 ~
I OO, to
.
.
prawdopodobieńst\vo
. .2
JCSt co naJmnieJ 5 . 84
zaobsenvowania
któ rejś
z nich równe
o
4.3. Prawdopodobieństwo poerawności
Wiemy już, / - -I ..... 2
że
\vybrane p E Z 111 ,
spełn iaj ące
I
/11
p-d- ~ -
(4.40)
r "' 2'
n1ożna zaobserwować "L. prawdopodobieńsrwem
stąd, że odpow iednie
dla takiego d
spełnione
Pra\vdopodobicństwo to oszacować
za
5„ .Wynika
d E {O, I, ... , r - I} n1ożemy otrzyn1ać także z pra\vdo-
podobieńst,ven1 co najmniej iż
niż
nie mnicjszy111
?
po1nocą
J,.. Na kon iec oszacujemy prawdopocłobic11st\vo,
jest
również
równe jest
nwd(d, r ) = I.
oczywiście :;~r) , którą
wartość można
to
f\vierdzenia podanego poniżej .
Twierdzenie 4.3.1 ((76]) . Dla
r ;;::
3
r < e,· Ioo Ioo r + .,--,-2. 50637 -· ~(r) <> e Joo (oo r • 'r"
o
::-
gdzie 1' =
0,5772ł56649 . . .
Lemat 4.3.2.
Jeżeli
r ;;::
jest
stałą
19, to
E ulera 1.
prawdopodobieństwo, że
dla \vyhranego
(z jednostajnyrn rozkłacłern pn1\11dopodobieństwa) d E {0. 1, „.,r - I} pra\11di1 jest, iż 111vd (d, r)
= I, równe jest co najn1niej 4 1og\ og11 .
Dowód. Z t1vicrdzenia 4.3.l \\')'nika wprost, że dla
„
:p(r)
r ;;:: 19
< 4 log log r.
Stąd · (r )
'.!::.,_
/"
>
I
4 log log r
I > 4~--:-log log n ·
Połącze nie następujących
o
faktó\v pozwoli nam na sformułowan ie lematu 4.3.3:
• Prawdopodobieństwo, że d la losowo wybranego (z jecłnostaj nyn1 rozkła dern prawdopodobieństwa) a E Z„ rząd r = rz„(a) jest liczbą parzystą i a~
1
~-
I (mod n), równe jest co najn1niej
Stala Eu lera jest zdefiniowana przez / = lim 11 - ·x:
~
(lemat 4.2.4).
(I+~+~+ . .. +~ - log n). W pra-
cy (76) pokaza no, że w
powyższym twierdzeniu stałą 2,50637 można nawet zamien ić n a2,5d lawszyst kichłiczb r zwyj ątkiern r =2·3·5 · 7 · łł · 13· 17 · l9·23.
85
4. Szybka faktoryzacja
•
Pra\vdopodobieństwo, że In Il'
•
w "'Yniku obsef\vacji (4.31) otrzyrnan1y p, takie że d r111 I < ) , rO\Vlle ' jeSl · CO naJDlfllCJ · · · S2 (J Crllal 4.3.1). 2
Pra\vdopodobicńs!\vo, że n\vd(d, r) = I, równe 1·est co· na1·mnic1· 41 og\ og11 (le111at 4.3.2).
Le mat 4.3.3. Prawdopoclobicńs!\Vo, że algorytm kwa ntO\vy znajdzie rzi1cl clcn1entu grupy Z,„ równe jest co najmniej I
20 log log /1 • Uwaga 4.3.1. W podrozdziale 4.1.4 \VSpon1 n ieliśn1y, że podsla\vą wiciu interesuj11cych algorytn1ów kwan towych jest zakodowa nie i n teresuj ącej nas inforrn acj i \ve wspólczyn nikach k\van tov;ej superpozycji, a następnie wykonanie szybkiej QFT. Metoda ta jest 'vykorzysty\vana również do znajdo,vania okresu \V algorytn1ie faktoryzacji Shora: aby "'Ykorzystać k\vanto\vą \vspólbieżność, należy przygoto\vać superpozycję 1n- I
--k '°' ). L.., lk)IO ylll
k=O
nas infonnacja, czyli okres, zostaje wpisana do wspólczynnikó\v przez 'vykonanie operacji k ...... ak (mod n). W \vyniku otrzyrnujerny Interesująca
111-I
r-1
s1
1 ~ L lk)lił} = ~ '°'L lqr+l)la ) . ylll y/11 L.., k=O
/: O q:O
W powyższej superpozycji le"'Ym mnożnik i ern każdego ze stanów
la1) jest
„, L lqr +I).
( 4.4 J)
q:O
Jednak informacja o okresie jest już za\varta \VC \vspólczynnikach superpozycji \vektoró\v bazo,vych lx), x E Zm: współczynnik przy lx) jest różny od O\Vtedy i tylko \Vtedy, gdy x = qr +I, tak \vięc ci<)g \VSpółczynnikó\v \V (4.41) również posiada okres r i okres ten należy "'Yznaczyć za pomoc
{O, I, ... , r - l } elementy a1 są różne. Mamy zate111
(4.41) nie zaburzaj<} tej procedury. Możen1y zatem stwierdzić, że obliczając k ...... ak, zapisujen1y informację o okrcso,vości \Ve \vspółczynnikach superpozycji.
86
4.3. Prawdopodobieństwo poprawności
4.3.3. I Złożoność a lgorytmu faktoryzacji Shora Poprzednie podrozdziały n1ożen1y podsun1ować w postaci następującego algorytn1u: Kwantowy algorytm faktoryzacji Shora
Dane wej ściowe: Nieparzysta liczba n, dzielniki pienvsze. Wyuik: Nietryv1ialny dzielnik n.
posiadająca
co najmniej dwa
różne
1. Wybierz do\vołne a E {I, 2„ . „ n - l}.
2. Oblicz d = nwd(a, n), i zakończ pracę.
stosuj ąc ałgorytn1
Euklidesa.
Jeżeli
d
> l,
zwróć
d
3. Oblicz r za pomocą algorytmu kwantowego z podrozdzia łu 4.2.3 (n1. = 21 jest wybra ne tak, że n2 ::;;; 111 < 2n 2). Jeżeli a" -:j I (111od n) łub r jest nieparzyste lub a''
= - I (mod n), zgłoś niepowodzenie i zakończ pracę.
4. Oblicz d ± = nwd(11, a l' ± I), liczby d ± i zakończ p racę.
korzystając
z algorytmu E uklidesa.
Zwróć
Krok 2. wymaga czasu O(e(n) 3) .2 W 3. kroku najpienv spra\vdzan1y, czy rząd ełe1nentu a jest mniejszy od 19 (\v czasie O(e(n) 3)), a następn ie \vykonujemy transforn1 atę Hadan1arda-Walsha w Z 111 (\v czasie O(e(111)) = O(e(n))) . Obliczenie a k (1nod 11) wymaga czasu O(e(1n)e(n)2 ) = O(e(n) 3)) . Wykonanie QFT 3 2 \V Z,,, wyn1aga O(f.(n1) ) kroków, a obliczenie reduktów - O(e(n) ) . Krok 4. wymaga czasu O(e(n)3 ). Całkowita złożoność powyższego algorytmu wynosi zate1n O(e(n) 3), naton1iast prawdopodobieństwo sukcesu równe jest co najn1niej
n( log log i ) =n( 1 ) log e(11) . li
Wykonując
zaten1 omawiany algoryt1n O(łog e(11)) razy, otrzymujemy metodę znajdowania z dużym prawclopoclobieńst\vcm niet1ywialnego dzielnika liczby n w czasie O(e(n)3 log e(n)).
2
Przypomnijmy, że symbol C(11) oznacza długość liczby 11, tzn. ilość cyfr potrzebnych do zapisania liczby 11. W oczywisty sposób długość ta zależy od wyboru konkJetnego syste1nu liczbowego, jednak w różnych systemach (poza unarnym) różnica długości sprowadza się do różnicy w stałej mult iplikatywnej , więc w notacji O staje sic; ona nieistotna.
87
4. Szybka faktoryzacja
4.4. j Zadania 1. Niech C bąclzie grupą abe low
(pa trz za l eżność to jaki stan uk ladu H odpowiada odwzorowaniu f? 2. Niech 11=11 111 2, gdzie n\1'd(11 1 .111) = I. Niec h także
F: z", x
rn iędzy
(4.3) i (4.4)),
z„, _, z„
będzie funkcją
dan
o 1viclon1iano1vej zlożonosci czasowej, który będzie rozstrzygał, cr.y 11 = ./ dla pewnej liczby całkowitej x. (b) Opierając się na po1vyższym algorytn1ic. zaprojekt uj algorytm o wielon1ianowcj złożo n ości czasowej, który będz i e rozstrzyga!. czy elana liczba natuntlna 11 jest nietrywiahu1 pot;rg
4. Niech
11 =
p';' .. . p~•
będzie rozkłade 1n na czynniki picnvsze liczby
11
i a E Z~ . Niech (a1, ... , ak) będzie rozkladen1 a danyrn przez chillskie l'wierdzenie o resztach i r; = rz ,, (a;). Pokaż. że rz„(a) = ll \V\v {r1, .. . , rk}. P,
5. (a) Udowod nij, że jei.t - 112 = 4 sin1 ~ .
(b) Udowodnij, że s , ~ e ~ -~"I' „ L_, q=O
s·1·n=- r11r- 1. -
I';
si11; :e! 111
6. Korzystając z roz\vini;rcia Taylora, pokaż,
że sin
2
;
( I + x) ;;>, l - (;
x)
2 .
5 Znajdowanie ukrytej podgrupy W tyn1 krótk im rozdziale on1ó\vin1y algorytn1 k\vantowy, który można uważać za uogólnienie algorytn1u Shora. Zrozumierny lepiej, dlaczego kon1putery kwantowe 1nogą być szybsze w roz\vii)zY'va niu pewnych problen1ó\v obliczeniowych. Tak zwany problen1 ukrytej podgrupy Simona można sformuło,vać \V postaci ogólnej w następujący sposóh [ 18]: Dane wejściowe: Skończona grupa abelowa G oraz funkcja p: G --+ R, gdzie R jest zhiore1n skończonym. Założeni e:
Istnieje nietry\vialna podgrupa H ~ G. taka że funkcja p jest stała i różnowartościowa na każdej \varsrwie podgrupy H. Wynik: Zbiór generujący podgrupę fi. Mówin1y, że fu nkcja p spełnia znl oźcnic Simona względem podgrupy H. Jeże li h E H, to ele1nenty g oraz g + h należą do tej samej \varstwy H (szczegóły rnożna znale:lć w podrozdziale 9.'I ), a pon ieważ p jest stała na warstwach H , rna rny p(g + '1) = p(J;). Mó,vimy również, że fu nkcja p jest H-okresowa. W podrozdziale 5.2 zobaczymy, że pewne interesujące problemy obliczenio\ve rnożna spro\vadzić do roZ\viązania problemu ukrytej podgrupy. W typo,vych zagadnieniach tego typu IGI jest zwykle tak duże, że wykonanie pełnego przeszukhvania '" celu znalezienia generatoró\v podgrupy H byłoby zadanien1 praktycznie niewykonalnym. Jednak rozmiar reprezentacji1 pojedynczego elernentu g E G ró,vny jest jedynie $(log IGI). Ponadto G na ogól posiada niahi liczbę generatoró\v. Będzien1y także brali pod uwagę rozmiar danych 'vy111aganych do opisu C; jest on z,vykle rzędu (log IGl)k, gdzie k jest ustalone i równe rozmiarowi danych \vejści R można obliczyć'" czasie wielo111ianowym względem log IGI. Aby lepiej zi lustrować istotę zadania, rozwiązanie problemu ukrytej podgrupy przedstawin1y, wykorzyst ując uogól n ioną postać kwantowego algoryln1u Sin1ona na IF'~'. Zauważ1ny również, że'" grupie IF'~' każda podgrupa jest równocześnie podprzestrzenią, tak więc zarniast pytać o zbiór generujący, moglibyśn1y zapytać o bazę. Znając zbiór generujący, bazę można znaleźć \Y 'vydajny sposób, stosując n1etodę eliminacji Gaussa (patrz zadanie 4.).
1 Przykładowo
elen1enty G mogą być reprezentowane w postaci łańcuchów binarnych.
89
5. Znajdowanie ukrytej podgrupy
5.1. I Uogólniony algorytm Simona W podrozdziale tym pokaże1ny, \V jaki sposób rozwiązać problem podgrupy Si1nona dla c = w~·. l:ln. addytyv,1ncj grupy 111-wyn1iarowej przestrze ni \Vektorowcj nad ciale1n liczb dwójko\vych Jł<"2 ={O, 1}.
5.1 .1. I Wiadomości wstępne Przedsta,vione tu \vyniki pozostaj
Y = X1 Y1 + ... + x"'y"' .
Mówi n1y, że element y jest ortogonalny do H, j eżeli y · h = O dla każdego h E H. Łatwo sprawdzić, że elementy ortogonalne do H l\vorzą podgrupę (a nawet podprzestrzeń) !F"', którą oznaczan1y H l. . Poda1ny teraz lemat, którego znaczenie stanie się jasne nieco dalej. Lemat 5.1 .1. Dla każdego y E lF"'
"L <- l)h·y -_ { OIHI jeżeli y E H l. , w przeciwnyrn przypadku. h E /ł
Dowód. Postępuj en1y analogicznie jak w przypadku dowodu ortogonal ności charakterów (podrozdział 9.2.2). Jeżel i y E H l., to h · y =O dla każdego h Ef/ i teza jest oczY'vista. Jeżel i y ~ Hl. , to istnieje element h 1 E H, taki że h1 · y i' O, a zatem S=
2:<- l)"'Y= 2:<- Ji "+hi)·y hEH
h E//
= (- l )h1·Yl :(- l )h·y = (- l )h1·YS, h E /ł
skąd
S =O.
o
Niech H E JF"' b1tdzie podprzestrzeni ą o \vyn1iarze d. Jeżeli X jest zbiorem generującyn1 H, to na n1ocy zadan ia 4„ istnieje efekfY'vny sposób znajdowan ia
-
5. 1. Uogólniony algorytm Simona
bazy
\V
H. MacierL M nad
lF o wyn1iarach d x
111,
rzędy r.vorzą
której
bazę H, nazY\va się macierzą generującą H. Nazwę 111acierz genen1jqca dobrze \vyjaśnia zadanie l. Z zadań 2, 3, 4 i 5 \vynika, że znajomość macierzy generu-
jącej H pozwala na cfcktY\vne obliczanie macierzy H.l.; ponadto H (proszę sprawdzić) .
1'i1k więc, aby znaczyć zbiór ge nerujqcy H 1 .
znaleźć
zbiór
generujący
=(ff.l. ).l.
H \vystarczy wy-
Niech H będzie podgrupą IF111 , natomiast T niech będzie zbiorem za\vierającym dokladnie po jednym elen1encie z każdej warst\vy H (patrz podrozdział 9.1.2). Zbiór taki naIY\va się transwersalą H \V lF"'. W OCZY\visty sposób 171= [IF111 : II] =
= 1 ~ 1 = ~ . Łatwo również sprawdzić, że z faktu IF' = H a:> H.l.
11 11
111
musi być spełn i o n a równość l1F111 I = IH I · IF-l.l.I· ·
\vynika,
iż
.
5.1.2. J Algorytmy Do reprezentacji elementó\v !ii"~' będziemy musieli uŻY\vać n1iast do reprezentacji \vartości funkcji p: W';'
-+
R -
111
kubitó\v, nato-
\V
przybliżeniu
log2 [lF'~': H] = log2 l~I = 111 - log2 IH I kubi tów. Rozmiar danych potrzebnych do opisu G = IF';' równy jest tu jedynie 111. Zakladan1y, że względen1 roz1niaru danych \vejścio\vych, p można obl iczyć w czasie \vielomiano\vym. Zbiór generatorÓ\v ff można znaleźć, korzystając jedynie z funkcji p. Można pokazać (18), że jeżeli nic posiadamy źadnej dodatko\vej wiedzy op, tzn. p jest funkcją czarnej skrzynki (blackbox fu11c1io11; patrz podrozdział 6.1.2), to roz\viązanie tego problemu za pon1ocą jakiegokolwiek algorytn1u klasycznego \vyn1aga czasu 1vykladniczego, na\vet gdy dopuścimy ograniczone pnt\vdopoclobicństwo błędu. Z drugiej strony, jak pokaże1ny poniżej, stosuji1c obwód kwantO\yY, zadanie to n1ożna rozwiązać w czasie \vielo1niano\vym. Algorytm znajdo\vania bazy H polega na znalezieniu bazy H.l., którą oznaczymy przez Y, a następnie obliczeniu bazy H. Jak \VSpomnieliśmy \vcześniej, drugi krok można \vykonać \V sposób efekly\vny na komputerze klasycznyn1. Jak zobaczymy, zadanie znalezienia bazy H.l. byłoby prostsze, gdybyśmy wcześniej znali wymiar H.l.. W takin1 przypadku algorytm ma następującą postać: Algorytm A: Znajdowanie bazy (przy znanym wymi arze) I. Jeżeli d = di1n H.l. =O, zwróć 0 i zakoilcz pracę.
2. Za pomocą algorytmu B (poniżej) \vybierz z jednostajnym rozkJadem pra\vdopodobicńsr.va zbiór Y, składający się z d clcmentó\v należących do H• .
91
5. Znajdowanie ukrytej podgrupy
3.
Stosuj ąc metodę
eliminacji Gaussa (zadanie 4.), sprawdź, czy Y jest zbiorem clcmcntów liniowo n iezależnych. Jeśli tak, zwróć Y i zakończ pracę; w przeciwnym przypadku zgłoś niepowodzenie i zakończ pracę.
Poniżej pokażemy, że
drugi krok powyższego algorytmu poZ\vala na znalezie-
nie bazy Hl. z prawdopodobieńst\vcm nie n1niejszym niż ~ (lemat 5.1.2). Wcześniej
opiszemy jednak, \V jaki sposób można ten krok \vykonać szybko za pomocą ob,vodu kwantowego. Warto także wspo1nnieć, że \V powyższyn1 algorytmie komputer k\vantowy potrzebny jest jedynie do wygenerowania zbioru elen1entó\v z HJ. .
,.
Algorytm B: Wybór elementów z jednostajnym
rozkładem prawdopodobieństwa
l. Za pomocą transformaty Hadamarda-Walsha na IF';' przygotuj stan
(5.2) 2. Oblicz p, aby
uzyskać
~ L lx}lp(x)} =
)F L L lt + x}lp(t)} .
xE~
(5.3)
tET XEH
3. Za pomocą transforn1aty Hadarnarda-Walsha na IF'~' otrzymaj
=
2~ I: I:<- 1)'·YI:<- 1)x·y1Y}IPCt)} = 1; .1 L IET yeJ:o'7 •
xe H
I:c- 1Yl'IY)lpCt)) .
IE T yENi
.4. Przeprowadź obserwacj ę ukladu, aby otrzy111 ać element y E HJ. . W kroku 3. ostatnia równość \vyn ika z len1atu 5.1.l. Łatwo zobaczyć, że prawdopodobieństwo zaobse1wowania konkretnego y E HJ. równe jest
P( ) = """ ( IHI(Y ~ 2'" ter
2
I )t·y) =
TIHl = ~ IHI' = __!._ 7 2 2 IHI 1~-1 IHil , 2 2
m
Zatem algorytn1 B działa poprawnie: elen1enty HJ. 'vybierane są z jednostajnym rozkładem prawdopodobieńst\va. Jest też oczywiste, że powyższy algo1ytrn kwantowy wymaga czasu \Vielomianowego.
92
5.1. Uogólniony algorytm Simona Analizując
drugi krok algorytmu A, oszacujemy teraz pra\vdopodobieńst\vo tego, że przy \vyborze (z jednostajnym rozklaclem prawdopodobieńst\va) d elementó\v z d-\vymiarowej podprzestrzeni, \vybrane wektory są liniowo niezależn e. Poniższy lemat pokazuje, że jest to zadanie proste. di niech y 1, • •• , y, będą losowo \vybranyrni (z jednostajny1n rozkładem pra,vdopodobieńst\va) \vektorami z d-wymiarowej przestrzeni \vektoro\vej nad IF2. Wtedy pradopodobieństwo, że y1, ... , y, są linioLemat 5.1.2. Niech /
\VO
~
niezależne 'vynosi co najn1niej ~.
Dowód. d-v.ymiarowa prLestrzeń \vektorowa nad f2 ma moc równą 2'1• Stąd pra\vdopodobieńSt\vO, że {y1} jest zbiorem wektor6'v liniowo niezależnych 2 1 wynosi ''2-;; , gdyż jedynie wybó r y1 = Opowoduje, że {y 1 } jest zależny. Przypuśćn1y teraz, że Y1 , .. „ y; zostaly wybrane w taki sposób, że S =
{Y1 „ .. , Yi- 1} jest zbiorem wektorów liniowo niezależnych. Ponie\vaż S generuje podprzestrLcń o \vymiarze i - I, \vektor y; można 'vybrać na 2 i - I sposobó\v, tak aby zbiór S U {y;} był linio,vo zależny. A zatem pra\vdopodobieńst\vo, że {y 1 •••• , Y1} jest liniowo niezależny, ró\vne jest p=
2" - 2° 2' - 2'
2'
(5.4)
2'
Stąd
I p
1- I
1- I
2'
= 11 2" - 2' = i=O I
2•-•
I1 2' i=-0
1
-
I
2'
~ rr 2' - I i= I
I
2
•
Man1y zatem 2P
I
> ii"
Cl
U'vaga 5.1.1. Zauważrny, że gdybyśmy skonstruowali no\vy algoiytn1 (powiedzmy A'), który po\vtarza algorytm A za,vsze, gdy ten zglosi niepo,vodzenie, to A' nie n1oże dać zlego 'vyniku, jednak a priori nie możemy podać górnego ograniczenia na liczbę powtórzeń. Możemy natomiast po,viedzieć, że średni o liczba 93
5. Znajdowanie ukrytej podgrupy powtórzeń
wynosi co najwyżej cztery. Taki algorytm nazywan1y algorytn1e1n Las Vegas (por. podrozdzia ł 3.1.2). Ciekawa rnetoda znajdo\vania bazy w czasie wielon1ianowy1n z prawdopodob ieńsl\ven1 1 została opisa na w pracy [18]. Uwaga 5.1.2. Algorytm B wy.boru elementu z H l. przypon1ina ałgorytn1 znajdowania okresu z podrozdzialu 4.2.3. Pierwszy kro k po l egał ta1n na przygotowaniu kwantowej superpozycji wszystkich elementów z IF';'. Następnie, korzystając z kwantowej współbieżności, jednocześnie dla wszystkich elementów z IF'~' obliczana była funkcja p. Był to krok, w którym \vłaściwa inforn1acja zapisywana była \ve \vspółczyn n ikach superpozycji. Później informacja ta była wydobywana przy użyciu QIT. Zauważmy, że wartość p dla każdej warsl\vy jest inna, a zaten1 wszystkie wektory lp(t)) są ortogonal ne. Wynika stąd, że dla różnych wartości p(t), stany
.L: c- i)t·y1Y)lp(t)) yEH'
nie
interferuj ą
ze sobą.
Podrozdział ten zakończymy analizą przypadku, gdy chcemy zna leźć bazę H l. , ad= dirn H l. nie jest znane z góry. Ponie\vaż dysponujen1y już ałgo1ytn1en1 A, \V)1starczy skonstruować algo1ytm pozwalający na znalezienie wym iaru H l. .
Wyn1iar H l. 111ożna zna leźć za porn ocą algo1ytn1u A (który jako podprocedurę zawiera algo1y tn1 B). Z leniatu 5.1.2 wierny, że jeżeli \V)'bieramy (zjednostajnyn1 rozkladen1 prawdopodobieństwa) t ~ d elementów z podprzestrzeni o wymiarze d, to prawdopodobieństwo, iż wybrane elementy są nieza-
leżne,
wynosi co najn1niej
! . Wykorzystan1y to w następujący sposób:
jeśl i /) = dirn Hl. jest (nieznanyn1) wyn1 iarern fil., to po prostu przyjmujemy, że \V)'miar H l. równy jest d (O ~ d ~ 111) i wykonuje rny algo1ytn1 A (z przyj ętą warto~ci ą
z
d).
Jeżel i d ~ D, to zgodnie z len1atern 5.1.2 otrzy1nuje1ny,
pra\vdopodobieństwen1
nic mniejszyn1 od
~,
zbiór d liniowo
niezależnych
tak in1 zbiorem wektorów dysponujemy, to możemy Sl\vierdzić z całkowitą pe\vnością, czy 1vybór d ~ D był prawidłO\V)' (liczba \vckto rów liniowo niezależnych nie n1ożc być wic;ksza od \vymiaru przestrzeni \vektorowej, do której wektory te należą) .
wektoró\v.
Jeżeli już
Z drugiej strony, jeśl i d > D, to utrzymany zbiór d wektorów nie 1noże być liniowo nieza leżny. Wykonując algorytm A ki lka razy, przekonujen1y się, że wybrany wymiar d > D był niepra\vi dłO\V)'. W każdym razie wykorzystując algo1ytn1 A, za1vsze 1nożna stwierdzić z prawdopodobieńsf\vem co najmniej
i,
94
czy spełniona jest nierówność d
~ D.
5. 1. Uogól niony algorytm Simona
Opisze1ny teraz sposób znajdowania D, \vymi aru podprzest rzeni H L. Dla uproszczenia będz ie n1y przyj rnować, że wszyst kie elen1e nty (/J. Il i p) są ustalone, a za dane wejśeio\ve uznan1y jedynie przedział /, w który1n 111« si ę znajdować szukany wyn1iar. Dla przedziału I = { k. k + ł .... , k + r} \vprO\vadzan1y nastę pującą n otację: J\1(1)
= l~ J
oznacza
„środek" /. 8(1) = {k, k + I . . ... lvJ(l) +
1} -
„początek" I.
na ton1iast T(I) = {J\tl(l) ..... k + r} - .,koniec"/. W poni~szym algorytn1i e /) zawsze oz nacza pra\vdzi\vy (nieznany) wyrn i;ir H- , a przy pierwszy111 W)'\VOlaniu na wej ści u podajemy przedz i a ł I= {O, I .. ... 111 } . Algorytm C: Wyznaczanie wymiaru I. Jeżel i
2. J eżel i
Ili = I. zwróć jedyny clcn1e11t I i za koricz pracę. Ili > I, \vykonaj algorytn1 A, aby stw i erdzić, czy D ~ 111(/). Jeśli od-
brzn1 i „tak'', \vykonaj algorytm C z wejście n1 8 (1): w przeciwnyn1 przypadku wykonaj algoryt rn Cz wej ście n1 / (!).
powiedź
Aby znaleźć wyn1iar D, algorytn1 C dzieli re kurencyj nie p rzedzia ł {O. I . ... . 111} na dwie '" przybli żen iu równe części i za pomoc
prawdopodobicńSt\VO poprawności wyniku '\')'nosi co najn1 niej ~ . \Vidzirny zatcn1, z
że
al gorytrn C
kończy pracę
prawdopodohieńSt\VCffi
p ;;:, (
l)
z
p rawid łową
odpowiedzi
10
k
=e (i ~'"') =e (//~; ) .
wyj śc i u
PO\Vtarzaj
algorytm C 0(111 2) razy. uzyskujemy algoryt m, któ ry znajduje wymiar D z prawdopodohie11st\vern różnyn1 od zera. Jako ćwicze nie pozostawiamy przeprowadzenie anal izy czasów dział a n ia algoryl n1Ó\VA, Bi C. Należy pokazać, że ge neratory ukry tej podgrupy n1ożna znaleźć w czasie wiclon1ianowyn1 przy założe n iu . że p n1ożn a obl iczyć w czasie wic lon1iano\\'\'n1. '
lwaga 5.3.1. Nie znaleziono do tej pory odpowiedzi na py1an ic, czy problen1 ukrytej podgrupy 111ożn a rozwi
5. Znajdowanie ukrytej podgrupy
I
5.2. Przykłady Pokażemy
teraz, \V jaki sposób problem ukrytej podgrupy można zastosować do problemów obliczenio,vych. Poniższe przyklady pochodzą z pracy [59].
I
5.2.t. Znajdowanie rzędu Zagadnienie to ma kluczo\ve znaczenie dla algorytmu faktoryzacji Shora. Niech /1 będzie dużą liczbą calko\vit
<=:::> cf+ 11'l = a>" + 11Z
I X+ „z = y + rZ. <==> <==>
/1
Ponie,vaż
Z jest grupą nieskończoną, nie n1ożcmy rozwiązać tego problen1u bezpośrednio za pomocą algorytn1u przedsta,vionego \yYŻCj. Jednak, jak pokazaliśmy \V poprzednim rozdziale, rnożna uzyskać 'vystarc-Lająco dobre przybliżenia, zastępuj<1cZ skończonymi grupami 7,.z1.
I
5.2.2. Logarytm dyskretny Jeżeli
grupą cyklic-Lną rzędu q, to istnieje generator g E F, g0 ,g1,g2 , ••• ,gq- I} (podsta\vo,ve pojęcia z teorii grup
F jest
F = {I =
taki
że
można
znaleźć \V
podrozdziale 9.1). A zatern, jeśli mamy dany generator g grupy F oraz inny element a E F, to a można jednoznacznie przedstawić jako a = g', gdzie r E {O, I , 2, ... , q - I} . Proble111 łogaryhnu dyskretnego polega na znalezieniu r. Ponieważ
gq = I (i q jest najmniejszą dodatnią liczbą o tej \vlasności), to g' =gil wtedy i tylko \vtcdy, gdy r 1 = r2 (1nod ą). Stąd zamiast uważać 'vykładnik gza liczbę całkowitą, możen1y go równic dobrze traktować jak element Zq. Istotnie, odwzorowanie Z" ~ F, r + q'll ,_.gr jest izomorfiz1nen1. Problen1 logarytmu dyskretnego można podgrupy \V sposób opisany poniżej.
96
zredukować
do problemu ukiytej
E F, n iech C = Z" x Z q. Ukryta podgrupa H ={(a, ra): a E Zq} jest generowana przez cle1nent (1, r). Łaf.\vo sprawdzić, że funkcja p: Zq x Zq --+ C zdefiniowana jako Jeżeli a= g'
p(x, y) = g'a- .r spełnia założenie
Sirnona:
p(x1,)'1) = p (x 2,)'2)
,...........
<1 - t '\'1
\'1 -n·, . =g· -.
~ g
Ostatnia ró~1 ność jest spełn iona wtedy i tylko wtedy, gdy x1 - 1y 1 = x2 - 1) '2 (traktowane jako elementy Zq), co z kolei jest spełn io n e ~·tedy i tylko wtedy, gdy x, - xi = r(r1 - .r2). Jes t to ró,vno\vażne warunkowi (x1, y , ) + H = (x2, )'2)
+H.
Mogą także ist ni eć
ge nerato1y H inne niż ( I, r), jednak posługując się argumentami z teorii liczb, podobnyn1i do argu111entó\v użytych ~· podrozdziale 4.3.2, 111ożna pokazać, że możli\ve jest znajdowanie logaryt1nu dyskretnego z niezerowy1n pra,vdopodobieństwen1 \V czasie wielo1nia110\vyn1. Uwaga 5.2.1.
algo1ytn1u podpisu cyfrowego (US. Digital Signa1ure Algorithrn) opiera się na założen i u, że problen1 logarytmu dyskretnego w ciałach skończonych jest trudno roz,viązać za pon1 ocą komputerów klasycznych [60). Niezawodność
I
5.2.3. Oryginalny problem Simona Pienvotnie Sin1on sfo rmułował S\vój problern \V Dane wej ściowe: Liczba całko\vi ta zbioren1 skończonynL Założenie:
111
~
następujący
I i fun kcja p : IF'~
1
sposób [84]:
->
R, gdzie R jest
Istnieje niezero\vy e lement s E IF'~', taki że dla wszystkich
x, y E IF'~' p(x) = p(y) ~·tedy i tylko wtedy, gdy x = y lub x =y + s. Wynik: Ele111ent s. Nietrudno spostrzec, że wybór G jako IF';' oraz H = {O, s} jako podprzestrzeni genero\va nej przez spowoduje, i ż problem ten staje się szczególnym przypadkiern zagadnienia ogólnego, ornó,vionego na początku tego rozdziału. Problem Simona ma znaczenie historyczne, gdyż był to pienvszy przykład problen1u, który 1noże być rozwiąza ny z niezero\vym prawdopodobiellsf.\vem za 97
5. Znajdowanie ukrytej podgrupy pomocą
kornputera hvantowego \V czasie wielomiano\vyrn. Wszystkie klasyczne algo1yt1ny rozwiązujące to zadanie \vyrnagają czasu \vykładniczego, jeśli p traktujemy jako funkcję czarnej sk rzynki (patrz podrozdz i ał 6.1.2).
I
5.3. Zadania 1. Niech 1\1/ będzie
rnacicrzą generującą H. Pokaż, że
H = {yM: y EF"} .
2. Niech M będzi e macierzą generującą H, a N n1acierzą o 'vyn1iarach d' x 111, taką że M1V.l = O. Pokaż, że podprzestrzeń gene rowana przez \viersze n1acicrzy N jest ortogonalna do H. 3. Operacja n1i clen1entarnymi na \vierszach 111acierzy nad ciałen1 IF nazywamy nastypujące operacje: (a) Zan1 ianę d\vóch \vicrszy 111iejsca111i, X; <-+ xr (b) Mnożenie dowolnego \viersza przez niczcro\vy e len1ent ci a la iF , X; >-+ CX;,c;!O.
(c) Doda,vanie do dowolnego wiersza innego \Viersza pon1nnżonego przez J·akiś elen1en t ciała lF ' x·I ,_. x1· +ex·') ' Pokaż, że jeżeli M' jest rnacierzą otrzymaną z M przy użyciu operacji e len1entarnych na wierszach, to wiersze M' oraz M generują dokładnie tą sarną podprzestrzeń.
4. Mówimy, że macierz jest zrcdukowa n:1 wierszo,vo 111acier.ią trójkł1tną, jeżeli spełnione są następujące warunki: (a) W wierszu zawierającyn1 wyrazy niezerowe, pienvszyn1 tak im \vyrazen1 jest 1. Pierwszy niezerowy wyraz nazywa się wyrazc1n kierunko,,ym. (b) Jeżeli \V n1acicrzy występują \Vierszc zawierające tylko \\'Yrazy zerowe, to znajdują si9 one pod wierszami niezero\vyrni. (c) Wyraz kierunkowy każdego wiersza znajduje się z pra\vej strony 'vyrazu kierunkowego wiersza leżącego po"'Yżej. (d) W każdej, kolumnie zawierającej '''Yraz kierunko'vy wszystkie pozostałe '''Yrazy rowne są zero. Jeśli spclnione są tylko warunki (a), (b) i (c), to mówimy, że rnacierz rna postać trójkątną uporządkowa ną \vierszowo. Udo,vodnij następujące l\vierdzcnie Gaussa o eliminacji: Każdą 111acicrz k x 111 można przeksztalcić do postaci trójkątnej zred ukowanej wicrszowo za pon1ocą O(k3111) działań określonych w lF . Ponadto niezerowe wiersze 111acierzy mającej postać trójkąt ną uporządkowaną wierszowo są li niO\VO nieza leżne.
5. Udowodnij, że jeżeli M = (1,1 I M') jest macierzą o 'vymiarach d x generującą H, to N= (-MT I 1111- d) jest niacierzą generującą HT.
(111 -
cl))
6 Algorytm wyszukiwania Grovera 6.1. I Problemy wyszu kiwa nia Przypomnijrny sobie zaba\vę \ V „cieplo-zin1no'', którą zape\vne każdy zna z dzieci ńsnva: jeden z graczy chowa w don1u pewien przedn1iot, na przykład klucz, a reszta stara się Len przedmiot odnaleźć. Podczas gry ten, kto ukrył klucz, podpowiada, u żywając określeń w rodzaju „lodowato", „zimno'', „ciepło " i „gon1co" \V zależności od tego, jak daleko od scho\vanego klucza znajduj ą się szu kający. Bez tych 'ń1Skazówek gra tl'\valaby oczywiście znacznie dłu żej . A 1noże da się wymyśl eć strategię, która pozwal ałaby znaleźć ukrytą rzecz bez konieczności przetrząsa n ia całego domu?
6.1 .1. I Problem spełnialności W inforn1atyce man1y do czynienia z wielo1na problemami, które pr.lypominaj<1 zadanie znalezienia nialego kluczyka \V ogromnym domu. Jako przykład krótko on1ówimy tu zagadnienie znalezienia rozwiązania NP-zupe ł nego problemu 3-spelnialności: man1y forn1ulę rachunku zdali \V kon iunktywnej postaci normalnej, przy czy1n każda klauzula jest dysju nkcją trzech litera łó\v (zmicnnyrh zdaniowych lub negacji zmiennych zda nio'ńrych) . W oryginalnym sform tiłO\vani u problemu zadanie polega na znalezieniu wartości owania logicznego spełn iającego daną forn1 ulę, jeże l i takie wa rtościowanie istnieje. Wyobraźmy sobie teraz doradcę, który zawsze nioże udziel ić natychmiastowej odpowiedzi na pytanie, czy istnieje wartościowa n ie spełniające daną formulę logiczną. Gdybyśmy ta ki1n doradcą dysponowali, to znalezienie \vartościowa nia spełn iającego naszą formulę byłoby j uż lahve: nioglibyśn1y podstawić 1 w niiejsce jednej ze zmiennych i zapytać doradcę, czy p(l\Vstala forn1ula z mni ej szą liczbą zmiennych jest spełnia Ina czy nie. Jeśli nasz wybór okaże s ię błędny, należy zanego\vać podstawioną \Vartość logiczną i dalej wykonywać rekurencyjnie opisaną proced urę. Niestety zadanie stojące przed doradcą, czyli udzielenie odpowiedzi na pytanie, czy istnieje wartościowanie spełniające daną forn1ulę, jest problemem NP-zupełnym. W świetle tego, co powiedzieliśmy wcześniej , jest bardzo mało prawdopodobne, że istnieje 111etoda szybkiego rozwiązywania tego problemu. Kontynuujn1y jednak nasz eksperyment myślowy i załóżmy, że istnieje osoba, nazwijmy ją \veryfikatorem, która zna wartościo\vanie spełniające formulę zdaniową, jednak nie chce si ę z narni swoją wiedzą podzielić. Dość nieoczeki\Van ie okazuje się, że istn ieją tZ\v. protokoły z zerowi! wiedz11 (więcej szczegółó\v rn ożna znaleźć \V pracy (79)), za pomocą których 'ń1eryfikator n1oże prze-
99
6. Algorytm wyszukiwania Grovera konać nas o tyrn, że zna \Vartościo\vanic spełniające forn1ulę, bez konieczności ujawniania nawet jednego bitu swojej \Viedzy. Możl hvc jest zatem, że bę dziemy pewni istnienia \vartościo\\•a nia spełni ającego forn1 ułę, ale nie będzie
pojęcia, jak ono wygl ąda! Oczywistym sposobem na \vartościowania spełn iającego da ną formułę jest przeszukanie
my niieli
znalezienie wszystkich rn ożli\vych \vartościowań. Jeżeli jednak forn1uła 1na /1 zn1iennych, to istnieje 2" wartościowań. Ponieważ nie dysponujemy doradcą o nadprzyrodzonych zdolnościach, nasze zadanie dla dużych 11 \V)'daje się praktycznie niewykonalne, przynajmniej \V ogólnyrn przypadku. Dla przypadku ogólnego nie znaleziono dotychczas metody szybszej ni ż pełne przeszukiwanie. Uwaga 6.1.1. NP-zupełnych
Naj skuteczniejszą procedurą
do rozwiązywania problemó\v jest przypuszczalnie procedura opisana przez U\ve Schi:.iniga
w pracy (83).
6.1.2. IWyszukiwanie probabilistyczne W tym podrozdziale uogólnirny nieco nasz problem 'vyszukiwania. Zamiast szukać \vartościowania spełn iaj
--+
IF2,
a problern \V)'Szukhvania będzi e polegać na znalezieniu x E IF"~ , takiego że f(x) = 1 Ueżeli taki x istnieje). Zauważrny, że przy założeniu o obl iczal n ości /\V czasie wielon1iano,vym model ten jest \V)'Starczający, aby reprezentO\vać problemy klasy NP, gdyż zawiera on NP-zupelny problem 3-speł n ialności. Model ten został także zastosowany [41) do rozwiązan ia problemu przeszukiwania nieuporząd kowanej bazy danych, polegaj
100
6.1. Problemy wyszukiwania
wymagany x z prawdopodobieństwem nie mniejszyn1 niż pewna stała O< p ~ l. Strategia ta może być postrzegana jako naturalne uogólnienie metody wyszukiwania zwracającej szukany element z prawdopodobieństwem 1. Jeśli algorytm \vyszukiwania probabilistycznego jest szybki, to możen1y pokazać, że wyszukiwanie x będzie szybkie także w sensie praktycznym: prawdopodohieńshvo, że po 111 próbach nie znaleźliśmy x, równe jest co
u,vaga 6.1.2.
najwyżej ( l - p)111 ~ e-"111 , co dla 111 > - log€ jest niniejsze niż dowolne € > O. p
Powtarzając wyszukiwanie określoną liczbę razy, możen1y zredukować dopodobieństwo błędu do dowolnej dodatniej stałej € .
praw-
Łat\vo się przekonać, że dowolny
klasyczny, deterministyczny algorytm wyszukiwania, któ1y zawsze z\vraca takie x, żefi.x) = 1 (jeżeli taki x istnieje), \vymaga N= 211 sprawdzeń f jeśl i jak iś ałgorytn1 wykonuje xnniej niż N spra,vdzcń, to możemy zmienić f w taki sposób, aby odpowiedź nie była już popra\vna. Uwaga 6.1.3. Oczywiście w powyższej argun1entacji istotny jest fakt, że bierzen1y pod uwagę jedynie funkcje czarnej skrzynki. Gdybyśmy zamiast tego dysponowali ałgo1yt1nen1 obliczającym f, bardzo trudno byłoby stwierdzić, jak szybko zwracałby on informację o szukanym x. W istocie kwestia złożoności czasowej procesu odzyskiwania x z algorytmu obliczającego .f wiąże się bezpośrednio z trudny1n i dotychczas nieroZ\viązanym problemem P -f NP. Dopuszczając łoso,vość,
nie możen1y znacząco poprawić efektywności wyszukiwania deterministycznego. Ustalmy y E ~ i rozważmy funkcję czarnej skrzynkiJ;. zdefiniowaną przez ) { l jeżeli x = y, f.,.(x = O w przeciwnym przypadku.
(6.1)
Jeżeli będzierny wybierać różne kładem pra,vdopodobieńst\va,
elementy x1, ... , xk E IF'~ z jednostajnyrn rozto prawdopodobieństwo znalezienia y wynosi
~ . Aby znaleźć y z prav1dopodobieństwcm ró\vnym co najmniej p, konieczne byłoby
'vykonanie pN sprawdzeń. Sytuacji nie poprawi niejednostajnego.
także użycie rozkładu
Le mat 6.1 .1 . Niech N= 211 i niech f będzie funkcją czarnej skrzynki. Zakła damy, że AJ jest algorytmem probabilistycznym wykonujący1n sprawdzenia f i zwracającym ełe1nent x E lF'~. Jeżeli, dla do\volnej różnej od stałej funkcji f, prawdopodobicr1sl\vo, że f(x) = I wynosi co najmniej p > O, to istnieje funkcjaf, taka że A1'vykonuje co najn1niej pN - l sprawdzeń.
101
6. Algorytm wyszukiwania Grovera
Dowód. Niech.f;. będzie zdefiniO\vane jak w (6.1), a Py(k) będzie prawdopodobier1stwem, że algorytm At, zwraca y, \vykonując k sprawdzeń. Z założenia Py(k)
~ p. Dowiedziemy istnienia y E IF'~, takiego że Py(k) ~ k ~ 1 .
Po pienvsze,
pokażen1y, korzystając
z indukcji,
że
vEF''l
.
Jeżeli k =
O, to Ah· zwraca x E
lF~ z prawdopodobieństwem p,, skąd
L Py(O) = L Py = l . .YEff"l
Za łóżmy
teraz,
że
LPy(k - I ) ~ k . yEF;
W k-tyn1 sprawdzeniu algorytrn At,. bada .f(y) z pewnym stwem
ąy, więc
Py(k)
~
Py(k - l ) + ąy.
L Py(k) ~ L Py(k - I)+ L ,,., E J·e""' „ 2 y '"2 Ponieważ
y n1oże1ny tak i, dla którego
Py(k)
\vybrać
prawdopodobień
Stąd
ąy ~ k + l.
na N= 2"
różnych
sposobó\v, \vic;c niusi
istn ieć
~ k ~I.
Wynika z tego,
że k ~ 1 ~ Py(k) ~ p, a zaten1 k ~ pN -
o
I.
6.1.3. I Wyszukiwanie kwantowe z jednym sprawdzeniem Kontynuując badanie funkcji czarnej skrzynki/: IF'~ -+
!F2,
nlożcmy zadać py-
tanie, czy istnieje możlhvość skonstru
102
6 .1 . Problemy wyszukiwania
skrzynkif(x), będzierny korzystać z r~jestru źródłowego lx} (11 kubitów) oraz kubitu \vynikowego lb). Operator sprawdzania Q1 jest to odwzorowanie li niowe zdefiniowane przez (6.2)
Q1lx}lb} = lx)lb
gdzie E!l oznacza doda\vanie 111odulo 2 lub, n1 ówiąc inaczej, operację różnicy syn1etrycznej. Możen1y łatwo sprawdzić, że (6.2) defi niuje odwzoro\vanie unitarne. Rzeczywiście, zbiór wektoró\v
rozpina 211+ 1 -wymiaro,vą przestrzcr1 Hilberta. Odwzorowanie QI wykon uje permutacj ę na B, a \viadomo, że każde odwzorowanie tego typu jest unitarne. Ponadto rnamy Qj{2Jlx)lb} = lx}lb $ /(x) $ f(x)} = lx)lb}, a za rem odwzorowanie odwrotne do
Ot jest tym san1yn1 odwzoro\vaniem Q1.
Ustahny teraz y E lF'~ i spróbujmy skonstruować algorytm wyszuki\vania kwan towego dla funkcji fv zdefinio,vanej przez (6.·1). Pierwszym pomysłem jest rozpoczącie od przygotowania stanu
Je. L lx) IO),
(6.3)
~ --:n
X-.;- .l
przez wykonanie transforn1acji Hadan1arda-Walsha H11 na stanie IO) IO) (por. podrozdział 4. 1.2). Następ n ie rn oglibyśmy wykonać pojedyncze sprawdzenie Q1,.• otrzymując stan (6.4) Jeżeli doko na111y teraz obserwacji ostatniego nioże111y otrzymać 1 (a następn ie, dokonuj<1c
kubitu stanu (6.4), ro w wyniku obserwacji pienvszego rejestru,
szukany y) jedynie z prawdopodobici1st\vem ~· . Sposób ten nie jest więc \VCale lepszy niż najp rostszy przepis polegający na odgadnięciu y. Pokażcrny jednak, że 'vyszukiwanic
kwantowe może usprawnić algo1yt1n probabilistyczny. Dysponując stanem (6.3), 1noże1ny zmienić bit wyni kO\vy (na I I)), a nastąpnic wykonać na tyrn bicie transforn1ację Hadamarda, otrzyrnując stan
}in L lx} ,~
I l}) =~ ( L .xeF';
lx)IO} -
L
lx}l l )) .
(6.5)
xe~
103
6. Algorytm wyszukiwania Grovera
i Q1, lx) Il ) = lx) Il ), ale Q1, IY) IO) = IY) Il ) i Q1, IY)1l ) = ly}IO). Stąd 'vykonanie spra\vdzeniafv za pomocą operatora Q1, dzialającego na stan (6.5) daje Jeżeli x 'I y, to Q1, lx) IO)
= lx)IO)
~ ( ~ lx)IO) + IY)l l ) - ~ lx)l 1) =
=
~ ( ~ lx)(IO) -
*-
ly)IO))
Il)) + IY)(l l) - 10)))
(6.6)
L(- I Y,lx) ~(IO)- IJ)). ..,.
XE •2
Zauważn1y, że przygotowanie bitu 'vyniko\vego w superpozycji ~(IO) - I1)) przed zastoso\vaniern operatora spra\vdzania, \vykorzystane zostało do zakodo,vania wartościJ;.(x) \V znaku (- lf>. Jest to podsta\VO\Va metoda \V obliczeniach k\vanto,vych. Ponie,vaż \V dalszym ciągu bit 'vyniko\vy nie będzie nan1 już potrzebny, zarniast (6.6) będzien1y pisać jedynie
)F 2::<- 1f><•>1x).
(6.7)
XE~
Przekonaliśrny się więc, że
jednokrotne zastoso,vanie operatora sprawdzania do superpozycji (6.4), przy pominięciu bitu 'vynikowego, daje stan (6.7). Dalej postępujemy \V następujący sposób: zapisujemy (6.7) \V postaci ; 2• (
2::: 1x>- 21y>) xE~
i \vykonujemy
transforr11ację
1-Iadamarda H,„ otrzymuj <}C
IO)- ;. 2::<- 1r"> lx) = (1-;. ) Io) - ~. 2::<- l )"Ylx). XE~
(6.8)
x'f. 0
Następnie konstruujerny funkcję/o: W'.;--+ !F2, przyjn1ującą wartość 1 dla O i O
dla pozostalych x E lF'~, dzięki której \V superpozycji (6.8) n1ożerny oddziel ić 10) od pozostałych stanów. Funkcję taką można zrealizować za pomoc
6.1. Problemy wyszukiwania
(I - ;.)IO)ll ) -
(6.9)
; , L(- l )"Ylx)IO). x;.! O
Teraz obsenvacja ostatniego kubitu (6.9) da \V wyniku stan
IO)I i )
(6.1 O)
z pra\vdopodobieństwen1 ( 1 - ; . ) = 1 - ;., + 2
~(- l )X')'lx)IO) =
I
/ 2• - I L.., x #O
I
/ 2• - I
2~ oraz stan
(~(ł)X')'lx)-10)) 10) L..,
(6.11)
.xelF';
. ' 4 z prawd opo dob 1enstwem • - 4,, . 2 2 Ponowne zastosowanie transformacji I-Iadamarda H„ do stanów (6.10) i (6.11) da nam odpowiednio (przy zaniedbaniu ostatniego kubitu)
(6.12)
oraz 1
J2•(2• -
I)
(~(l)xl~(l )'"lz) - ~ Iz)) L.., L.., L.., xer';
ze:;
7.E~
(6.13) W ostatnim kroku dokonujen1y obsenvacji (6.12) i (6.13), otrzy1nując y 2 1 z pra\vdopodobicństwan1i odpowiednio ; . oraz • : . Biorąc pod uwagę 2 pra\vdopodobicństwa zaobscnvowania stanó\v (6.10) oraz (6. l l). oblicza1ny całkowite pra\vdopodobieilst\vO otrzyrnan ia y: 2) 2 I ( ( ( 1- -2" -2" + 1 -
ł -
2) 2"
2 )
2" - I = -I ( 5- -4) 2" 2· 2·
Jest to rezultat blisko 2,5-krotnie lepszy od można uzyskać
5 . ~ 2"
f. ,czyli najlepszego wyniku, jaki
przy użyci u algorytrnu losowego sprawdzenie/,. (patrz dowód lematu 6.1.1).
\vykonuj ąccgo
jednokrotne
105
6. Algorytm wyszukiwania Grovera
Wkrótce przekonamy się, że stosując obwód kwantowy, wynik ten można jeszcze popra\vić. Następny podrozdział poś\vięcony jest metodzie zapropono\vanej przez Lova Grovera, która w pomysło\vy sposób wykorzystuje operacje k\vantowe do zwiększenia pra\vdopodobieńst\va znalezienia \Vlaściwego elementu.
6.2. I Metoda wzmacniania Grovera Nadal bi;:dziemy posługiwać się przykładen1 fu nkcj i czarnej skrzynki fy : ~ -+ lF2 z poprzedniego podrozdziału. Zadanie polega na znalezieniu y poprzez wykonywanie spnl\vdzeńfy. Korzystając z metody Grovera, pokaże my, że użycie obwodu k\vantowego pozwala na zna lezienie y z niezerowyn1 pra\vdopodobieńsl\vem za pomocą o(~) sprawdze1l.
6.2.1. I Operatory kwa ntowe dla algoryt mu wyszukiwania Grovera Operator Q1, , sł użący do sprawdzania wartości funkcj i J;.., wykorzystuje n kubitów rejestru źródłowego oraz 1 kubit wyjściowy. Będzie nam także potrzebny k\vanto\vy operator R„ zdefinio\vany na n kubitach, którego działanie jest następujące: R„10) = - 10) oraz R„ lx) = lx), jeżeli x f O. Nu1ncrując rźędy i kolumny n1acierzy clementan1i z lF'~ (uporz<1dkowanymi jak liczby binarne), lanvo znajdujen1y przedstawienie R„ \V postaci macierzy 2 11 x 2"
- I O O
o R„ =
l
o
O O
o o o
(6.14)
o oo Wyn1agamy jednak, aby operacje \yYkony\vane \V obwodzie kwantowyn1 były lokalne, tzn. powinno istnieć ustalone górne ograniczenie na liczbę kubitów, na których operuje każda z bran1ek. Poświęćn1y zate1n ni eco u\vagi zagadnieniu rozkładu (6.14) na operacje lokalne. Rozkładu tego łat,vo dokonać, korzystając z funkcji/ 0 : lF'~ -+ IF2, która przyj-
n1uje wartość 1 dla O, naton1iast \vszędzie indziej równa jest O. Jak po\viedzieliśn1y wcześniej, obwód k\vantO\'I}' dla tej funkcji rr.ożna zbudować przy użyciu 0(11) prostych bran1ek kwantO\vych (operujących co naj\vyżej na trzech ku bitach) i ki lku, po\viedzmy k,„ kubitów po1nocniczych. Podsumowując, jesteśmy w stanie skonstruować obwód k\vanto\vy F„ na 11 + k„ kubitach o działaniu
F„jx}IO}IO} = lx}lfo(x))lax).
(6.15)
6.2 . Metoda wzmacniania Grovera
Dalej \vykonujemy następuj ące krok i: rozpoczynamy od stanu lx) II) IO) i działaj ąc na kubit \vyn ikowy hran1ką H2, otrzymujemy lx) ~ (JO) - Jl )) JO). Następnie
wY\voluje1ny F11 , co daje
Działając teraz na kubit \vynikO\vy n ~jp i el'\v obwodem Od\vrotnyn1 F,~ 1 , a po-
tem bramką H1, dostajemy (- lfo(x)lx) J1) JO). Składając
wszystkie
przekształcenia,
otrzy1nujen1y operację
która jest szukaną operacją R11 z kilkoma pon1ocniczyn1i kubitami. Jak zwykle w zapisie będzien1y pomijać kubity pomocnicze. Następnym clcn1entem potrzcbnyn1 do konstrukcji algorytmu Grovera jest niożli\vość zakodo\vania \Vartościj(x) \V znaku, co jednak niożemy lat\vO osią gnąć, p rzygotowując kubit wynikowy w superpozycji QJlx) ~(JO) - Jl )) = ( - l)ttx>l x) ~(IO) - IJ)).
(6.16)
Zan1iast (6.16) \vprowadzimy oznaczenie VJlx) = ( - 1)ftx)lx}. Powyższe wyrażenie nazwien1y zmodyfikowa nyn1 pono\vnie zan i edbując kub ity po1nocnicze.
oper atorem spra\vdzania,
6.2.2. I Wzmacnianie amplitudy Metoda Grovcra znajdowania cle1nentu y E IF';, dla którego /(y) = I (taki y będziemy od tej pory nazY\vać rOZ\viąza nie m) , rnoże być interpretowana jako iteracyjne wz111acnianic an1plitudy. W algo1ytn1ie ty1n kluczo,vą roly odgrywa operator k\vanto'''Y
G„ = - H11 R11 H11 V1
(6.17)
działający
na n kubitach (reprezentujących elementy x E lF~). W po,vyższej defin icji V1 jest z1nodyfikowanyn1 operatoren1 spra,vdzania: l~j x} = ( - I )fJx}, 107
6. Algorytm wyszukiwania Grovera
H„ jest transfonnacją Hadamarda, a R„ jest operatorem zmieniającym znak IO} na przeci,vny: R„ 10} = -IO}, R„ lx} = lx} dla x ~ O. Interesujący jest fakt, że H„R„H„ można zapisać jako macierz o wymiarach 2" x 2" o dość prostej postaci: jeżeli wiersze i kolu1nny będą numerowane elementan1i x E IF~, to wobec tego, że H„ jx) = ~ L(- 1)'.Yjy}, '
)'€!F"~
element H„ o indeksie (x, y) równy jest ~ ( - I)'·Y. Ele1nent macierzy A o ""'Y1niarach 2" x 2" o indeksie (x, y) będziemy dalej oznaczać przez Axy· Wtedy mamy (odwołując się do reprezentacji macierzowej R„ z poprzedniego podrozdziału)
(H„R„H„)xy = °L,(H„R„)xz(H„),.y =
= ;, L(- l)''(R„)zz(-
L °L,(H„),w(R„)wz(H„)zy z
\\'
1)'Y
=
;„(-2
ze~
ze~
2 2·
-
2
I - -
2·
Stąd
H„R„H„ n1a
2 2· 2 2"
2 2·
co
jeżeli
x ~ y,
jeżeli
x = y.
następującą reprezentację macierzową:
I - -
H„R„H„ =
+ L(- l)(x+y)-z)
2 2"
2
I - 2· 2 2·
2 2·
2 211
2
I - 2·
można także wyrazić jako
H„R„H„ = I - 2P, gdzie I jest macierzą jednostkową, a P macierzą
(6.18) rzutową,
której wszystkie cle-
n1enty równe są ; . (obie 1nacicrze mają wyn1iary 2" x 2"). Istotnie, la two
108
6.2. Metoda wzmacniania Grovera można spra,vdzić, że P reprezentuje genero,vaną przez wektor
if; =~
rzut na jednowymiaro,vą
podprzestrzeń
I: 1x>. xeiF'~
Stąd, wykorzystując
oznaczenia \Vprowadzone \V rozdziale 8., możemy napisać, że P = l'lfi}('!/11. Notacja ta nie ma tu jednak dużego znaczenia. Bardziej istotne jest to, że reprezentacja (6.18) umożliwia łal\ve obliczanie \vyniku działania - H 11 R11 H11 na ogólną superpozycję (6.19) Oznaczając
A= FL ex XE~ (średnia
L
z amplitud), widzin1y, że
c,lx)
=AL
lx} +
..,.
XE"l
L (ex - A)lx)
(6.20)
xe~
jest rozkladem (6.19) na d\va wektory ortogonalne: pierwszy z nich należy do podprzestrzeni rozpiętej przez l/J, a drugi do dopełnienia ortogonalnego tei podprzestrzeni. Fakt, że pierwszy składnik prawej strony (6.20) należy do podprzestrzeni generowanej przez 1/J jest oclY'visty, a ortogonalność składnikó'v sumy lat\VO jest sprawdzi ć:
{A L X
lx}I l::
L L A.(c, -
A)(xly}
xe~ ye~
,
xelo"' Stąd
PL cxlx} =AL lx} 1109
6. Algorytm wyszukiwania Grovera
oraz - H11R11H11
L c, jx) = (2P - [) L c,lx) xeF'12
XE!"'' -l
= 2A
L lx) - L c, jx}
(6.21)
= L(2A - c,)lx).
Wyrażenie
(6.2·1) \\1yjaśnia, dlaczego operacja - H11 R11 H11 jest równ ież nazywana inwersją względen1 średniej: mnoży ona pojedynczą a1nplitudę przez - I i dodaje podwojoną średnią. Wyjaśni 1ny teraz na przykładzie, w jaki sposób za pomocą G11 = - H11 R11 H„ v1 rn ożna u zyskać wz1nocnienie konkretnej amplitudy \V celu znalt:zienia rozwiązania (p rzypomnijmy, że roz,viązanien1 jest clen1ent y E IF'~ spełn iający j{y) = l ). Będziemy rc>z,vażać funkcjęf5 : IF'; --+ IF2, która przyjmuje wartość l , jeżeli y = (0, .. . , O, I, O, 1) i O dla pozostałych elen1cntów dziedzi ny. Stanem wyjścio,vym
jest superpozycja
}in 2: lx), xE7; \V
której 'NSzystkie an1pli tudy
są jednakowe: co =c1 = ... =c2„ = v~ (rysu211
nek 6.1). Stosując zmodyfiko,vany operator sprawdzania V1„ zmienian1y znak wszyst kich tych a1nplit ud, które są współczyn n ikami \Vektora lx) spełniające go fs(x) = 1. Tu jedynyn1 elementem o tej własności jest y =(0, ... , O, I, O, I), a zate1n cs zmienia wartość na -
~ (rysunek 6.2).
I
j'F - ...L.--'---'---J'---'---'----'---'~~-' C3
C4
Cs
C6
Rysunek 6.1. Amplitudy w konfiguracji
C7
początkowej
I
j'F - ..L--'---'-~'---'--1.---'---'-~----'C3
C4
C5
C6
C7
Rysunek 6.2. Aniplitudy po jednym sprawdzeniu
6.2. Metoda wzmacniania Grovera I
..fi" - ~~~~~~~~~~~~~ Co
C2
C1
C3
c.
Cs
C6
C7
C2•- 1
Rysunek 6.3. Amplitudy po operacji - 11„R„ H„ V1
' Srcdnia amplitud \V tym przypadku \vynosi
co ciągle jest wartością bardzo bliską ~ . St11d operator in~1ersji wzgliyden1 średniej
- H 11 R11 H11 \vykona
przekształcenie
I
I
I
,/'F
,/'F
./2-
I
I
- t-+ 2A- - ~ -
- -1-+2A+ .,j'F ,/'F
I
~ 3·-
.,j'F '
co zilustrowaliś1ny na rysunku 6.3. Wynika stąd, że prawdopodobieństwo znalezienia szukanego y = (0, ... , O, I, O, I ) przy pojedynczym sprawdzeniu wynosi
~ ~• . Jest to rezultat \V przybliżeniu 4,5-krotnie lepszy od \vyniku, jaki
można osiągnąć, stosując
rando1nizo\vany klasyc-.tny algorytm \vyszukiwania.
6..2.3 . I Analiza metody wzmacniania W tyrn podrozdziale zbada1ny skutki iteracyjnego za:aoso\vania odwzorowania G11 = - H 11 R11 H„ V1. Jednak zamiast funkcji czarnej skrzynki/: JF~ -+ !F2, która dopuszcza istnienie tylko jednego roz\viązania, będziemy roz\vażać ogólną funkcję f posiadającą k ronviązań (przypomnijmy, że roz\vi
t, 'L lx} +/, 'L lx}. xET
(6.22)
X( F
111
6. Algorytm wyszukiwania Grovera
Zastosowanie zmodyfikowanego operatora sprawdzania daje - t„
L lx) +f, L lx) xET
(6.23)
xEF
ze średn i ą amplitud A=
;„
( - tk + /(211
Operator -H11 R11 H11 tr+ 1
-
k)) .
przekształci
zatem (6.23) \V
L lx) +J,.+1 L lx), xET
xEF
1r+1=2A - t„ = (1 -
gdzie
-;: t„ + ( l - ;:
~~ )r„+ (1 - ~ )tr
)f,.Widzimy zatem, że
oraz
fr+I = 2A
- f, =
G11 = - H11R11H11 V1 działa na (6.22)
jak przekształcenie 2k
1- -
2"
(6.24)
2k 2" Stąd,
aby zna leźć \vynik działania operatora G11 na o równych \vspólczynnikach
\vyjściową superpozycję
~„ :L lx), xe!li~
musimy rozwiązać (6.24) z warunkami brzegowymi to = fo = ~ . Z zadaniem tym poradzimy sobie w następuj ący sposób: oczywiste jest, że r„ if,. są rzeczywiste, a ponieważ G11 jest '.>peratorem unitarnym, to równanie ki; + (211
musi być spełnione dla każdego '" Oznacza to, że elipsie zdefiniowanej równaniem (6.25), a \vięc t„ =
(6.25)
k)f; = I
-
l . (} Jk Sin ,., J
f r = -;;;= =r COS (}„
..;2· -
k
każdy
punkt (r,,f , )
leży
na
6. 2. Metoda wzmacniania Grovera
dla pewnego 0,. Wobec tego re kurencję (6.24) możemy przepisać \V postaci sin0,..1 = cos0,..1 =
(I - ~) sinB, + ~ J2
-f. J2
11
-
11
k,/ksinB, +
-
k,/kcosO„ (6.26)
(I - ~) cosB,.
Przypomnijmy, że k jest liczbą ele n1entów w IF'~ spełniaj ącychfiy) = I, a zatcn1 I-
~ E I I, 11 i możemy wybrać w E lO,rrJ, takie że cos w = I - ~~ . Wte-
dy sinw= ;. J211
-
kjk i (6.26) przyj1nuje postać
sin Or+I = sin(8, +w), { cos 0,..1 = cos(B, +w). Z \varunkó\v brzego\\'YCh mamy sin 2 Oo = ;. i lal\vo sprawdzić, że roZ\viąza
nicm naszego równania jest Ir
=
J,. =
~ sin(rw + Oo). I
./2• -
k
cos(rw + Oo) •
gdzie Oo E IO, 7i /21 i w E [O, 7i) wybrane są w taki sposób, że sin 2 Bo = ; . oraz cos w = I - ~~. Mamy też wtedy cos w= I - sin2 eo zaten1
następujący
Lemat 6.2.1. I
=cos 280. Otrzyn1aliśn1y
lemat:
ROZ\viązaniem
ró\vanania (6.24) z \varunkami brzcgo\vymi
.
to = feo = .j'F Jest
I,= ~ sin((2r + ! )80),
f, = J2•1- k cos((2r +!)Oo), gdzie Oo E [O," / 2J \vyznaczone jest przez sin2 Oo = ; • . Chcielihyśmy znaleźć \Vartość r niaksy1nalizującą prawdopodobieńsl\vo znalezienia roZ\viązania. Ponie\vai istnieje k roZ\viązań, pra\vdopodobieńSt\vO otrzy-
mania jednego z nich ró\vne jest kr;
=sin2 O, =sin2 ((2r + I )80 ),
•
(6.28) 113
6. Algorytm wyszukiwania Grovera
szukan1y zate1n najmniejszego nie uje mnego r, takiego aby wartość sin 2 ((2r + I)Bo) była niożliwie najbliższa 1 (czyli (2r + I )Oo rnusi być jak najbl i ższe ~). Zauważn1y, że
(2r + 1)Bo
„
=~
I
<==}
r =- 2 +
400
.
. . 2 · 2a k. Pon1ewaz 00 :::::: sin "O = . , więc nlamy 2
Bo ""='
fk
Vz. .
A zatem po oko ło
iteracjach pra\l1dopodobieńst\VO otrzyn1ania szukanego elen1e ntu y E lF~ jest dość bliskie 'I . Mówiąc ściślej: Twierdzenie 6.2.1. Niech .f: !F'; 1ne ntów x E
-+
lF2 bądzie funkcją, ta ką że istnieje k ele-
IF'~ spełniających .f(x) = ł . Zakłacla1ny, że O < k ,;:::; ~ · 2" .1 War-
tość Bo E [O,-;; /3) wybieran1y w taki
sposób, aby sin 2 Oo = ;. ,;:::;
~.
iteracjach, gdzie G„ działa na wyjścio\\1 ą superpozycję
prawdopodobieńSl\VO uzyskania roz\viązania wynosi co najmn iej
Po
l 00J 4
*.
Dowód. Pra,vdopodob ieństwo otrzyn1ania szu kanego ełe111 e ntu dane jest
\vcześniej przekonaliśn1y się, że r = - ~ + :Oo
przez sin2 ((2r + l)Bo). Nieco dałoby pra,vdopodobieńst\vo
równe 1. Wystarczy zate n1 oszacować błąd wyni-
. . k aJ
1
480
Jeżeli k > ~ · 2", to możemy znaleźć rozwiązanie x z prawdopodobieństwem co najmniej
~, po prostu zgadując. Z drugiej strony, jeżeli k =O, to G„ wcale nie zmienia
wyjściowej
114
l7'i J.
superpozycji.
6.2. Metoda wzmacniania Grovera
Oczywiste jest, że
l "J 480
rr = - 2I + 40 0
+ u>
dla pewnego c5, takiego że lc51
l4~0 J + l) Oo = ~ + 2c50 więc 2 l4~0 J + Oo odległe ~ l2c50o I ~ ~, uo :::' ·n2(" ")I = 4. ·2(2l" J+ 1)"'
(2 Tak
~ ~, ski1d 0.
(
Sill
l)
jest
od
SI
480
2
-
Metodę Grovera dla \vyszuk iwa nia stępuj ącego algorytn1u:
o
z czego wynika,
3
że o
można zapisać ·w forn1ie
na-
Dane ,vej ściowe: Funkcjaczarnejskrzyn kif: lF'; -+ IF2 i k = l{x E ~ :.f(x) =
l}I.
k\van towego
Algorytm wyszukiw ania Grovera
Wynik: E lemen t y E n1ent istnieje. 1.
Jeżeli k > ~ · 2",
IF';, dla którego j(y) = l
to z jednostajnyn1
bierz y E lF'; i zakończ pracę.
2. W przeciwnyrn przypadku oblicz r =
(roZ\viązanie ), jeżeli taki ele-
rozkładem pra,vdopodobieńst,va
l;;.J,
"'Y-
gdzie 00 E [0,?r/ 3] jest okre-
. 2 8o = 2". k s' Ione przez sin
3.
Posługując się transforrnacją
Hadamarda H„, przygotuj \vyjściową superpo-
zycję
~L lx} . x --7"z
. it:-
4. Zastosuj r-krotnie operator C„. 5. Aby uzyskać y E IF';, \Vykonaj obsenvację.
Jeżeli k ;;,: ~ · 2
11 ,
to \V pienvszy1n kroku uzyskuje111y prawidłowy \\')1nik z prawdo-
podobieńsl\ven1 co najmn iej ~. W przeciwnyn1 razie, na 1nocy ł\vierdzenia 6.2.l, algo1ytn1 zwraca
roz,viązanie z prawdopodobicńsl\ven1 nie 111niejszyn1 niż ~.
I115
6. Algorytm wyszukiwania Grovera
W obu przypadkach od zera.
prawdopodobieńshvo
znalezienia
rozwiązania
jest
różne
l
Jeśli k = 1 i n jest duże, to 400j ~ ~fi. Możemy więc znaleźć rozwiąza
fi)
nie z niezerowym prawdopodobieńst\vem, wykonując o( spra\vdzeń, co jest znacząco lepszym rezultatem niż wynik, który można osiągnąć za pon1ocą jakiegokolwiek klasycznego algorytmu losowego. Bardzo ciekawy jest też przypadek k = ~ · 2". Wtedy sin 2 Bo
= ~, skąd Bo = ~ .
Zgodnie z (6.28) pra\vdopodobieńst\vO znalezienia rozwiązania po jednej iteracji G„ równe jest sin 2(3B0 ) = sin2 ~ = 1. Oznacza to, że dla k = ~ · 211 po jednokrotnym wykonaniu operacji G„ 1nan1y całkowitą pewność znalezienia rozwiązania.
Dla dowolnego klasycznego algorytmu wyszu kiwania jest to w oczywisty sposób niemożli\ve. Niestety zwykle nie znamy wartości k z góry. W nast9pnyn1 podrozdziale zaprezentujemy uproszczoną wersję metody zaproponowanej przez M. Boyera, G. Brassarda, P. Hs.'lyera i A. Tappa [17), która umożliwia wyszukiwanie pożą danego elementu nawet wtedy, gdy k nie jest znane.
6.3. I Zastosowania metody wyszukiwania Grovera
6.3.1. I Wyszukiwanie w przypadku nieznanej liczby rozwiązań Rozpocznien1y od przytoczenia elementarnego wyniku, którego dO\VÓd pozostawiarny jako ćwiczenie. Lemat 6.3 .1. Dla dowolnego rzeclY\vistego a oraz dodatniego całkowitego 111 111 -
I
. I) (( 2 I + L COS
) = sin(2met) . .
Cl'.
1-=0
Następny ważny
2 sin et
lemat pochodzi z pracy (17].
Lemat 6.3.2. Niech /: JF~-> iF2
będzie funkcją czarnej skrzynki z k ( ~
· 211
rOZ\viązaniami, niech Bo E [O, n / 3] będzie zdefiniowane równaniem sin2 Bo =
116
~. i niech
111
będzie dowolną dodatnią liczbą całkowitą. Wybieramy
6.3. Zastosowania metody wyszukiwania Grovera
r E [O, 111 - I] z jednostajnym ścio\vej superpozycji
rozkładem prawdopodobieństwa . Jeżeli
do wyj-
-dz. L: lx) xef':•
r-krotnie zastosujemy G,„ to ró\vne jest p _ ~ _ sin(411100 ) "- 2 4111 sin(200 )
prawdopodobieństwo
otrzymania
roZ\vi ązania
·
Dowód. W poprzednim podrozdziale przekonaliśmy się, że po r iteracjach G11 prawdopodobieństwo uzyskania rozwiązania wynosi sin2 ((2r + I)80). Stąd, jeżeli r E [O, 1n - l) jest wybrane z rozkładen1 jednostajnyn1, to wobec lematu 6.3. l szukane pra\vdopodobieństwo jest równe 1n-
I
111 -
1 2 P111 = 111 .!... "'""sin ((2r+ l)Bo) = L 2111 L
I
"'"'ci 1-=-0
r=O
I = 2-
sin(411100 ) 4111 sin(200 )
U\vaga 6.3.1. Jeżeli ni sin(411180 ) skąd
~ 1=
sin~~
. (20 )
cos((2r+ 1)200))
o
·
~ sm . (~Oo)' to
. (;O) sin(2Bo) sm 0 I
~
~ 111 sin(280 ), .
.
.
4 . Wtedy z powyzszego lematu \vyn1ka, ze P„
~
I
-4 . Ozna-
4m.Siil o cza to, że jeżeli 1n jest wystarczająco duże, to r-krotne zastosowanie G„, gdzie r E [0, 111 - l) jest wybrane z rozkładem jednostajnym, pozwoli na otrzymanie
rozwiązania z pra\vdopodobieństwen1 nie mniejszym od ~.
Załóżmy teraz, że nieznana liczba k spełnia O < k ~ I
sin(200 )
=
l
2 sin 00 cos 00
=
2•
& !f.. &,/F
2J.!((2• - k) "'
Vk
"'
więc wybierając 111 ~ ,/F, mamy pewność, że 11i ~ przedsta\vionego
niżej
i ·2". Wtedy
. Sill
'
(~Bo) . Prowadzi to do
algorytmu.
117
6. Algorytm wyszukiwania Grovera
Kwantowy algorytm wyszukiwania
Dane \Vej ścio,ve: Funkcja czarnej skrzyn ki j: IF'~
-+
lF2.
Wynik: Elen1ent y E IF'~, dla którego j(y) = I ( rozwiąza n ie), jeżeli taki clcn1ent istn ieje. l. Wybierz z jednostajny1n rozkładen1 p ra\vdopodobieńst\va elen1ent x E Jeżel i j(x) = I, zwróć x i zakończ pracę.
lF~ .
l J2'i
= J + I, \vybicrz liczbę ca ł kowitą r E [0, 1n - Il z rozkładem jednostajnym. 3. Posługując się transfonnacją I lada1narda H„, przygot uj wyjściową superpo-
" 2. W przeciwnym przypadku
111
zyCję
)F I: ix) xer,
i zastosuj r-krotnie operator G„. 4. Aby uzyskać y E F'~, wykonaj obserwację. Korzystaj ąc
z pop rzednich lematów, możen1y \V prosty sposób ocenić prawdopodob ier'l stwo podania przez ten algorytn1 poprawnego \vyniku. Niech k
będzie liczbą roz\viązaf1 f Jeżeli k >
! ·2
11 ,
to z
prawdopodobieńsl\vem nie .
mniejszy111 od
! ,algorytn1 poda roz\viązanie po pier~1szyn1 kroku. Z drugiej
strony dla k ::;;
3 11 · 2 mamy 4
111
fi-
;;::
Vk
;;::
I si n(200 )'
a zaten1, zgodnie z uwagą 6.3.l, prawdopodobień sl\vo, że uzyskamy rOz\viąza.
.
.
. . I
nie, \vynos1 co naJrn111CJ
4.
Uwaga 6.3.2. Pon ieważ n1amy pewność, że powyższy algorytm poda rozwi;izanic z prawdopodobieństwem nie mn iejszym niż ~ , więc 111ożen1y powiedzieć, iż rozwiązan ie może być
znalezione śred nio w czterech próbach. W próbie liczba \vykonY\vanych sprawdzeńjwynosi co n aj\vyżej j2'i.
każdej
Wykorzystuj ąc rnetody zaproponowane w pracy [17], 1n ożna uzyskać lin iową pop ra\vę efektywn ości powyższego algorytmu. W obu przypadkach spełnione jest poniższe twierdzenie.
118
6.3. Zastosowania metody wyszukiwania Grovera
Twierdzenie 6.3.1. Posługując się ob,voden1 kwantO\\'Yrn \rykonujący111
O(~) sprawdzeń fun kcji czarnej skJzynkif, n1ożna z niezero,rym prawdopodobieóst\vern rozstrzygnąć, czy istnieje element X E Il"~, taki że /(x) = l. W następnym rozdziale przedstawin1y po111yslO\V~! technikę opracowaną przez R. Bealsa, H. Buhrmana, R. Cleve'a, M. Mosca i R. de Wolfa (6] i pokażemy za jej pon1ocą, że powyższy algorytn1 jest optymalny z dokladnością do stałe go czynni ka. Do,volny algorytm k\van towy, który z niezerowym prawdopodobieństwem rozstrzyga, czy istnieje rozwiązan ie f, wykonuje D( ~) sprawdzeń funkcji f Wynik ten zaklada korzystanie z funkcji czarnej skrzynki, a zatem nie daje dolnego ograniczenia na złożoność dla funkcji obliczalnych (patrz uwaga 6.1.3). Z drugiej strony, zastępując funkcję czarnej skrzynki fun kcją obl iczalną, otrzy1nuje1ny n astępujące twierdzenie: obwode111 kwanto\ryrn, n1ożn a z niezero,rym prawdopodobieństwen1 uzyskać roz,viązan i e dowolnego probłe1nu \V klasie NP w czasie o( ~p(11)), gdzie p jest \Viełomianem zależnym od konkretnego proble1nu.
Twierdzenie 6.3.2.
Posługuj<)C się
po,ryższy1n twierdzeniu wielomian p(n) reprezentuje czas, \V jakim można uzyskać rozwiązanie problemu przy obliczeniach niedetern1inistycznych (patrz podrozdział 3.'1.2).
W
Algorytn1 \ryszuk iwania Grovera w sprytny sposób zastoSO\Vano do rozwiąza nia \Vielu problen1ów, in.in.'" k\vantO\rym algo1.yt1nic zliczania [19] oraz w algorytmie szukaj ącym minimu m (35). W pracy (17] autorzy przedstawili zarys uogólnionego algo1ytn1u wyszuki\van ia dla zbioró\v innych n iż IF'2. Uwaga 6.3.3. Ostatnio L. Grover i T. Rudolph Z\vrócili uwag<( (42), że \vielc algorytmów opierających si<( na „standardO'h'Cj metodzie wyszu ki,vania kwantowego" jest trywialnych w takim sensie, że nie S
7 Dolne ograniczenia na złożoność dla obwodów kwantowych Najbardziej interesujące pytania Z\viązane z teorią złożoności kwanto\vej, na przykład „Czy klasa NP zawiera się \V klasie BQP czy też nie?", są niestety niez\vykle trudne i \\'Ykraczają daleko poza naszą obecną \Viedzę. W tym rozdziale on1ówimy kilka problen16\v teorii zlożoności obliczeń k\vanto\vyeh, które powinny zi lustrować te trudne zagadnienia.
7.1. j Zarys metody Ogólny sposób znajdo\vania dolnych ograniczeń na złożoność obwodó'v k\vanto,vych, oparty na spra,vdzaniu \vartości funkcji czarnej skr.tynki, został przedstawiony przez R. 13ealsa, H. Buhrn1ana, R. Clcve'a, M. Mosca i R. de Wolfa w pracy (6). Zanim rozpoeznien1y szczegółową analizę, najpierw krótko i nieformal nie przedstav1imy główn ą niyśl tej nietody. Dla uproszczenia oznaczc6 będziemy czasen1 i n terpretować ele111ent x E lF'~ jako l iczbę binarną z przedzia ł u (0, 2" - I]. Załóżmy, że
ob\vód k\vanto'''Y spra\vdza, czy dowolna funkcja czarnej skrzynki
J:IF; -+ !F'2 posiada pe,vną \Vłasność czy nie (np. \V podrozdziale 6.1.2 interesowało nas, czy istnieje element y E li''~, taki że f(y) = I). Obwód ten można \vyobrażać sobie jako urządzen ie, które otrzymując na wejści u \Vektor (/(0),f( I), ... , f(2" - I)) (\vartości f), zwraca „tak" lub „nie"' \V zależności od tego, czy funkcja/ posiada dan<1 własność czy jej nie posiada. Innymi sło\vy obwód ten jest urządzeniem obliczający1n funkcję o \Vartościach ze zbioru {O. I} na \vektor.te \Vejścio\vyn1 (J(O). f (I).... ,f(2" - ł )) (nieznanym), czyli urządzen iem obli czającym funkcję l ogiczną na 2" zmiennych \vejściowych f(O) •.f( I), ... ,
J (2" - I). Wprav1dzie wiele własności fu nkcji logicznych pozostaje wciąż nieznanych, jednak dysponujemy już obszerną wiedzą na ich te111at (patrz [64]). Okazuje się, że informacje o liczbie spra\vdzeń funkcji czarnej skrzynki, które należy 'vykonać w celu rozstrzygnięcia, czyf posiada pewną \Vlasność, można uzyskać za pomocą wielomianowych reprezentacji funkcji logicznych. Dla obwodó\v 120
7.2. Reprezentacje wielomianowe
k\vanto,vych obliczających daną \Vłasność ( funkcję logiczną) dokładnie (z pra,vdopodobieństwem 1), ograniczenie na złożoność będziemy 'vyrażać poprzez s topień reprezentacji \vielon1ia nowej, natomiast dla ob,vodÓ\V znajdujących tę \vłasność z dużyn1 pra,vdopodobieństwem - poprzez stopief1 przybliżenia 'viclo1nianowego. Przekonan1y się wkrótce, że liczba sprawcł:.:ef1 funkcji czarnej skrzynki ogranicza z góry stopie1i reprezentacji funkcji logicznej obliczanej za porn ocą konkretnego obwodu kwantO\vego. A zatem dolne ograniczenie na konieczną liczbę sprawdzeń można ustalić, znajdując stopień reprezentacji odpowiedniej funkcji logicznej: aby osiągnąć stopień reprezentacji, ob\vód l..'\vantowy musi \vykonać odpo,vicdnią ilość spra\vdzeń. Ponie\vaż reprezentacje i przybliżenia 'vielomianowe odgf)'\vają tu tak znaczącą rolę, poświęcimy irn d\va następne podrozdziały.
7 .2. I Reprezentacje wielomianowe 7.2.1. I Wiadomości wstępne W podrozdziale rym za,varte są podsta\VO\ve wiadomości na temat \Viełon1ia no,vych reprezentacji funkcji logicznych oraz wielomianów symetrycznych. Czytelnik obeznany z tą tematyką może opuścić podrozdział 7.2.l. Niech N= 2" . Jak \Vicrny z podrozdzi a łów 4.1. l i 9.2.2, funkcje
F:"'F;' -t C t\vorzą 2,v-,vymiarow
polega na potrakto,vaniu funkcji logicznych o N zrniennych jako elementów V - będą to funkcje określone na N zmiennych binarnych, o \vartoSciach \V d\vuelcmcnro,vym zbiorze {O, I}, który można zanurzyć \VC. Dla każdego podzbioru K= {k 1,k2 , •• . ,k1} C {O, l„ . . ,N- l} rozważarny fun kcję
(7.1) którą będziemy oznaczać także
przez XK = XL,XL, ... Xk„ Funkcja ta jest zdefinio\vana \V bardzo naturalny sposób: wartość funkcji XK na \Vektorze x = (xo. xr , ... ,X,v- r) jest iloczynem XL, ·XL, · ... · xk,, który jest interprcto\vany jako liczba O lub 1. Definicja ta wymaga pewnych \yYjaśn ień: x jest clcmenten1 IF'~ i każdy z jego sklad ni kó\v x; jest e len1entem ciała binarnego IF2, stąd iloczyn ·,\·*· · xk, · ... · xk,
t akże należy
do IF2 · Jednak zanurzając lF2 w C,
n1oż
na ten iloczyn interpreto\vać także jako clcrncntC. Naturalne jest nazywanie funkcji XK jednon1iana111i i oznaczenie X0 = I (iloczyn pusty, nie posiadający żadnych składnikó\v jest interpretowany jako 1). Jeżeli IKI = I, to stopień
7. Dolne ograniczenia na
złożoność
dla obwodów kwantowych
jednomianu XK = xk,xk, ... xk, zdefiniowany jest jako degXK =I. LiniO\Va kon1binacja jednon1ianó\v Xk,, Xk„ . .. , Xk, oznaczana jest przez (7.2) i nazywa się wielo rnianem. Stopnien1 degP \viclon1ianu (7.2) nazywan1y największy ze stopni jednomianów 'ńrystępujących \V (7.2), z wyjątkien1 wielomianu zerowego p = O, którego stopieil.symbolicznie oznaczamy przez - oo. Czytelnicy rnogą się dziwić, dlaczego dokładn ie 01nawia1ny tak proste pojęcie jak \Viełomian. Trudność polega na tym, że w ciele skończonyn1 ta sama funkcja może być określona przez wiele różnych wielomianÓ\V. Przykładowo oba elementy lF2 spełniają równanie ,>?- = x, z czego \vyn ika, że wieło111ian x2 - x + I zacho\vuje się jak \vielo1nian stały 1. Z tego wzgl ędu przy definicji iloczynu jednon1ianó'ń1 XK i XL , potraktujemy je jak fun kcje IF2 . Łatwo zauważyć, że pnnvadzi to do defin icj i XKXL = XKuL· Iloczyn d\vóch \vielomianó\v określony jest w następujący sposób: jeżeli
JF'; -+
oraz
są
wielon1ianami, to definiuje1ny P1P2
s
(
i=I
j=I
=I: I: C;djXk,XI; ·
Iloczyn ten różni się nieznacznie od zwykłego iloczynu wielon1ianó\v. na przykład K = {O, 1} i L = { I, 2}. Wtedy
Weźmy
Gdyby jednak XoX1 i X1X2 traktować jak „Z\vykłe \Vielorniany" nad lF2, to iloczyn byłby równy XoX~ X2. Funkcje te rzeczY'viście zacho\vują si<; jak zwykłe wielomiany, z tą różnicą, że wszystkie potęgi 'ń1 iększe od 1 są spro\vadzane do 1. 1 1
Dla czytelnika znaj ącego struktury algebraiczne: rozważane tu funkcje wielomianowe tworzą pierścień izomorficzny z F2[Xo, X" X,v_ i]/ /, gdzie I jest ideałem generowanym przez wszystkie wielomiany X~ - Xi. „
122
.•
7 .2. Reprezentacje wielomianowe
Lemat 7 .2.1. Jednomiany t\vorzą bazę przestrzeni V. Do\vód. Dla każdego y = (yo, y 1, • •• , y 2„_ 1) E ~ zdefiniuj1ny \vielomian Py = (l +Yo - Xo)( l + )'1
-
X1) ... (I + YN- 1 - X,v- 1).
Rozwijając powyższy
iloczyn, otrzy111uje111y Py \V postaci sun1y jednomianów i dla każdego x = (x0 ,x1, ... ,X,v-1) E IF'; mamy Py(x) = I
<==> I + y; - x; = I dla każdego i <==> x; =y; dla każdego i <==? X =
y.
Oznacza to, że Pv jest funkcją charakterystyczną jednoelen1entowego zbioru {y}. Ponieważ jednak każdą funkcję cha rakterystyczną ~' -+ C może1ny
przedstawić \V postaci sun1y jednon1ianów, to dowolną funkcję F'~' -+ C 111oże n1y przedsta\vić jako ko1nbinację liniową jednomianó\\ (patrz podrozd:tial 9.2.2). Stąd jednomiany generują p rzestrzeń V, a ponieważ istnieje 1
( ~) + ( ~) + ... + ( ~) = 2N różnych
jedno1nianów, są one
także
liniowo
niezależne.
o
Z powyżs:tego lematu wynika, że każda funkcja IF'; -+ IF2 nloże być jednoznacznie przedsta\viona jako linio\va kombinacja jednomianów (7.1) z zespolonymi współczynnikami . Ociylviście dotyczy to również wszystkich funkcji logicznych o N zmiennych. Istotnie, tego typu reprezentację dla funkcji logicznych nloglibyśn1y wyprowadzić także bezpośrednio: zn1ienne logiczne mogą być reprezentowane przez jednomiany Xo •... , X,v- 1, a j eśli Pr oraz P2 są wielomiano\vymi reprezentacjarni pe\vnych funkcji logicznych, to -.P 1 może być przedsta\vione jako 1 - P 1, P 1 / \ P2 jako P1P2, a P1 V P2 jako I - ( I - ? 1)(I - P2). Ponie\vaż dowolną funkcję logiczną można skonstruO\vać przy użyciu -., /\ i V (patrz podrozdział 3.2.1), otrzyrnaliśn1y następuj<1cy lcn1at: Lemat 7.2.2. Funkcje logiczne określone na N zmiennych posiadają jednoznaczną reprezentację w postaci \Vielon1ianu wielu zn1iennych o współczynn i kach rzecz)'\vistych P(Xo, X1, . .. , X,v_ 1), stopnia co naj,vyżej N. Musimy paniil(tać, że „wielo1nia11" \\' po,vyższym lemacie interpretowany jest w taki sposób, iż Xk =X dla każdego k ;;:: l. 123
7. Dolne ograniczenia na złożoność dla obwodów kwantowych
W dalszej części skoncentrujemy się głównie na symetrycznych funkcjach logicznych, tworzących podklasę symetrycznych funkcji F: ~ -> C. Fonnalną defin icję funkcji symetrycznych podajemy poniżej. Definicja 7.2.1. Niech x = (xo,x1, .. . ,XN- 1) E ~ będzie do,volny1n wektore1n, a Ti: {O, 1, ... , N - l} -+ {O, 1, ... , N - I} dowolną pern1utacj ą. Oznaczamy 7r(X) = (Xr.(O)> Xr.(I) , . . . , Xr.(N- 1)). Mówimy, że funkcja F: ~' -> C jest symetryczna, j eżeli dla dowolnego wektora x E 7r E S,v spełniona jest równość
IF';' i dla dowolnej permutacji
F(x) = F(Ti(x)). OeZ)'\viście
dowol na kombinacja liniowa funkcji symetrycznych także jest symetryczna, a zatem funkcje syn1et1yczne t\vorzą podprzestrzeii W c V. Znajdziemy teraz bazę podprzestrzeni W. Niech P będzie niezerowym wielomianem reprezentującym funkcję syn1et1yczną. Wtedy P można przedstawić ..,.„ postaci sumy wiełomianó\v jednorodnych 2 p = Qo + Q1 + Q2 + · · · + QN,
takich że deg Q; =i. Ponieważ za kladaliśmy, że P jest symetryczny, \vszystkie Q; także n1uszą być syn1et1yczne (w przeciwnyn1 przypadku perm u tując zn1ienne, nioglibyśn1y otrzy1n ać inny wielomian, reprezentujący tę samą funkcję co P). Stąd 1nożen1y napisać Q; =
L ck,
k,xk, Xki ... xkp
.kz•....
gdzie sumujemy po wszystkich podzbiorach {O, I, ... ,N - I} 111ocy i. Ponieważ wielo1niany Q; są niez1niennicze \vzgl9dem permutacji zmiennych i reprezentacja w postaci wielomianu jest jednoznaczna, \vięc niezależnie od 'vyboru {k1, kz, . .. , k;} niusi zachodzić ck,.k„ ....k, = c;. Oznacza to, że symetryczne wielomiany Vo = I ,
V1 = Xo +X1 + . .. +XN- 1, V2 =XoX1 + XoX2 + ... + X,v- 2XN- 1,
V,v = XoX1 .. . XN 1 generują W. Ponieważ są
2
124
one różnych stopni, są także liniowo
n iezależne.
Wielon1ian jednorodny jest liniową kombinacją jednomianów tego samego stopnia.
7 .2. Reprezentacje wielomianowe
Warto \vspo1nnieć o następującym, dość tl)'\vialnym fakcie: wartość sy111etrycznej funkcji F(x) za leży jedynie od wagi Hamn1inga wektora x, zdefinio"'' aneJ przez w(x) = l{i :x1= l}I. Gdy w(x) = k, 111ożemy na\vet \V Rozważmy wielomian
dość
prosty sposób
poznać \vartość
V1(x).
P(T) = (T - Xo)(T - X1) . . . (T - XN- 1) . Ponie\\1 aż
P jest niezmiennicze
względem
dowolnej permutacji Xo, X 1, . .. , XN- i, \vięc \vspółczynnik i P(1) są wielomianami symetryczny1ni względe1n Xo, X 1, ... , XN-1 · Istotnie, roZ\vijając P widzimy, że współczynnik przy y N- i równy jest dokładnie ( - 1i V;. Z drugiej strony, podsta\viając za k zmiennych \Vartość 1 oraz O\V niiejsce pozostałych , otrzymujemy k
P(T)
=y N- k(T -
l )k
=L
(1) y N- i( - 1)',
i=O
z czego wynika, że V;(x) = (
7) dla i ~ k oraz V;(x) = Odla i > k. Stąd 1noże-
1ny \vysnuć ważny \vniosek, z którego niedł ugo skorzystamy. Lemat 7.2.3. Jeżeli P jest \vielon1ianen1 symetrycznym stopnia do 1V zmiennych i zespolonych (odp. rzeczywistych) współczynnikach, to istnieje wielo111ian Pw jednej zmiennej z zespolonymi (odp. rzcczywisty111i) \vspó łczynnika111i, taki że Pw(w(x)) = P(x) dla każdego X
E
JF';.
Dowód. Ponic\vaż P jest symetryczny, możen1y go przedstawić jako P = coVo + c 1 V1 + ... + ct1Vt1.
Teza twierdzenia wynika z faktu, stopnia i.
że V;(x) = ( w~x) ) jest wiclo111ianem w(x) o
-2 .2. IOgra niczenia na sto p ień reprezentacji Istnieje wiele niiar złożoności dla funkcji logicznych. Może to być na przykład liczba bramek logicznych • ,A i V, koniecznych do zrealizo\vania funkcji (podrozdział 3.2.1) łub złożoność drzewa decyzyjnego. Do naszych celów idea lną miarą złożoności będzie stopień wielomianu wielu zmiennych repreze n tujący daną funkcję. Notacja \V poniższej definicji pochodzi z pracy [6]. 125
7. Dolne ograniczenia na złożoność dla obwodów kwantowych
F';-+
Definicja 7.2.2. Niech 8: {O, 1} będzie funkcją logiczną określoną na N zrniennych. Stopień reprezentacji 'vielon1ianowej deg(B) funkcji B jest 10 stopień jednoznacznie określonego \vielomianu 'vielu zmiennych reprezentującego 8. Dla przyszłych potrzeb ztłefiniujerny także przybliżenia wielo111ianowe funkcji logicznej. Ponieważ interesujące 'vyniki dotyczące aproksyn1acji udało sicr uzyskać dla wiclomianó\v o \VSpólczynnikach rzeczywistych, iny także ograniczyn1y siy do wielo111ia116w tego typu.
„
Definicja 7.2.3 . Wielomian \Vielu zrniennych Po \VSpólczynnikach rzeczywistych przybliża funkcję logic-.cną B:?; ..... {O. I}, jeżeli I
IB(x) - P(x)I ~ 3 dla każdego x E
lF';.
Istnieje oczywiście dużo wielomianów przyhliżających tę samą funkcjcy logiczną 8, jednak nas będzie interesował wielon1ian najniższego stopnia. Stątł za pracą 161 przyjmuje1ny nastcypującą definicjr;: Definicja 7 .2.4. Stopnic1n przybliżenia \vielornianowego funkcji logicznej 8 nazywan1y
-
tłeg (B) = 1nin{ deg(P): P jest
\vielon1iancn1 przybl iżającym 8}.
Znalezienie ograniczenia na stopień reprezentacji wielomiano,vej nie jest zadaniem tr)"vialnym, jednak dla symetrycznych funkcji logicznych potrafimy znaleźć ograniczenie o ogólnym charakterze (wicyccj na ten temat można znaleźć \V pracy [6] i cyto,vanej tam literaturze). Poniższy le111at pochodzi z pracy [6]. Lemat 7.2.4. Niech B: !F'~'-+ {O, l} będzie różną od stałej, symctryc-..:ną funkcją logiczną .
Wtedy deg(B) ;;:: iV/ 2 + I.
Dowód. Niech P będ7.ie symetrycznym \viclomianen1 wielu zmiennych stopnia deg(R), reprezcntującyrn 8. Z lematu 7.2.3 \Vierny, że istnieje wielornian jednej zmiennej P„., taki że P„.(w(x)) = P(x) dla każdego x E IF';. Jako że Preprezentuje funkcję logiczną B, może on przyjmo\vać jedynie \vartości O łub I. Ponieważ jednak istnieje N+ I możlhvych 'vag I larnminga (od Odo N), a P nic jest \Vicłomianen1 stałym, 10 P,,,(w(x)) = Odla co najmniej N/ 2 + I liczb całko witych lub P„(\v(x)) = I dla co najmniej N /2 + I liczb całkowitych \v(x). W pienvszyrn przypadku stwierdzamy, że deg(P„.) ;;:: N/ 2 + l, a w drugi rn, że dąg(P„.) =
deg(P.., - I) ;;:: N/ 2 + l. A zaten1 mamy
deg(B) = deg(P) = deg(P„.) ;;:: N / 2 + I.
126
Cl
7 .2. Reprezentacje w ielomianowe
Dla niektórych konkretnych funkcji 1nożemy ocz)'\viścic uzyskać lepsze oszaC{l\Vanie n iż to \vynika z poprzedniego lematu. Dla przykladu roZ\vażn1y funkcję AND: JF'; _, {O, I} zdefin iowaną przez AND(x) = I wtedy i tyl ko wtedy, gdy \V(x) =N. W ocz)'\visty sposób A1VD jest funkcją symetryczną i odpowiedni wielomian jednej zn1iennej AND.,. reprezentuj ący AND posiada N zer {O, I, ... , N - I}, skąd deg(AND) = N. Stosując podobną argun1entację, stwierdzamy, że deg(OR) = 1V, gdzie OR jest funkcj ą przyjmująca wartość O wtedy i tylko wtedy, gdy w(x) = O. Okazuje si ę, że znacznie trudniej jest znaleźć ograniczenie na stopień wiclon1ianu przybl i żającego. R. Paturi u dowodn ił twierdzenie [67), które charąkte ryzuje stop i eń \Viclomianu przybliżającego symetryczną funkcję logiczną. Aby sformułować twierdzenie Paturiego, inusimy \vpro\vadzić ki lka oznaczeń. Niech B: ~ _, {O, I} będzie sy1nctryczną funkcj
Jl :B„.(k):JB„.(k+
I'(B) = min{l2k - N+
I)
oraz O ~ k ~N - I} . Stąd
.I'(B) jest miarą tego, jak blisko wagi N / 2 następuje z1niana \vartości B,„: jeśli Bw(k) 'I= B,,,(k + I) dla pewnego k równego \ V przybliżeniu N / 2, to I'(B) jest niale. Przypomnijn1y, !ż Bw(k) :J B.,.(k + I) oznacza, że j eżeli deg(x) = k, to B(x) zmienia wartość, j eśli ko lej n ą współrzędną x zmienin1y na l. Przykład
7.2.1. RoZ\vażmy funkcję OR, która z111ienia wa rtość tylko wtedy, gdy waga argumentu zmienia się z O na 1. Stąd I'(OR) =N - I. Podobnie zmiana \vartości fu nkcj i AND zachodzi tylko wtedy, gdy waga x wzrasta z 1V - I do N, sk<1d I'(AND) = 1\1 - I.
'i'; -+
Przykład 7.2.2. Niech PARITY : {O, I} będzie funkcją zdefin io\van ą przez PARITY(x) = l , gdy w(x) jest podzielne przez 2 i PARITY(x) = Ow prze-
ciwnyn1 przypadku. A zate1n funkcja PARITY zmienia wartość zawsze, gdy waga Hamminga x rośnie. W naszyrn przypadku N= 2" jest parzyste, więc I'(PARITY) = I. Jednakże twierdzenie jest słuszne także dla N nieparzystego i \vtedy I'(PARITY) = 0. Funkcja MAJORITY: "IF~
-+
{O, I} jest zdefinio\vana w taki sposób, że przyj-
muje wart ość Odla w(x) < N / 2 o raz \vartość 1 dla w(x) ;;,, N / 2. Dla N parzystego funkcja zmienia \vartość tylko \vtcdy, gdy \vaga x zmienia się z N/ 2 - I na N/ 2, natomiast d la N nieparzystego przy wzroście ·w(x) z (N - l )/ 2 do (N+ 1)/ 2. A zatem I'(MAJORITY) równe jest 1 dla N parzystego o raz Odla N nieparzystego.
127
7. Dolne ograniczenia na
złożoność
dla obwodów kwantowych
Twierdzenie 7 .2 .1 (R. Paturi, [67)). Niech B: ~ stałej, symetryczną funkcją logiczną.
~(8) =
ee jN(N -
-+
{O, 1} bydzic różną od
Wtedy
I'(B))).
chwilą st,vierdziliśmy, że deg(OR) = deg(AND) =N, co oznacza, że dokładna reprezentacja funkcji OR i AND wymaga \vielomianu stopnia N. Z drugiej strony, korzystając z przcdsta,vionych przykladó\v i t\vierdzenia Paturicgo, widzin1y, że funkcje te mogą być pr1.ybliżo11c \vielon1ianan1i n iższego rzydu:
Przed
c~(OR) = 8( /N) oraz ~(AND)= e( /N). Jednak
d7g(PARITY) = (-J(N)
i dcg(MAJORI TY) =&(N), a zatem w przypadku fu nkcji PA RITY i MAJORI TY nawet wielomian aproksyn1ujący rna stopień !2(N).
7.3. j Dolne ograniczenie dla obwodów kwantowych 7.3.1. I Ogólne dolne ograniczenie Teraz jesteśmy już przygoto\vani do przedstawienia idei sformułowanej \V pracy (6), która h1ezy obwody kwantowe ob l iczające funkcje logiczne z \vielomianami repreze n t ującymi i aproksym uj ącyrni te funkcje. Będziemy rozważać fu nkcje czarnej skrzyn ki/: IF~ -+ IF2 . Podobnie jak po-
przednio, spra,vdzenie \vartosci funkcji czarnej skrzynki niodelowane przy użyciu operatora spra,vdzania Q1 o działaniu
będzie
Q_rlx}jb} = lx}lb $ /(x)} . Może się zdarzyć
tak, że ze \\'Zglydów obliczeniowych będziemy operować na \Viykszcj liczbie kubitó\v, jednak bez utraty ogólności możemy założyć, że sprawdzenie funkcji czarnej skrzynki 'vykonywanc jest na ustalonych kubitach. Możemy zatem przyjąć, że ogólny stan ob,vodu k\vanto\vego obliczają cego własność funkcji f jest superpozycją stanó\v postaci (7.3) gdzie pierwszy rejestr posiada n kubitów, używanych jako bity źródł owe operacji sprawdzania funkcji czarnej skrzynki, b E JF2 jest kubitem źródlo,vy111, a \ V jest łańcuchem pewnej liczby kubitó\v - po,viedzn1y 111 - potrzebnych do innych ccló'v obliczenio,vych. Istnieje 2"+"'+ 1 różnych stanó'v (7.3). Możemy rozszerzyć definicję Q1 na \vszystkie stany (7.3), przyjmując, że działa on na stany I"') jak operator identycznościo,vy. Rozszerzony operator będziemy jednak wciąż oznaczali przez Qf
Q.rJx)lb)j,v) = lx)lb E!:lf(x)}l,v).
128
7.3. Dolne ograniczenie dla obwodów kwantowych
Rozpoczynamy od znalezienia wcktoró\v \vlasnych Q1. clzić, że jeśli s przyjmuje \Vartość Olub l, to
Można łatwo
spra\v-
Q1(Jx) JO) J\v) + ( - I)'Jx) JI) 1\v)) = (7.4)
= ( - 1)f<->·•Clx)IO)lw) + ( - 1>'lx}P )Iw}),
co oznacza, ze (7.5)
jest \Vektorem wlasnyrn Q1 należ<1cym do \varto~ci własnej ( - I)/C.)·s. Z drugiej strony \vektor (7.5) można \vybrać na 211 + 111 + 1 różnych sposobów i w prosty sposób n1ożna się przekonać, że wektory te l\\1orzą zbiór ortogonalny. A zatem (7 .5) określa wszystkie wektory \Vlasne Qr- Oczywiste jest, że w przypadku, gdy ob\vód k\vantO\vy \vykorzystuje operator spn1\vdzania Q1, stan tego obwodu zal eży od wartości funkcj i .f Równanie (7.4) opisuje tę zależność \V bardziej jawny sposób: Qrwprowadza czynnik ( - 1)1<»·• o reprezentacji wielomiano\vej I - 2s/(x). Poniższy lcn1at, zaczęrpnięty z (6], \vyraża tę zależ ność bardziej precyzyjnie. Lemat 7 .3 .1 . Niech Q będzie obwodem kwantowym \vykonuj11cym T sprawdzeń funkcji czarnej skrzynki/: IF~-+ IF 2 i niech N= 2". Każdy łańcuch binar-
ny \V IF'~ będzicn1y utożsamiać z reprezento\vaną przez ten łaricuch liczbą. Wtedy końco'vy stan ob\vodu jest superpozycją stanów (7.3), których \VSpół czynnikami S
można traktować
jak
ciąg
prze-
unitarnych
\V zespolonej przestrzeni \vcktoro\vej rozpiętej na \vszystkich stanach (7.3). Operatory U; są ustalone, jednak Q1 zal eży oczywiście od konkretnej funkcji czarnej skrzynki,(, więc współczyn ni ki także są funkcja111i Xo, X1, ... , XN- 1· Na początku poprzedniego podro:c:działu do\vi edzicliśmy si ę, że każda tego typu funkcja posiada jednoznaczną reprezentację wielomianową. DO\VÓd przeprowadzimy przez indukcję \vzględem stopnia reprezentacji. Przed pienvszym sprawdzeniem stan obwodu jest ocz)'\viśeie superpozycj
7. Dolne ograniczenia na złożoność dla obwodów kwantowych
gdzie
każde
P(x.b.w) jest wielomiane1n zmiennych X0 , X1, ... , XN- i stopnia co najwyżej k. Wtedy dla X,= j(x) = 1 (k + 1)-sze sprawdzenie przepro\vadzi lx)IO)l,v) w lx)IJ)l,v) i vice versa, natomiast \V przypadku gdy X,= ft.x) =O, transforn1acja ta nie zostanie \\•ykonana (x interpretujen1y tu ponownie jako binarną reprezentację liczby całko,vi tej z przedziału lO, N - l]). Oznacza to, . . ze su1na częsc 1owa
.
(7. 7) \V wyrażeniu
(7.6) zostanie przeksztalcona \V
(X,Pcx.l.w) + (1 - X,)P(x.O.wJ)ix)IO)l\v) + (X,P(x.0.w) + (I - Xx)P(x.l.w})ix)l l )l\v).
(7.8)
Wykorzystując
teraz zalożenie degPcx.b.wJ ~ k, możemy wysnuć z (7.8) bezpośred n i \vniosck, że po k + I spra\vdzcniach Q; współczynniki są wielo1niana1ni stopnia co najwyżej k + I . Operator Uk+I l\vorzy l iniową kombinację tych \viclomiano,vych współczynnikó\v, co nie nioże zwiększyć stopnia reprezentacji. a Uwaga 7.3.1. Przeksztalcenie (7.7) >-> (7.8) wywołane przez Q1 jest oczywiście ty1n san1ym przeksztalcenien1 co (7.4 ), tylko \vyrażonyn1 \\' innej bazie. Wykorzystując bazę (7.5), Farhi et al. [37] wyprowadzili, n iezależnie od [6], dolne ograniczenie na liczbę sprawdzeń kwantO\\'YCh \vymaganych do przyb liżen ia funkcj i PARJTY. U\vaga 7.3.2. Zauważrny, że w dowodzie lematu 7.3.1 nie korzystaliśmy z faktu, iż każde U; jest unitarne; potrzebna nam byla jedynie linio,vość. RzeclY'viście, czytelnik może latwo sprawdzić, że wykorzystanie operatorów nieliniowych spowodowałoby znacznie szybszy wzrost stopnia reprezentacji \VSpólczynników. Następuj ące
l\vierdzenie [61 \vyraża zentacja111i wielo1niano,vymi.
Z\viązek
Ob\vodów k\vanto\vych z rcpre-
Twierdzenie 7.3.1. Niech N= 2",f: iF~-> iF2 będzie dowolną funkcją czarnej skrzynki, a Q obwode1n kwantowym ob liczającyn1 funkcję logiczną B, określoną na N zn1iennych Xo = j(O), X1 = f( I ), ... , XN- 1 = f(N - I ). 1. Jeżeli Q oblicza B z prawdopodobieńsnvem 1, 'vykonując T sprawdzeń f, to T ;;::: deg(B)/ 2. 2. Jeżeli Q popra\vnic oblicza B z 'vykonując Tsprawdzeńf,
prawdopoclobieńsnvem
co najmniej
2
3,
to T;;:,: deg(B)/ 2.
Dowód. Bez utraty ogól ności może1ny założyć, że Q daje \Vartość 8, ustawiając pierwszy kubi t z pra\vcj strony na B(X0 , X1, ... , X,v_1). Kubit ten jest następn ie obserwowany. Wobec lematu 7.3.1 końcowy stan Q jest superpozycją
130
7.3. Dolne ograniczenie dla obwodów kwantowych
gdzie
każdy współczynnik
posiadaj <1cą dobieństwo
Pcx.b.w) jest
funkcją
zmiennych Xo, X1, ... , XN- i, reprezentację \vielo mia no\vą stopnia co najwyżej T. Prawdopozaobser.vo\vania 1 na pie1wszy1n kubicic z prawej strony da ne
jest przez (7.9) gdzie sumowanie odbY\va się po \VSzystkich stanach, \V których pier.vszy bit z prawej strony \V równy jest I. Rozpatruj<1c osobno części rzeczylviste i urojone, widzi cny, że P(X0 , X1, ... , X,v _i) ma reprezentację \V postaci wielon1ianu zn1iennych Xo, X1, ... , X,v_1 o \VSpólczynnikach rzeczywistych, stopnia co najwyżej 2T. Jeżeli Q oblicza B dokladnie, to sunia (7.9) równa jest 1 \vtcdy i tylko \Vtedy, gdy B równe jest 1, skąd P(Xo, X 1.... , X,v- 1) = B. A zatem 2T ;;,: deg(P) = deg(B), z czego wynika punkt (I). Jeśli Q oblicza B z pra\vdopodobieństwem co naj-
mniej~, to \V przypadku gdy wartość B jest równa I (odp. O), suma (7.9) różni się od J (odp. O) co naj,vyżej o~. Oznacza to, że (7.9) jest wielomianern aprok-
-
symuj'!cym R, a zate1n 2T ;;,: deg(P) ;;,: deg(B), z czego \vynika punkt (2).
o
I
-3.2. Przykłady Zastosowanie głównego l:\vierdzenia z poprzedniego podrozdziału (f\vierdzenia 7.3. l) do funkcji OR prowadzi do następującego \vyniku: Twierdzenie 7 .3.2. Jeżeli Q jest algorytmem kwanto,vym 'vykonującym T sprawdzeń fu nkcji czarnej skrzyn ki f i stwicrd:.:ającym popra,vnie z prawdopodobie11sf\\'em co najn1niej ; , c:.:y istnieje ele111ent x E IF~, taki
że j(x) = I, to
T ;;,: c j"i}, gdzie c jest stalą. Do,vód. Aby St\vicrdzić, czy f(x) = I dla pe,vnego x E ~. należy obliczyć funkcję OR naf(O),f( I) .... ,/(2" - I). Zgodnie z t\vierdzeniem 7.2.1, stopień aproksymacji dla funkcji OR określonej na N= 2" zmiennych jest [J( /N). Z kolei z twierdzenia 7.3.1 \vyni ka, że obliczenie OR na N = 2" zn1iennych (z ograniczonym prawdopodobieńsl:\ven1 blędu) \vy111aga fl ( jN) = n ( j2}) spra\vdzeń f D Po,vyższe
f\vierdzenie pokazuje, że n1etoda polegaj<1ca na 'vykorzystaniu algorytmu \vyszukiwania Grovcra do rozstrzygnięcia, czy istnieje roZ\viązanie f,
131
7. Dolne ogra niczenia na
złożoność
dla obwodów kwantowych
dokładnością do stałego wyprO\vadzić także dla innych funkcji, dla
jest optymalna z
czynnika. Podobne \Vyniki można których znany jest stopień repre-
zentacji. Twierdzenie 7 .3.3. W celu
rozstrzygnięcia,
czy funkcja czarnej skrzynki 1·: IF'~ --. lF2 posiada parzystą liczbę rozw iązań, dla do\volnego ob\vodu bvanto,vego wyn1agane jest wykonanie St(2") sprawdzeń/ Dowód. Należy podstawić B = PAR/TY, zastoSO\vać twierdzenie Paturiego (twierdzenie 7.2.1) i przeprowadzić wnioskowanie, jak w dowodzie powyżej. O u,vaga 7.3.3. W pracy [6] autorzy uzyskali analogiczne \vyniki dla tZ\v. k\vantowych obwodó\v Las Vegas. Ob\vody tego typu za,vsze dają poprawną odpo\viedź, ale czasem mogą o kazać się „niedouczone", tzn. udzielają odpowiedzi „nie wiem" z prawdopodobieństwem co najwyżej ~. Ponadto v.1 [6) pokazano, że jeżeli ob\vód k\vantowy z niezerowym pra\vdopodobieństwem błędu oblicza funkcję logiczną B określoną na zmiennych Xo, X1, ••• , XN- J, \vykonując T sprawdzeń/,
to istnieje klasyczny algorytn1 deterministyczny, który oblicza B dokładnie, wykonując 0(T 6 ) spra\vdze ń f Co więcej, jeżeli funkcja B jest symet1yczna, to 0(T 6 ) 1nożna na\vet zastąpić przez O(T 2 ). Un·aga 7.3.4. Można pokazać, że jedynie znikoma część fu nkcji logicznych N zmiennych posiada stopień reprezentacji mniejszy niż N; to samo dotyczy stopnia aproksyn1acji [2). Stąd dla prawie wszystkich B, w celu obliczen ia B na j"(O) ,f(I), ... ,j'(N - 1) konieczne jest 'vykonanie fl(N) sprawdzeńf, nawet jeżeli n1an1y do czynienia z obliczeniami z ograniczonym prawdopodobień stwe1n bł<;d u. U\vaga 7.3.5. Niewielkim nakladen1 sil możemy zastosować \vyniki przedstawione \V tyn1 rozdziale do n1aszyn Turinga z \vyrocznią: dla prawie \vszystkich wyroczni X, NpX nie za\viera się w BQpX. Nic wynika z tego jednak, że NP nie jest zawarte w BQP, aczkolwiek daje pewne po,vody, aby w to wierzyć. Z drugiej strony fun kcje czarnej skrzynki są przykładem funkcji niemal zupeł nie pozbav1ionych struktury - w pracy [29] (patrz także (21]) W. van Dam podał przykład na złamanie dolnego ograniczenia dla funkcji czarnej skrzynki przez zastąp ienie dowolnej.ffunkcją o bogatszej strukturze. Uwaga 7.3.6. Dolne ograniczenie wyznaczone przez stopień \Vielomianu nie jest najlepszym n1ożl iwym oszacowaniem: A. An1bainis udo\vodnil, że istnieje funkcja logiczna o stopniu reprezentacji M, która \vymaga S2(M1.32 1.„) bvanto\vych sprawdzeń . Szczegóły dotyczące konstrukcji wspomnianej funkcji oraz sposób znajdowania dolnych ograniczeń oparty na metodzie kwantowego ad\versarza można znaleźć w pracy [3].
8 Dodatek A.
Fizyka kwantowa
Lt.1 Krótka
historia teorii kwantów
Mechanika kwantowa narodziła się na początku XX wieku, gdy zaczęto sobie zdawać spra\vę, że fizyka klasyczna nie pozwala na 'vyjaśn ienie wynikó\v doświadczeń z atomami i cząsteczkami oraz zjawisk związa nych z promieniowaniem elektro1nagnetycznym. Jako przykład nlOŻna podać wprowadzenie pojęcia kwantó\v energii przez Maxa Plancka w 1900 roku 1, w związku z problemem promieniowania ciała doskonale czarnego. Ciało doskonale czarne jest hipotetycznym obiekte1n emitującym i pochłania jącym promieniowanie elektromagnetyczne o wszystkich długościach fal. Chociaż nie możemy zbudować idealnego ciała doskonale czarnego, na potrzeby eksperymentÓ\V dobrym przybliżeniem jest zan1knięta wnęka z malyn1 ol\vorkiem. Rozważania teoretyczne pokazały, że natężenie promienio,vania dla róż nych częstotliwości 2 powinno być takie sa1no dla wszystkich ciał doskonale czarnych. W XIX wieku istniały dwie konkurencyjne teorie opisujące kształt widma ciała doskonale czarnego - prawo Wiena oraz pra\VO Rayleigha-Jeansa - jednak żadna z nich nie dawała zgodności z wynikami eksperymentÓ\V w cały1n zakresie częstotli\vości . Pełną zgodność otrzyn1ał dopiero Planck (88]. Najbardziej niezwyklyn1 elen1enten1 jego pracy było założenie, że promieniowanie elektron1agnetyczne jest emito,vane nie w sposób ciągły, ale w nlałych porcjach (kwantach), których energia E jest proporcjonalna do częstotl i\vości v: E = hv.
(8.1)
Wartość stałej h ustalono na podsta\vic analizy danych eksperymentalnych. Ta słynna stała nazywa się stałą Plancka i jej wartość równa jest \ V przybliżen iu
h = 6,62608 · I0- 34 Js.
(8.2)
Hipoteza Plancka opierała się na dość niepokojącym pomyśle: od czasó\v Galileusza i Newtona w środowisku naukowym tnvał spór dotyczący tego, czy światło powinno być trakto\vane jak strumień cząstek czy też raczej jak fala. 1
2
M. Planck przedstawił swoją słynną hipotezę 14 grudnia 1900 roku podc:.:as wykładu na posiedzeniu Nien1ieckiego Towarzystwa Fizycznego. Omówienie początków fizyki kwantowej czytelnik znajdzie \V pracy [88). Zamiast o czi;stotliwości v, równie dobrze moglibyśn1y mówić o długości fa li .Ą; wielkości te związane są zależnością I/>. = c, gdzie c jest prędkością światła w próżni.
133
8. Dodatek A. Fizyka kwantowa
W XIX wieku \V)'da,vało s ię, że problem został roz,vi<1zany. Po pierwsze, na pocz11tku tego \Vieku Young w S\voim słynnym eksperymencie z dwien1a szczelinami pokazal, że światło ma naturę fa lową. Po drugie, pod koniec XIX stulecia st\vierdzono, głównie za sprawą badań przeprowadzonych przez Maxwella oraz Hertza, że światło jest \V rzeczywistości rodzajem promieniowania elektromagnetycznego, które lepiej da się opisać jako fale. Pośrednio Planck odnowił dyskusj ę nad naturą światła : \VZÓr opisuj
4
134
podane przez Einsteina przytaczarny jedynie jako uwagą h istoryczną. Zgodnie z nowoczesną fizyką kwantową, zjawisko fotoelekt1ycznc można także wyjaśnić, zakla
8.2. Matematyczna struktu ra teorii kwantowej
W 1924 roku Louis de Broglie, zainspiro\vany po,vyższymi 'vynikami, posta\vi ł ogólną hipotezę, że cząstki można traktO\vać także jak fale5, których długość >. jest Z\viązana z pędem cząstki p zależnością
>. = h
p'
(8.3)
gdzie h jest stalą Plancka (8.2). Inni słynni fizycy, dzięki którym teoria k'vanto,va przyjęła dzisiejszą postać, to m.in.: W. Heisenberg, M. Born, P. Jordan, W. Pauli oraz P. A. M. Dirac.
I
S.2. Matematyczna struktura teorii kwantowej W tym podrozdziale \vpro\vadzin1y formalizm mechaniki kwanto\vej, opierając się na pojęciu \vektorÓ\V stanu. Później zapoznamy się z ujęciem bardziej ogólnym, bazującym na pojęciu operatorów samosprzężonych, i zobaczymy, że formalizm oparty na \VCktorach stanu jest szczególnym przypadkiem ujęcia ogólnego. Zaletą formałizn1u \Vektoró\v stanu jest to, że jest on matematycznie prostszy od uj ęcia bardziej ogólnego. Ponieważ przed1niotem naszych rozważań są obliczenia kwantowe, więc b9dzien1y przede 'vszystkim zaintereso\vani zastosowaniem uklacłów k\vantowych do reprezentacji zbioru skończonego. 6 Dlatego też przyjmiemy istotne upraszczające założenie, że \vszystkie rozpatl'Y'vanc w tym rozdziale uklady k\v
(8.4)
W po,vyższym stanie rnieszanym p 1+ ... + p„ = ł i układ znajduje się \V stanie x; z pra\vdopodobieńst,vem p;. K\vanto\vy odpo,viednik tego układu nazY'vamy 11-poziomon'Ym układem k\vanto,vym. Aby opisać taki układ, 'vyhierarny bazę {lx1), . . . , lx„) } w 11-\vymiaro,vej przestrzeni I-lilberta H„. Wtedy ogólny stan układu k\vantowego o 11 pozion1ach reprczcnt:o,vany jest przez wektor (8.5) s „Nic n1a dwóch oddzielnych świató,v, jednego ze Ś\Viatlen1 i fala1ni, a drugiego z materią i cząstkami . Jest tylko jeden wszechŚ\viat , którego pewne własności można opisać w teorii falowej, a inne \V teorii korpuskularnej. " (Cytat z wyldadu ' vygloszonego przez Lou isa d e Droglie'a podczas ceren1onii \vręczania nagród Nobla w 1929 roku). 6 W teorii języków fonnalnych skoń czony zb iór reprezentuj ący informacji( r1<1lywamy także a lfabetem.
135
8. Dodatek A. Fizyka kwantowa
gdzie Cl'; jest liczbą zespoloną, nazywaną an1płitudą pra,vdopodobień snva x;, 2 i spełn iony jest warunek latl 2 + . .. + IC\'11 1 = I. Baza {lx1), . . . , lx11 ) } odpowiada pewnej obsenvabli mogącej przyjmować n wartości, jednak dla uproszczenia nie będzien1y na razie przypiSj'\vać obserwablom konkretnych wartości liczbowych, a jedynie powiemy, że uk!ad ma (względem \\'Ybranej bazy) \Vła sności x 1 , ••• , x„. Prawdopodobieństwo, że układ posiada \vlasność x;, ró\vne jest lad 2 . Reprezentacja (8.5) posiada pewne własności , których nie posiada reprezentacja (8.4). Przykładowo, w trakcie ewolucji czasowej stan (8.4) zrnienia się \V taki sposób, że nowy stan jest ponownie kombinacją wszystkich \vektorów bazowych z nieujemnymi \vspólczynnikami, sumujacymi się do 1. Zn1iana stanu (8.5) n1oże n1ieć naton1iast całkowicie odrnienny charakter, gdyż w tyn1 przypadku stany bazowe mogą się znosić. Przykład
8.2.1. Rozważmy kwantowy układ dwupoziomO\\'Y o stanach O i 1. Przyjmijmy, że ewolucja czaso\va układu (w ustalonym przedziale czasu t) jest dana przez l
I
IO),__,, J2 10) + 7111), l
l
11) ,__,, J210) - J21l ) . od tego, czy stanen1 wyjściowyn1 jest IO) czy też Il), po czasie t O i 1 mogą być zaobserwowane z jednakowym pra\vdopodobień-
Niezależnie \vłasności
stwen1 równyn1 ga
pO\vyŻszej
-
~ . Z drugiej strony, jeżeli układ startuje ze stanu IO) i podle-
transforn1acji d\va razy, to stanern kor'lcowyrn
1(1- IO) + - l) Il ) + - 1(1 -
J2 J2
J2
,12
będzie
stan
I )
IO) - - Il ) J2 .,fi
czyli prawdopodobieństwo zaobserwowania własności O będzie znÓ\v równe 1. Zjawisko znoszenia się i wzn1acniania amplitud prawdopodobieństwa nazy\vamy odpowiednio interferencją destrukt)'\vną i konstrukt)'\vną. W trakcie ewolucji układu (8.4) interferencja destruktj'\vna nie n1oże wystąpić, gdyż \VSzystkie współczynniki są tam nieujemnyn1i liczbami rzeczywistyrni. Probabilistycznym odpowiedn ikiern po\vyższej ewolucji kwantowej jest
[OJ ,__,, [I] ,__,,
~[OJ + ; [ I], l
2
l
[0] + [I], 2
jednak w tym przypadku poddanie stanu [OJ dwukrotnej transformacji daje w wyniku stan ; [OJ+ ; [I].
-
136
-
8.2. Matematyczna strukt ura teo rii kwantowej
Stan (8.5) rnoże być \ V naturalny sposób interpretowany jako wektor jednostkO\V)' z przestrzeni Hilberta. Dlatego też następne podrozdzialy poświęcin1y na on1ó\vienie przestrzeni Hilberta (patrz takie podrozdział 9.3).
I
&.2.1. Przestrzenie Hil berta Skończenie
'vyrniaro\va
przestrzeń
Hilberta H jest
zupełną (zupełność
zdefi-
niujemy późni ej) zespoloną przestrzenią wektoro,vą z iloczynen1 wewnętrznym H x H --> C, (x, y) ,__. (xly}. Wszystkie n-wymiarowe przestrzenie Hilberta są izornorficzne, może1ny wic;c każdą taką przestrzeń oznaczać przez H11 • Dla każdego x, y, z E H oraz c 1, c2 E C iloczyn \Vewnętrzny musi spełniać następujące aksjo maty: l. (xly} = (ylx}*. 2. (xlx} ;;::, Ooraz (xlx} =O \Vtw x =O. 3. (xlcr y + c2z} = c1 (xjy} + c2(xlz}. Jeżeli E = { e 1, • •• , e11 } jest ortonormaln ą bazą przestrzeni H, to każdy wektor x E H można przedsta,vić \V postaci x = x 1e 1 + . . . + x11 e11 • Maj ąc ustaloną bazę E, rn ożna •..vcktor x wyrazić za pon1 ocą \vs półrzędnych względe m tej bazy x = (x 1 , • • . , x„ ). Stosując tę reprezentację, mozna łatwo pokazać, że baza ortonormalna indu kuje iloczyn \Vę\vnętrzny (xly} = X~YI + .. . + x;,y„.
(8.6)
Z drugiej strony każdy iloczyn wewnętrzny jest induko\vany przez jakąś bazę o rtonorm alną. Dlatego też, oznaczając dowolny iloczyn \vewnętrzny przez (-I-), za pomocą procedury o rtogonałizacji Gran1a- Schmidta możemy znaleźć bazę {b 1, .. . , b11 } orto n ormalną wzgl ęde m (-1-}. Wtedy mamy (xly} = (x1 b 1 + .. . +x„ b11 l.Y1b 1 + . . . + Y11bn} =xjy1 + . . . +x;.y„ . Iloczyn wewnętrzny pozwala w naturalny sposób zdefin iować normę wektora: llxll = ~. Mó\viąc niezbyt precyzyjnie, zupełność przestrzeni \vektoro,vej H polega na tyn1, że za,viera ona wystarczająco d użo wektoró\v, tzn. przynajn1niej jeden dla każdego przejścia granicznego. Definicja 8.2.1. Przestrzeli wektoro,va f i jest zupełna, jeżeli dla każdego cii1- ·' gu wektorÓ\Vx;, takiego że litn 1lx111
-
x11 1l =O,
111.11 - 0 0
istnieje wektor x E H, taki że ł in1 llx111
-
xll =O.
11- 0 0
137
8. Dodatek A. Fizyka kwantowa
przestrzeni Hilberta jest fakt, że każda podprzestrzeń WE H, która także jest przestrzenią Hiłherta7, posiada dopełnie nie ortogonalne. Dowody poniższych lemató\v pozosta\viamy czytelnikowi jako ćwiczenie. Ważną geometryczną \Vłasnością
Lemat 8.2.1. Niech W
będzie podprzestrzenią
przestrzeni H . Wtedy zbiór
\VCktorÓ\V W =
{y EH: (ylx) =O dla każdego x E H}
jest także podprzestrzenią przestrzeni H. Zbiór ten nazY'vany jest niem ortogonalnym przestrzeni W.
dopełnie
W jest podprzestrzenią skończenie 'vymiaro,vej przestrzeni Hilberta H, to H = W © W.L.
Lemat 8 .2.2.
Jeżeli
8.2.2. I Operatory No,voczesne ujęcie mechaniki k\vanto\vej oparte jest \V dużej mierle na odw·zoro,vaniach linio,vych. W kolejnych podrozdziałach omó,vimy te \vłasności od\vzoro,vań linio,vych, które rnają naj,vi9ksze znaczenie dla mechaniki k\vanto\Vej. Nadal będzierny konccntrO\vać się na układach k\vanto,vych o skończonej liczbie poziomó\v, dlatego zakładamy, że rozpatrywa ne w nast9pnych podrozdzia łach przestrzenie wektoro,ve są skończenie,vymiaro,ve, chyba że zostanie wyraźnie zaznaczone, iż jest inaczej. Na pocz'!tku musimy \Vpro\vadzić kilka no,vych terminów. Od,vzorowanie liniowe H-> H naZ)'\vamy operatorem, a zbiór operatoró\v określonych na przestrzeni H oznaczamy przez L(H). Dla operatora T definiujemy normę operatora jako
li Tll = sup li Txll. 11•11=1
Niezero'vy wektor x E /{ nazy,vamy \vektorcrn \vłasnym operatora T, odpowiadającym 'vartości 'vłas nej .A. E C, j eżeli 'l'x = >.x. Jeśli
doda,vanie i mnożenie przez liczbę zdefiniuje się \V naturalny sposób (prledsta,viony poniżej), zbiór operatoró\v także t\vorzy przestrzeń \vektoro\vą. Niech S, TE L(H) oraz a E C. Wtedy S + Ti aS są operatorami \V L(H) zdefinio,vanymi jako (S + D x = Sx + Tx oraz (aS)x = a(Sx ) dla 7
138
każdego
x E H.
Dla skończenie wymiarowych przestrzeni Hilberta wszy.;tkie podprzestrzenie są przcstrzenian1i Hilberta.
także
8.2. Matematyczna strukt ura teorii kwantowej
Definicja 8.2.2. Dla ró\vnanie
każdego
(x!Ty) = (T"xly} dla
operatora T: H --. H, operator T * spełniający
każdego
x, y E H
naZ)'\vamy operatorem sprzężonyn1 do T. U\vaga 8.2.l. Przy ustalonej bazie {e 1, .. . , e11 } \V przestrzeni H11 każdy operator T jest rcpreze11to,vany przez 1nacierz zespolo n ą n. x 11. Macierz operatora sprzężonego jest macierzą powstałą z transpozycji sprzężenia zespolonego n1acierzy operatora T. Niech {x 1, . .. , x11 } i {y 1, . . . , y11 } będą ortonormalnyrni baza ni i przestrzeni H11 •
Można pokazać, że li
li
(8.7) i= I
i= I
(patrz zadanie -i .). Definicja 8.2.3 . Niech {x1, • •• , x11 } będzie bazą o rtonormalną. Wielkość li
T r(T) =
L (x;!Tx;} i=I
naZ)'\Va
się śl ad em
operatora T.
Z (8.7) \vyni ka, że pojęci e śladu jest dobrze określone. Ponad to oczywiste jest, że ślad jest liniowy. Za u\vażn1y także, że \Vrep rezentacji macierzowej ślad jest sumą ele1nentó\v diagonalnych macierzy. Definicja 8.2.4. Operator T jest jest unitarny, jeżel i T• = r - 1. W dalszyn1
ciągu
przydatne
sa n1osprzężony, jeżeli
będą następuj ące
T' = T. Operator T
len1aty:
Lemat 8.2.3. Operator samosprzężony ma rzeczywiste \vartości \vłasne. Do\vód. Jeżel i Ax = .Ax, to
.A*(x!x} = (.Axlx) = (Ax!x) = (x!Ax} =.A(xlx}. Ponie\vaż
z definicji wektor własny x ~ O, to .A• = .A.
własne różnym wa rtościon1 włas;iyn1 są
Lemat 8 .2.4. Wektoty
operatora sarn osprzężo ncgo ortogo nalne.
o odpO\vi adającc
139
8. Dodatek A. Fizyka kwantowa
Do\vód. Załóżmy, że >- ~ .>-', Ax = .Ax oraz Ax' = .A'x'. Ponieważ na mocy poprzedniego lematu .A i >-' są rzeczylviste oraz
.A' (x'lx) = (Ax'lx) = (x'IAx) = .A (x'lx), \Vięc
o
(x'lx) =O.
Definicja 8.2.5. Mó\vimy, że samosprzężony operator T jest dodatni, jeżel i (x!Tx) ~ Odla każdego x E H. U\vaga 8.2.2. W zbiorze operatorÓ\V nlożemy \vpro\vadzić częściowe uporząd ko\vanie poprzez następującą definicję: T ~ S wtedy i tylko wtedy, gdy operato r T - Sjest dodatni. Jeżeli W jest podprzestrzenią przestrzeni H oraz H = W EB W.L, to każdy wek-
tor x E H można jednoznacznie przedsta\vić w postaci xw + xwi , gdzie Xw E W, a X w~ E w .L. Łatwo spra\vdzi ć, że Od\VZOrO\vanie Pw, zdefiniowane jako Pw(Xw + xw~ ) = xw, jest san1osprzężonym od\vzoro\vaniern linio\vym. Nosi ono naz\vę operatora rzuto\vego (lub rzutu ortogonalnego) na podprzestrzeń W. Oczylviście P~v = Pw. Z drugiej strony niożna pokazać, że każdy samosprzężony operator P, taki że P2 = P, jest rzutcn1 na pe\vną podprzestrzeń przestrzeni H (zadanie 2.). Zbiór operatorów rzuto\vych w L(H) oznaczamy przez P(H). Z\vróćn1y uwagę, że operacja rzuto\vania nie Z\viększa normy wektora:
Przedostatnia ró\vność, nazY'vana twierdzeniem Pitagorasa, wynika z faktu, że xw i Xwr są ortogonalne. Operatory rzulO\VC odgry\vają \vażną rolę w teorii operatoró\V sarnosprzężonych i dlatego \V następnyn1 podrozdziale zajmiemy się ni111i dokładniej. Ponie,vaż \V teorii k\vanto,vej bardzo istotne jest także pojęcie operatorów unitarnych, 01nówimy teraz ich 'vybrane własności. Lemat 8.2.5. Operator unitarny U: H -+ H 7.achowuje iloczyn \vewnętrzny, tzn. {Ux!Uy) = (xly). Do,vód. Własność ta 'vynika bezpośrednio z definicji operatora sprzężonego oraz z definicji unitarności:
o
{Ux!Ux) = {U ' Uxly) = ( U 1 Uxly) = (xly) . Stwierdzenie 8.2.1. Operator; unitarne zacho\vują nonnę, tzn. Stwierdzenie Od\vrotne do poprzedniego len1atu
140
także jest
li Vxll = llxll.
prawdzi,ve.
8.2. Matematyczna struktura teorii kwantowej
Lemat 8.2.6. Operatory U: H ___. H zachowujące iloczyn wewnętrzny są unitarne. Dowód. Załóżmy, że ( UxlUy) = (xly) dla każdych x, y E H. Wtedy w szczegól ności li Uxll = llxll dla każdego x E H, z czego wynika, że U jest injektywne. Po nieważ zakładaliśmy, że wymiar przestrzeni H jest skończony, w i ęc U jest także surjektywne. A zate1n istnieje u- 1 i
co oznacza, że U* =
u- 1, czyli U jest operatorem unitarny1n.
Lemat 8.2. 7. Operatory U: H -> H zacho\vujące Dowód. Prawdzhvość tożsamości polaryzacyjnej
norn1ę są
D
unitarne.
3
(xly) =
kL
/ (y + /xiy + ikx)
(8.8)
k~O
rachunkie1n (patrz zadanie 4.). Z (8.8) \V)'nika wprost, że operatory zachowujące nonnę zachO\vują także iloczyn we'ń1 nętrz ny. Tezę otrzy1nujemy, stosując len1at 8.2.6. D 1nożna \vykazać bezpośredn im
Len1at 8.2.6 można jeszcze trochę ,vzmocnić:
Lemat 8.2.8. Niech {x 1, .. . ,xk} oraz {Y1, . . . ,yk} będą zbiorami \Vektorów z przestrzeni H. Jeżeli (x;lxj) = (ydyj) dla każdego i,j, to istnieje od\vzoro\vanie unitarne U: H -+ H, takie że y; = Ux;. Dowód. Niech vV będzi e podprzestrzen ią przestrzeni H generO\Vanej przez wektory x 1 , ... , Xk · Istnieje wtedy podzbiór X1, .. . , Xk będący bazą W. Bez utraty ogó lności możemy założyć, że podzbiorem tyn1 jest x 1, ••• , x,. dla pewnego I! ~ k. Definiujemy teraz Od\vzorowanie U: W ___. H jako Ux; = y; dla każdego i E {I, . . . , k'} i rozszerzan1y je do odwzorowania liniowego w jedyny możliwy sposób. Pokaże1ny najpienv, że {Y 1, . .. , Yk'} jest bazą !Jn(U). OcZ)'\viśeie wektory te generuj
(8.9)
Obliczaj<)C dla każdego i E { l, . . . , k'} iloczyn \Ve\vnętrzny (8.9) z y;, otrzyn1uiemy (8.10) Z drugiej strony, ko rzystając z założenia, możemy (8.10) zapisać \V postaci
a, (xdx1) + „ . + ak·(xdxić ) =O.
(8.11)
141
8. Dodatek A. Fizyka kwantowa Powyższe
róv,1 nanie oznacza, że
(x;!a1x1 + . . . +a,.,x,.,) =O dla każdego i E { I , . .. , k'} , z czego wynika, że \Vektor (8.12)
jest ortogonalny do \VSzystkich wektorów z przestrzeni W. Ponie\vaż \Vektor (8.12) należy do W, więc musi być to wektor zero\vy. Stąd a 1 = . . . = ak' = O, a zaten1 \Vektory {y 1, . . . , y,., } rzecży\viście t\vorzą bazę Im(U). Od\vzorowanie U: W --> H jest \V oczywisty sposób injekt)'\\'ne. Równanie
„
U(a 1x 1 + .. . + a,.,x1.' ) = O oznacza, ze a1Y1 + . . . + ak' Yk' = O. Stąd zaś
\vynika, że a1 = . . . = ak' = O. Rozszerzy1ny teraz bije kcję U: I.V --> In1( U) na ca łą przestrzeń H w sposób przedstawiony pon iżej. Niech {z 1, .. . , Zr} będzie orto normalną bazą przestrzeni w.L, a {z;, ... , z~} ortono rn1alną bazą Im(W).L. Jeżeli rozszerzenie U zdefiniujemy jako U(z;) =z; dla każdego i E { 1, . . . , r}, 10 otrzymane \V ten sposób odwzoro\vanie U:/-/--> I-I jest oczywiście bijekty\vne. Aby do\vieść, że U jest unitarne, na mocy lematu 8.2.7 pozostaje pokazać, że U zachowuje iloczyn \vewn ętrzny. W tyn1 celu wystarczy (dzię ki l ini owości) d k'. Ponie\vaż x 1, . . . , xk' l\vorzą bazę W, każdy '-''ektor Xi E W n10Żna jednoznacznie przedst
(i}
X; = C1 X1 +. „ +ck' xk', z czego \vynika \vprost, że (i)
(i)
(8.1 3)
(xjlx;) = c 1 (xj lx1) + . . . +ck' (xj lXk•). Korzystając
z założeni a,
możemy przepisać
(YjlY;) = c~i) (Yj lY1 } + · · · + c~> (YjlYk'}
142
(8.13) jako
8.2. Matematyczna struktura teorii kwantowej
lub jako
(YilY;) = (Yilc\' Y1 + · · · + c~'Yit ). 1
(8.14)
że
To oznucza,
(YilY1- (c\ilYI + · · · + ct>Yit )) =O dla każdego Yi- Tak jak poprzednio n1ożemy \vięc \vyciągnąć \vniosek, że \vektor y1 - (c\11 y 1 + ... + c~>YL') jest ortogonalny do podprzestrzeni genero\vanej przez \Vektoiy y 1, •••• Yk· Ponie\vaż jednak \vektor ten należy do tej przestrzeni, musi \vięe być \vektorem zerowyn1. A zaten1 y;
= c(i)1 Y1 + . . . +cit(i)Yit = c(i)1 Ux1 + . .. + ck'(i) Uxit = Ux;.
D
lJ Reprezentacja spektra lna operatorów
samosprzężonych
Dla dowolnych \Vektoró\v x. y E H„ definiujemy linio\ve od\vzoro\vanie lx)(yl : H„ -+ H„ jako
lx)(ylz = (ylz)x. Łatwo zau\vażyć, że jeżeli
podprzestrze(1
llxll = I, to lx)(xl jest rzutem na jedno\vyn1iarow11
genero\vaną
przez x.
U\vaga 8.2.3. Jeżeli A. B E L(H„), to
IAx)(Bylz = (Bylz)Ax =A(ylB. z)x =Alx)(ylB' z. Równość zachodzi dla każdego
z E H„, man1y zatem IAx)(Byl = Alx)(ylB*.
Uwaga 8.2.4. Operator sprzężony do lx)(yl ma prostą postać: (lx)(yi)• = IY)(xj. U\vaga 8.2.5. Niech {x 1•••• , x„} będzie ortonormalną bazą przestrzeni H„. Wtedy reprezentacją macierzo\vą Od\vzorowania x1)(xil jest po prostu ma· cierz, której elementami są same zera z \yYjątkiem n1iejsca przecięcia i-tego rzędu oraz j-tej kolun1ny, \V którym znajduje się 1. Wynika z tego \vprost, że od\vzoro\vania lx1)(xA generują całą przestrze11 L(H„). Rzeczywiście, jeżeli T E L(H„), to reprezen ta~ją macierzową operatora Tw bazie {x 1 , ••• , x„} jest łl
T=
Ił
LL
(8.15)
(x, ITx.)lx,)(x,I .
r=I .r-1
Łal\vo zau\vażyć, że
od\vzoro\vania lx1)(xil s11 liniO\VO przestrzeń L(H„) rna \vyn1iar 11 2 .
niezależne,
a zatem
143
8. Dodatek A. Fizyka kwantowa
Aby wprowadzić pojęcie rozkładu spektralnego san1osprzężon cgo operatora T, musimy najpierw przedsta\vić pewien dobrze znany fakt: H„ będzie operatorem san1osprzężo nyn1. Istnieje ortonormalna baza przestrzeni H„ złożona z \vektoró\v \vlasnych operatora T. Do,vód. Do\VÓd jest indukcyjny wzgl ędem n = clin1 H 11 • Jedno\vymiaro\va przestrzeń H 1 jest genero\vana przez pewien \Vektor jednostko\vy e 1. Oczywiście Te 1 = ,\e1 dla,.\ E 1, niech,.\ będzie \vartością \vłasną operatora T, a W podprzestrzeni
..
(xlTy) = (Txly)
-->
=,.\ •(xly) =O,
co oznacza, że równ ież Ty E W.i . Z tego \\1Zględu może1ny zająć sic; od\vzorowaniem T ograniczonym do podprzestrzeni lł' i W.i, tz n. T: vV --> W oraz T: W.i ---+ Ht.l i stosuj ąc za łożenie indukcyj ne, znaleźć ortonorrnalne bazy tych podprzestrzeni składające się z \Vektoró\v \Vlasnych operatora T. Ponieważ H11 = vV © W.i, to suma n1nogościo\va haz podprzestrzeni Ił' i w.1. jest szukaną bazą przestrzeni H11 • O teraz \vprO\vadzić pojc;cie reprezentacji spektralnej, bc;dące bardzo przydat nym narzędzier11 do badania od\vzoro\vań san1osp rzężonych . Niech x 1, ... , x11 będą ortononnalnyn1i wektorami \vlasnym i samosprzężonego operatora T : H11 --+ H,„ a ,.\ 1, ... , ,.\11 od powiad ającyn1i in1 \Vartościa n1i \Vłasnymi. Na nlocy t\vierdzenia 8.2. l liczby ,.\; są rzeCz)l\viste, jednak nie 1nuszą być róż ne. Zbiór wartości własnych naz)'\vany jest \Vidmetn. Łat\vo można sprav;idzić (zadanie 3.), że Możen1y
(8.16) (8.16) nazywany jest reprezentacją spektralną operatora T. Jeżeli T posiada wielokrotne \Vartości \Vlasne, to mówimy, że operator Tjest zdegenero,vany; w przeeiwnyn1 przypadku 1nówimy, że T jest niezdegenero,vany. Jak łat\vo spnl\vdzić, reprezentacja spektralna (8.'16) operatora niezdegenero\\1anego jest jednoznaczna. Wartu zauważyć, iż nie t\vierdzin1y, że \vektory X; są jednoznaczne: jedynie operatory rzulowe lx;) (x;I są jednoznaczne. Jeżeli operator T jest zdegenerO\vany, to 111ożemy pogrupo\vać wielokrotne \vartości \vłasne \vystępuj ące w (8.16) i otrzyn1ać reprezentację Rozkład
(8. 17) 144
8.2. Matematyczna struktura teorii kwantowej
gdzie P1, ... , P,t
są
operatorami rzuto\vymi na podprzestrzenie \vlasne odpo\viadające \vartościom \Vłasny1n .>.;, ... , .>.:,•. Łal\vo się przekonać, że reprezentacja spektralna (8.17) jest jednoznaczna.s Przypomnijmy, że wszystkie wektory własne na l eżące cło różnych 'vartości \vłasnych są ortogonalne, a co za tym idzie, 'ń1szys tkic operatory rzuto\ve \V reprezentacji (8.17) są rzuta1ni na \VZajc1nnic ortogonalne podprzestrzenie. Dlatego dla do\volnych i, j, takich że i-/= j, zachodzi P;Pj = O. Wynika z tego, że jeżeli p jest \viełomianem, to
pCD =p(>..;)P1 +. + p(>..:,.)P,t .
(8.18)
„
Równanie (8.18) można uogólnić: jeżeli f: JR • C jest dowolną i (8.17) jest spektra l ną reprczcntacji1 operatora T, to definiujemy
J(n =ft>..~ )P, +
„
.
+ft..>.:,,)P„,.
funkcją
(8.19)
8.2.2. Operator identycznościon'.Y I E L(H„) jest zdefinio\vany przez \Varunck lx = x dla każdego x E H„. Operator I jest \V tl)l\Vialny sposób samosprzężony, a jedyną jego \vartością \Vłasną jest J. Ponadto przestrzenią \vłas ną I jest ocz)"viście cała przestrze11 H„. Dlatego też, aby znaleźć reprezentację spektra ln ą I , \V)'Starczy u stalić dowolną bazę ortono rn1alną {x 1, ••• , x„ }. Wtedy mamy Przykł ad
l = lx1)(x1 I + ... + jx„)(x„j,
co nietrudno Pr.tykł ad
(8.20)
pokazać.
8.2.3. Łal\vo
spra\vdzić, że
macierz
definiuje w przestrzeni H i od\vzoro\vanie samosprzężone. Macierz M~ jest niezdegenero\vana, a jej 'vartościami własnyn1i są I i - 1. Jako odpo,viadają ce tym \Vartościom ortonormalnc 'vcktory \Vłasne n1oże1ny \vybrać na przykład x 1 = ~(I, l)T oraz x_ 1 = ~(I, - I )T_W prosty sposób można pokazać, że reprezentacje macierzo,ve obu operatoró'v rzuto,vych jx.,.1)(x±1I n1ają postać odpowiednio I
I
2 2 I
„
I
oraz
2 2 8 Niek16n~y
aulorzy rcprczcnlacją spektra lną (8. I 7). a nic rcprczcnlację (8.16).
nazywają jednoznaczną reprezentację
145
8. Dodatek A. Fizyka kwantowa
Reprezentacja spektralna M~ ina zate1n
I) = I . I O (O Dzięki
„
\yY
I
I
2 2 I 2
I
I 2 I
- I .
- -2I I 2
2
2
tej reprezentacji,
postać
możen1y obliczyć
na
przykład
picnviastek kwadrato-
zM ,; I
I
1
2 2
Podsta\viając teraz
y1l = I oraz
1
- -2I
I
2 -2
2 2 I
I
2
Ff =i, otrzymujemy macierz z przykladu
2.2.1. U,vzględniając \Vszystkie możłi,vc picnviastki, dostajen1y cztery różne n1aeierze X, spełniające \Varunek X2 = M~ .
8.2.4. I Reprezentacja spektralna operatorów unitarnych Zajmiemy się teraz funkcją e;r, zdefiniowa ną na operatorze samosprzężo11yn1 posiadaj<1cyn1 reprezentację spektra I n ą T=
>.J!x1)(xil + . .. + >.„!x„)(x„I.
Z definicji e;r = eiA, lx1){x1I+ ... + eiA·lx„)(x„I. (c;r) = c- a, lx1){x1I+ . . . + e i,\,lx„)(x„I = (en)- 1, co oznacza, że operator c;r jest unitarny. Pokażemy teraz, że każde odwzoro\vanie unitarne inożna przedstawić \V postaci c;r, gdzie T jest operatorem san1osprzc;żonyrn. W tym celu udo,vodniiny pornocnicze twierdzenie, które sa1no \V sobie także jest interesuj<1ce. Samosprzężone operatory A i B komutują \vtedy i tylko \Vtedy, mają \vspólną bazę złożoną z orto n orrnałnych 'vcktoró\v \vlasnych.
Lemat 8.2.9.
gdy
Do~vód. Jeżeli {a 1, ••• , a„} jest zbiorem ortonormałnych \vektoró'v 'vlasnyeh
obu opcratoró'v A i B, to operatory te A= >-1 la1){a1I + ... + >-11lan){a11I
oraz
B = µJ!a1){ar I+ ... + µ11 la11)(a„I. 146
możemy przedsta,vić \Vpostaci
8.2. Matematyczna struktura teorii kwantowej Stąd
AB= -A11tda1 }(ad + ... + .A„µ„ la„)(a„I =BA. = BA. Niech .A 1 , ••• , -A1r bt;:dą różnymi \vartościami \vła snymi operatora A oraz niech {a~k) , ... , a!!~ } będą ortonorn1alnyoli \vektorami Załóżmy zatem, że AB
\vłasnyn1i odpo,viadającym i \Vartości własnej Ak. Dla dowolnego a~k) mamy
ABa\kl I
=BAa=B.Ą•.a =.Ą •.sa~kl I
"1
l'
11;
tzn. Ba~kl jest także wektoren1 włas nym operatora A nałcżącyn1 do wartości \vłasnej Ak. Dlatego podprzestrzeń \vłasna Z\viązana z Ak jest zamknii;:ta ze ,vzgłędu na 8. Podprzestrzeń tę oznaczymy przez ~Vt. Operator B: Wk -+ Wk. będąc ograniczeniem operatora san1osprzężonego, także jest samosprzężony. Dlatego B posiada 111k 'vektorów \vłasnych {b~4 > , ... , t\vorzących ortonormałną bazę podprzestrzeni Wk. Znajdując taką bazę dla każdej podprzestrzeni Wk, otrzymujemy ortonorn1ałny układ \vektorów \Vlasnych o następu
h!!:},
jących \vłasnościach:
• Każdy wektor b~kl jest \vektorcm \vlasnym operatorów A i B (\v przypadku operatora A, b~k> jest wektorem własnyn1 odpowiadającym wartości własnej .Ak)· • Jeżeli i 'f j, to wektory b~kl i b)kl są ortogonalne, gdyż n a leżą do bazy ortonormalnej rozpinaj<1cej Wk. • Jeżeli k 'f /(,to \vcktory b~k) i b]ll> są ortogonalne, gdyż są \vektorami 'vłasnymi operatora A odpo,viadającymi różnym wartościom \vłasnym >..k oraz AJt. Tak 'vięc otrzymany układ 'vektoró'v jest ortononnalną bazą przestrzeni H„ i jednocześnie zbiorem \vektoró\v \Vłasnych obu operatoró'v A i B. O Niech U będzie operatorem unitarnym. Zau\vaż111y najpief\v, że \vartości bez\VZgl ędne 'vartości \vłasnych operatora U ró,vne są 1. Aby się o tym przekonać, załóżmy, że x jest \vektorern własnym odpowiadającym \vartości \vła snej >.., tzn. Ux = .Ax. Wtedy
(xlx) =(xlU*Ux) =(UxlUx} =(>..x!>..x) =IA.l2 (xlx), z czego wynika, że I-Al = !. Rozłożyn1y
teraz operator U na
„część
rzcczywist<1 i
urojoną" :
U= A+ iB,
„
gdzie A= ~(U+ U*), a B = ii(U - u·). Zau,vażmy, że operatory A i 8 S<) samosprzężone i komutują ze sobą. Zgodnie z ostatnim lcn1atem mają one następujące reprezentacje spektralne:
A= .A, lx1 }(x1 I + ... + -A„ lx„)(x„I oraz B=
/tilx1}(xil + . .. + µ„ lx„)(x11I·
147
8. Dodatek A. Fizyka kwantowa
operatora U mają rnoduły równe 1, tak więc wartości własne operatoróv,i A i B, tzn. liczby A; oraz /1';, nie n1ogą mi eć modułów \viększych od 1. Po nieważ operatory A i B są sa m osprzężonc, więc dodatko\vO >.;oraz µ; są liczbami rzeczywistymi. Stąd operator U 111ożna zapisać w postaci Wartości własn e
U= (>.1 + i~i 1)lx 1 }(x1 I + . .. + (A„ + iµ„)lx„)(x„I,
liczbami rzeczywistyn1i z przedziału [- ł , ł ]. Ponieważ modu ły \Vartości \vlasnych operatora U równe są J, wi ęc spełnione muszą być równości = 1. Zatem dla każdego j E {I, . .. , 11} istnieje dokład nie jedna wartość Bj E (0, 27r ), taka że Aj = cos ej oraz µj = sin Br S tąd Aj+ i/Lj = eiO;, czyli operator U można przedstawić \V postaci U = eiH, gdzie
gdzie Aj oraz ILj
są
AJ+1iJ
H=
e,lx1)(x1 I + . . . + e„1x„)(x„1.
Reprezentacja U = e iH = e;o,Ix 1)(x 1I + .. . + e ;o. Ix„ }(x„I
nazywa się reprezentacją spektralną unitarnego operatora U. Operator H (lub - H) nazywany jest czasem operatorem Hamiltona ind ukuj ącym U. Zauważmy również, że wyprowadzając reprezentacj ę spektralną operatora unitarnego, pokaza liśmy przy okazji, iż wektory \Vł asn e macierzy unitarnej t\vorzą ortonorma lną bazę przestrzeni H„. Reprezentację spektra lną operatora unitarnego można oczywiście wyprowadzić także bezpośredni o, bez stosowania rozkładu U= A + iB. Reprezentacja ta jest bardzo przydatna przy rozk ładani u macierzy unitarnych na iloczyn prostszych macierzy unitarnych. Z\v róćn1y też uwagę, że jeżeli operatory T1 i Tz kom ut ują, to ei(T, +Tz) = e;r,e;r, . Teraz, \Vkilku przykładach, zilustrujemy zależności zachodzące po rn iędzy rnacierzami unitarnymi a indukuj ącymi te macierze han1iltonianami. Przykład
8.2.4. Macierz Hada1narda-Walsha
I ( I W2 = .j2 1
I )
- 1
jest unitarna i jed n ocześn ie samosprzężona. Tak \vięc rozkład W2 = A + iB jest po prostu macierzą W2. Macierz W2 posiada d\vie wartości \Vłasne, - 1 i 1, a odpowiadaj ącymi im wektorami \vlasnymi mogą być przyk ładowo X- 1
=
I
J4 -
2.j2
( 1-
nie operatory rzuto,ve
.fi., 1) ·r oraz x 1 = mają postać
2 - .j2 4
- .j2
- .j2
2 + .j2 4
4
148
4
I
J 4+2.j2
(I + .fi., l) T . Odpowied-
8.2. Matematyczna struktura teorii kwantowej
oraz
fl-
2+
jJ.
4
4
fl-
fl-
2-
4
4
Reprezentacja spektralna
s amosprzężonego
odwzoro,vania W2 n1a zaten1
postać
co n1ożna zapisać także jako W2 = e; 0Jx1)(x1I+ci·~ 1x- 1 )(x- 1 I, tak więc W2 = e;r, gdzie
Przykład
8.2.5. Niech ()
będzie liczbą rzecZ)'\vistą,
a
R _ ( cos () - sin()) Osin() cos O mac ierzą
obrotu. Oczy\viścic Ro jest unitarna. Ponie\vaż wiemy, iż wektory własne n1acierzy uni tarnych l\vorzą bazę orto n onn aln ą, niożen1y zna leźć je bezpośrednio, bez konieczności szukania rozkład u Ro =A+ i B. Łat\vo sprawdzić, że wartościami własnymi Ro są liczby e±;o, a odpowiadającymi im wcktoran1i
\vłasnymi mogą być np.:
X+=
\vicdnic operatory rzuto\ve maj<} I 2
2
I
I
~(i, l)T oraz x =~(-i, l)T. Odpo-
postać
I
2 2 oraz I
I
I
I
2 - 2 - 2
2
„
Przykład
8.2.6. Niech a. i {j będą liczbami rzecZ)'\vistyrni. Macierz przes un ię cia fazowego
149
8. Dodatek A. Fizyka kwantowa
jest unitarna, co lal\vo spra\vdzić (zau\vażmy, że macierze te są ściśle Z\viąza ne z operacjami zn1iany fazy - patrz przykład 2.1.4). Rozkład spektralny jest \V tym przypadku tl')l\Vialny: (OO Po .il -- e;" (lO O)+ew O
~) '
tak \Vice Po ..J = eiH,„, ' gdzie ~
8.3. j Stany kwantow e jako wektory z przestrzeni Hilberta Po\vróćmy
do oma,viania uktadó\v k\va ntO\vych o skończonej liczbie pozion1ów. Matematyczny opis takich u kładó\v opiera sic; na pojęciu 11-wymiaro\vej przestrzeni Hilberta H„ . Wybicran1y orto n onna lną bazę {lx1 }, ... , lx„}} i nazy\vamy \Vektory lx;} stanami bazowymi. Stan układu jest wcktorern o jednostko\vej norn1ie z przestrzeni H„ . Stany inne niż stany bazO\VC nalY\va się superpozycjami stanÓ\V bazo\vych. Stany lx} i IY} są ró\mO\vażne, j eżeli istnieje O E JR, takie że lx} = e;8 1y}. Odtiid stany równoważne będzicrny traktowali jako ró\vne. Stan postaci a d x1} + . .. + a„lx„}
(8.21)
wyznacza następuj<1cy rozkład pra\vdopodobic11st1va: jeżel i dokonujemy obserwacji na układzie z11ajdującyn1 się \V stanie (8.21), to pra,vdopodobicństlvo zaohseT\VO\vania układu \V stanic lx1} równe jest ll\'112 • Współczynniki c~; nazywane są amplitudami pra\vdopodobicńshva lub po prostu a1nplitudami. Problemem obsen~acji (pomiaró\v) zajmicn1y się dokładniej \Y podrozdziale 8.3.2. Teraz natomiast przedsta\vimy matematyczny opis zł ożonych u kładó\v k\vanto,vych. Zalóżrny, że dysponujemy rozróżnia l nymi ukladarni 9 o 11 i 111 pozio1nach, z bazam i odpowiednio {lx 1), „ „ lx„) } dla H„ i { IY1}, „ „ IYm) } dla fi,,,. Układ złożony, stlvorzony z tych podukładó\v, opisany jest jako iloczyn tensoro\vy H„ ® li,,, :::: H„,,.. Stanami bazo\vyn1i układu fi„ ® H,,, są lx;) ® IYj}, gdzie i E { l, ... , 11}, j E { I, ... , 111 }. Stosuje się też notacje; lx;) ® IYj} = lx;}IYj} = lx;, Yj}. Ogólny stan ukladu złożonego Iz} jest wcktorcn1 o norn1ie 9
150
\Varunck, aby układy były rozróżnialne. jest tu istotny. \V prL)rpadku, gdy podukłady są identyczne, układ złożony opisuje siiy w inny sposób.
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta
rÓ\vnej I \V przestrzeni H„111 • Mó,vin1y, że stan Iz} jest rozkładalny, jeżeli istnieją takie stany lx} E H„ oraz IY} E H„„ iż zachodzi
Iz)= lx)ly). Stan, który nie jest rozkłada lny, nazywamy stancrn spl ątanyrn. Iloczyn \Vewnylrzny \V przestrzeni H„ ® H 111 jest zdefiniowany n astępuj ąco :
Prlyklad 8.3.1. D\vupozion1owy układ k\vanlO\VY nazY'va się kubite1n. Ortonormalne \vektory t\vorzące bazę przestrzeni H 2 zwykle oznacza się przez IO) i II) i utożsa1nia si ę je z wartościa mi logicznyn1i O i 1. Układ złożony o 111 kubitach nazy,va się rej csh·c111 kwanto,vym o długości 111. Reprezentov;any on jest przez \vektory z 2111 -wyn1iarO\vej przestrze ni Hilberta o bazie
{lx1 ) ... lxm) : x; E {0, I}}. Jeżeli ciąg binarny X1, ... ,x111 utożsamimy z liczbą x 12"' 1 + x22'"- 2 + + ... + x,,,_12 + x111 , to bazę przestrzeni H2„ nioże1ny przedstawić jako
{IO), jl), . . . , 12
111 -
I)} .
I.I. I Kwantowa ewolucja czasowa Naszyn1 następnym zadaniem będzie opisanie zmian układó\v k\vanto\vych \V czasie. W tym celu zalożymy, że istnieje zależna od czasu t funkcja U,: H„ ~ H,„ która opisuje zn1ianę układu '" czasie. 10 Innymi słowy, jeżeli oznaczymy przez x(t) stan ukladu \V chv.iili t, to x(t) =
U,x(O).
Podan1y teraz \Varunki, które z,vykJc nakłada się na odw·l orowanie U, opisuj11ce en•olucję czaso,vą układu. Po picnvsze, \vymagamy, aby U, zachO\VY\valo normę stanó\v: 1. Dla każdego t E ~oraz dla każdego
x E H„, ll U,xll = llxll.
Zauważmy, że powyższy \Varunek ma on po prostu, że jeżeli wspólczynniki
charakter czysto matematyczny. Mó,vi \V x wyznaczają rozklad pra\vdopodobieństwa, ta k jak (8.21), to \VSpólczynniki \V Ux także powinny wyzn aczać jakiś rozkład. Nastypny \varunc k st\vierdza, że każcie odwzorowanie U, dziala na (8.21) \V taki sposób, iż każdy ze stanó\v bazowych e\voluuje nieza leżnie:
2. Dla każdego t,
Oznacza to, 10 Za łożenie
U,(01 lx1) + ... + a„jx„)) = a 1U1lx1) + ... + a„U,lx„).
że każde
z od\vzorowań U, jest linio\ve.
to nazywane jest 1.asadą przyczynowości.
151
8. Dodatek A. Fizyka kwantowa
Przy takir11 założe ni u e'Nolucja stanów jest bardzo podobna do e'volueji ukladó'v probabilistycznych. Zasadność tego warun ku rnożna by poważn ie k\vestiono,vać1 1 , jednak ta kie roz,vażania nie są celen1 naszej książki. Kolejnym wymaganiem jest, aby Za\vsze można było do konać rozkł adu U,: 3. Dla każdego t 1 i t2 E ~' U,, +r, = U, , + U,,. W koń cu żądarny, aby ewolucja czasowa była gładka: każdego 10
4. Dla
E IR, lim U,x(O) r-to
Z po,vyższych warunk6\v \V)'nika
=t-lin1·to x(I) =x(t0 ) .
poniższy
len1at.
Lemat 8.3.1. Odwzo rowanie U, opisuj ące e\vol uej ę czaso,vą uk ład u , spełn ia jące wa run ki 1-3, jest operatoren1 unitarnyn1. Dow6d. Warunek 2. sl\vierdza, że U, jest operato rem, natomiast z \Varunku 1. 'vynika wprost, że każde U, jest róż n o\vartościowe. Ze względu na \varunek 3. rnamy Uo = U~. Jednak na mocy różnowartościtl\vości z ró\vnania
Uolx} = U~lx} \V)'nika, że lx} = Uolx) dla każdego lx). Oznacza to, że Uo jest od\vzoro\vaniem identycznościowyn1. Korzystaj ąc pono\vnie z 3., \vidzin1y, że lx) = U,U- rlx), tzn. każde U, jest też surje kcją . Zgodnie z \varunkiern l. każ de U, zacho\vuje norn1 ę, \vięc na rnocy lematu 8.2.7 każde U, jest odwzorO\vaniem unitarnyrn. O skorzystaliśn1y z \varunku 4. Wykorzystan1y n1 ułowania n astępującego l\vierdzenia (M. Stone [65]):
Do tej pory nie
go teraz do sfor-
Twierdzenie 8.3.1. Dla każdego od\vzoro,va nia U,, speł n iającego \varunki 1-4, istnieje dok ładn ie jeden samosprzężony operator H , taki że Ur -_
e - itH 12 •
Przypomnijmy, że fun kcj ę \vyktad niczą działaj <)Cą na san1osprzężony operator A n1 ożna zdefi nio,vać przy użyciu reprezentacji spektralnej (8.19) lub po prostu jako szereg A
I
2
I
1
e = l +A+ 2 ,A + 3 !A· + ... Oczywiste jest, że w skończenie \vyn1iaro\vej przestrzeni H11 defi nicje te są równo\vażne. Z l\vierdzenia Stonc'a 'vynika, że e\vol ucja czaso,va n1oże być zapisana '" postaci x(t) = e -i1Hx(O), 11
Jeżel i
stan (8.21) nie jest po prostu uogólnieniem
rozkładu prawdopodobieńsl\va,
to
dlaczego powinien ewoluować w taki sani sposób? 12 W p iśmiennicl\vic z dziedziny fizyki k\van towcj stosuje się zapis U, = e-irłl/h, gdzk
li= ~ (h - stała Plancka) - przyp. red.
152
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta skąd
po obustronnym
~x(1) =
otrzymujemy
- iHe itHx(O) = - iHx(t).
Równanie to 1 i !:._ x(1) er1
zróżniczko\vaniu
1nożn a zapisać
\V postaci
=Hx(l) .13
(8.22)
Ró\vnanie różniczko\ve (8.22) znane jest jako rón•nanie Schrodingera, natomiast operator H naz)'\vany jest operatoren1 Hamiltona lub hamiltonianem układu k\vanto\vego. Reprezentuje on całkonritą en ergi ę układu. Zaz\vyczaj hamiltonian jest znany, a ró\vnanie Schrodingera poz\vala na wyznaczenie stanó\v \vłasnych energii. Siany te są przykladen1 stanÓ\V bazO\vych układu k\vanto\vego. Uwaga 8.3.1. E\volucja czaso\va opisy\vana przez operatory U, jest ci ągła, jednak rozpatrując problerny obliczenio\ve, j esteśmy zaintereSO\vani znajo1nością stanó\v układu \V określonych ch\vilach 11, 12 , 13 , •. .. Dlatego zn1ianę \V czasie układu k\vanto\vego będziemy opis)'\vać ciągiem \VektorÓ\V jednostko\vych x, U1x, U2U1x, U3U2U1x, .. . , gdzie każdy z operatoró\v U; jest unitarny.
3.2. I Obserwable Ponownie zajmien1y sią teraz ogólnym stane1n
lx) = a 1lx 1) + ... + a„ lx„).
(8.23)
Stany bazo\ve \vpro\vadziliś1ny \V Z\viązku z interesuj<1cymi nas \vłasnościan1i układu. Stan ogólny, tzn. superpozycja stanó\v bazo\vych, \vyznacza natomiast rozkład pra\vdopodobieńSt\va stanó\v bazowych: prawdopodobieńst\VO zaobSef\VO\vania układu w stanie X; ró\vne jest l ,~;1 2 . St\vicrdzenie to n1 ożna uogólnić \V nast<;pujący sposób: Definicja 8 .3.1. Obsenvabla E = { E1, • •• , E,,,} jest zbiorem \VZajen1nie ortogonalnych podprzestrzeni H„, takich że H11 = Ei 8 ... E9 E,,,. OclY'viście \V po\vyższcj
definicji musi być spelniona nieró\vność 111 ~ 11. Wszystkie podprzestrzenie E; oznaczamy teraz osobnymi etykieta1n i: liczban1i rzecz)'\vistyn1i Bi. ... , 0111 • Dla każdego wektora x E H„ istnieje jednoznaczna reprezentacja X = X I + ... + X111 , (8.24) •J W piśmiennictwie z dziedziny fizyki kwantowej to równanie zapisuje się w postaci 11 ;ri!!. x(t) = Hx(t), gdzie /i= (h - stała Plancka) - przyp. red. l1i 2.,.
153
154
8. Dodatek A. Fizyka kwantowa
taka że X; E E;. Zamiast o obser\vacji przestrzeni E;, n1 oże1ny 1nó\vić o obser\vacji etykiet O;: mówimy, że obsenvując E, man1y sza nsę otrzymania wartości fl; z pnt\vdopodobie ństv1e1n llxdl2 . '4 8.3.2. Pojęcie obsc1wacji stanów bazowych szczególnym. Obsenvablę E można zdefiniować jako Przykład
E = {E1,
X;
jest przypadkiem
• . • ,E,,,},
gdzie każde E; jest j cdno,vyn1i
Na poj ęcie obsenvabli n1oż na patrzeć także \V inny sposób: j eżeli H„ = Ei ffi . . . ffi E,,,, to niech PE, będą operatorami rzutowania na podprzestrzenie E;. Wtedy możerny myśleć o obserwablach jako o odwzorowaniach (czasem określonych tylko częścio\vo) E : JR -> L(H), które każdej etykiecie 8; przyporządko,vuj <} operator rzutowy E(B;) = PE,· Zgodnie z notacją (8.24) Pe1(x) = x;, a pra,vdopodobieństwo zaobscnvowania etykiety 8;, gdy w stanie lx), dane jest przez 2
llxdl
układ
znajd uje
się
=(PE,x!PE,x) =(xlPt;,x) = (xlPE,x) = (xlE(B;)x). ?
Odwzorowanie E : JR -> L(lf) posiada inne interesujące \\•Jasności: pra\vdopodobieństwo zaobserwowania e; lub Bj wynosi oczywiście
(xlE(B;)x) + (xlE(Bj)x) = (xl(E(B;) + E(Bj))x), natomiast równe jest
prav;dopodobieństwo
zaobsenvo,vania jakiejkohviek etykiety 8;
I = (x!Jx). Możemy
ślone
zate1n rozszerzyć definicję od\'1zorowania E tak, aby było ono okrena zbiorach liczb rzeczywistych: przyjmujemy E( { 8;, Bj}) = E(B;) + E(Bj)
14 Punkt wyjściowy jest oczywiście dysk usyjny: zam iast mówić o obserwacj i podprzestrzeni, n1ożna mówić o po1ni arzc pewnej wielkości fizycznej i wyniku w postaci liczby rzeczywistej. Wydaje się jednak, że w naszym przypadku bardziej logiczne jest wprowadzen ie wartości wielkości fizycznych jako etykiet podprzestrzeni.
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta
dla 8; f; 8i.
Można łat\VO sprawdzić, że
w L(H) spełnia
1. Dla
każdego
następujące
X
c
E jako od\vzoro\vanie poclzbiorÓ\V IR
warunki:
IR, E(X) jest rzutem.
2. E(IR) = !.
3. Dla
ciągu
\vzajcmnic rozłącznych zbiorów X;, E(UX;) =
L: E(X;).
Oclwzoro\vanic E spełniające powyższe \varunki nazywa się miarą spektrałną. 15 Potraktowanie obserwabli jako miary spektralnej jest ujęcien1 alternatywnym w stosunku cło definicji 8.3.1. Tam po\viedzieliśmy jedynie, że każdej podprzestrzeni przypisujen1y liczbę rzeczywistą, etykietę, którą możemy uznać za wynik obsenvacji danej podprzestrzeni. Tutaj operatorowi rzutowemu wyznaczające m u podprzestrzeń przypisujemy zbiór etykiet (liczb rzeczywistych). Jeżeli X jest zbiorem liczb rzeczY\vistych, to (xlE(X)x) jest prawdopodobień st\vem zaobserwowania liczby z tego zbioru. Z warunku 3. wynika, że jeżeli X i Y są zbioran1i rozlącznyn1i , to stosując operatory E(X) i E(Y), dokonujen1y rzutów na \vzajen1nie ortogonalne podprzestrzenie. Rzeczyw i ście, ponie\J1aż E(X)(H„) jest podprzestrzenią przestrzeni E(X U Y)(H„), więc tnusi zachodzić ró\vność E(X)E(X U Y) = E(X) . Stąd E(X) = E(X)E(X U Y) = E(X) + E(X)E(Y), a zatem E(X)E(Y) = O. Trzeci i być może najbardziej tradycyjny sposób patrzenia na obserwable polega na traktowaniu ich jako sarnosprzężonego operatora A=
o, E(81) + ... + 8mEC8m),
gdzie E(8;) = E( {8;}) są rzutami na wzajemnie ortogonalne podprzestrzenie. Przypomnijmy, że jeżeli uklad znajduje się \V stanie x, to pra\vdopodobieństwo zaobsenvo\vania B; \vynosi (xlE(B;)x). Stąd n1ożen1y obliczyć wartość oczekiwaną obserwabli A \V stanie x: E.(A) = 81 (xlE(B 1)x) + . . . + B,,. (xlECB,,.)x)
= (xl(B1E(B1) + . .. + 8mE(8m))x) = (xlAx). Możemy
teraz podsumować
różne
sposoby definio,vania obsenvabli. • Obsenvablę rnożna zdefiniować jako zbiór wzajemnie ortogonalnych podprzestrzeni {E1, .. . , E,,.}, takich że H = E1 EB ... EB E111 • Każdej podprzestrzeni odpo,viada etykieta - liczba rzeczywista B;. Ten punk t widzenia jest naj bliższy pienvotnemu pomyslowi patrzenia na stan k\vantowy jako na W ogólności pojęcie rniary spektralnej nie jest zdefi niowane na wszystk ich podzbiorach IR., ale na a -algebrze posiadającej wystarczaj:1co dużo „regularnych wlasności "; zwykle wystarczaj<1ce są podzbiory borclowskic zbioru IR . Jed nakże tutaj zaintereso1''3ni jesteś1ny ukladan1i kwantowyn1i o skończonej liczbie poziornów, tak więc z każ dą obserwablą związanych jest tylko skończenie wiele liczb rzeczywistych.
155
8. Dodatek A. Fizyka kwantowa
uogólnienie rozkładu pra\vdopodobieńs t\va . RzeeZ)'\v i ście, obsenvację stanu układ u k\vanto1vego n1oż n a pos trzegać jako proces pozyskhva nia inforrnacji o 1vartości obse1wabli, zdefiniov„anej jako zbiór jeclnowyn1iarowych podprzestrzeni rozp i ętych na 1vektorach bazo11 ych. • Obserwabla może być u1vaża na za m iarę spektralną E, która od1vzoro1vujc zbiór etykiet 1v zbiór operatorów rzuto1vych, defin i ujący podprzestrzeń. Taka interpretacja poz1vala na uogólnienie pojęcia obsenvabli na pojęcie dodatniej miary o 1vartościach operatorowych. • Tradycyjne podejście polega na zdefinio1va niu obsenvabli jako operatora samosprzężon ego, za pomocą reprezentacji spektralnej 1
A = 81E(f:J1) + ... + 8111E(8111).
Wszystkie przedstawione inte rpretacje są logicznie ró1vno1vażne. Tak więc w zależności od sytuacji będziemy poslugi\vać się tą, która najlepiej pasuje do oma1vianego wl aśnie zagadnienia.
3.3. I Zasada nieoznaczoności Podrozdzial ten rozpoczniemy od on1ó\vienia interesuj ącego klasycznego 11'Yniku, z11•ic1zanego z zagadnienien1 jednoczesnego pon1iaru d1vóch obse1wabli. Obsenvable będziemy tra kto111 ać jako odwzoro1va nia samosprzężone . Mó1vin1y, że dwie obser11 able kon1utuj ą ze sobiJ, jeżeli AB= BA . Zdefiniujerny także komutator operatorów A i B jako ocl11 zoro1va nie [A , BJ =AB - BA . Przypomnijmy, że dla stanu x 1vartość oczekhvana obsenvabli A da na jest przez iEx(A) = (x!Ax). Dla uproszczenia oznaczan1y /.( = lEx(A). Wariancja operatora A (dla stanu x) równa jest 1vartości oczeki1vanej obsenvabli (A - µ) 2 . Zau1vaż my, że jeżel i A jest sarnosprzężony, to (A - JL) 2 także jest san1 osprzężony i możemy trakto\vać go jak obscnvablę . Możerny zatem 1vyrazić wari ancj ę jako 1
1
Varx(A) = lEx((A -
2 {1) )
= (xj(A -
2 /L) x)
= ((A - 11)x j(A - /L)X) = ll (A - µ) xll 2.
(8.25)
Twierdzenie 8.3.2 (Zasada nieoznaczoności). Dla dowolnych obsenvabli A i B oraz do1volnego stanu x, Var,(A)Var«(B) ;;<: ~ l(xj fA, B]x) ! 2 . Do1vód. Na początek za u1vaż1ny, że jeżeli A i B są sa mosprzężone, to [A, BJ• = - lA, BJ. Stąd kornutato r operatoró\v A i 8 można zapisać jako [A, BJ = iC, gdzie operator C = - i [A, BJ jest sa mosprzężony. Jeżeli 1.1-;1 i µ 8 S
156
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta
Dla skrócenia zapisu wprowadzan1y oznaczenia A1 = A - / lA i 8 1 = B - 118 . Oczywiście operatory A 1, B1 oraz A 18 1 + B 1A 1 są samosprzężone. Łanvo także sprawdzić, że [A 1 ,Bi] = [A,B]. Zatem l(A1xlB1 x)l 2 = l(xlA1B1x)l 2 l
l
= (xi2(A 1B1+B1A 1)x+ 2(A1B1 - B1A 1)x)
2
2
= ! l(xl(A 1B1 +B1A1)x) + (xi[A, B]x)l
=
~ l (xl(A 1 B1 + B1A1)x) + i(x!Cx)l2 ,
gdzie C = - i[A , B] jest operatorem samosprzężonyn1. Ponie,vaż operatory w ostatnim \vyrażcniu są samosprzężone, więc oba iloczyny wewnętrzne są rzeczywiste. Dlatego Var,(A)Varx(B) ;;::: ! l(xl(A1B1 + B1A1 )x) + i(x!Cx)l 2 = !<(xi(A1B1 + B1A1 )x) 2 + (xjCx) 2)
; : : !(x1Cx)
2
co
można zapisać także w
,
postaci
o Uwaga 8.3.2. Klasycznym przykladem niekomutuj
gdzie przyjmujemy, że O· log O równe jest O. Podstawo,ve Shannona on1ó\vione są \V podrozdziale 9.5.
\Vłasn ości
entropii
157
8. Dodat ek A. Fizyka kwantowa
Niech A i B będą obsenvablami n-stanowego uklad u kwanto,vego (traktO\vanymi pono\vnie jako operatory sa1nosprzężonc) . Zgodnie z wcześniejszymi uwagami, istnieją ortonormalne bazy przestrzeni H11 , składające się z \vektorów własnych operatoró\v A i B. Oznaczając te bazy przez {a 1, ... , a11 } oraz {b i, . . . , b11 }, otrzymujemy reprezentację spektralną operatorÓ\v A i B: A= A1 la1 )(a 1I+ ... + A11la11)(a11I ,
B = ~til b 1 )(b il + . . . + ~t11 lb11)(b11 I,
gdzie A; oraz µ;
są
odpo\viednio wartościan1i
własnymi
operatorów A i B.
Dla ustalonego stanu lx) E H11 obsenvable A i B wyznaczają rozkłady prawdopodobieńst\va P = (p1, . ..• p11 ) oraz Q = (ą1, . .. , q11 ), opisujące prawdopodobieńSl\va zaobser~1 0,vania wartości AJ, .. . , A11 i /-"J, . . . , ~t11 • Zau,vażmy, że rzuty E(A;) i E(µ;) równe są odpowiednio ja;)(a;I oraz lb;)(b;j. Tak \Vięc, j eżeli układ znajduje się ·w stanie lx), to dokonując po1niaru obserwabli A, n1amy szan sę zaobsern•ować \v<1rtość (etykietę) A; z prawdopodohieńst\ven1
p; = (xlla;)(a;lx} =(xl(a;lx}a;} =l(a;lx)l 2 . Pon1iar B daje ~t; z pra\vdopodobieńst\ven1 q; = I(b; lx}12 . Rozklady prawdopodobieńst\va P = (p 1, . .. ,p11 ) oraz Q = (qi, ... , q11 ), niezal eżnie od stanu układu, podlegaj ą następującen1u prawu: Twierdzenie 8.3.3 (Entropowa zasada
nieoznaczoności).
H(P) + H(Q) ~ - 2 logc,
gdzie c = n:ia.x l(a;lbj)I . 1,
J
Do,vód. Ponie\vaż \vielkości H(P) i H(Q) 'vydają się być trudne do oszacowania, 1nusiiny spróbować je czy1nś zastąpić. Weźmy r > Oi zbadajmy wyrażenie log
l i )l ( r+ l
~P; 1=
r
1
= ;: log
(li ) r+ I
LP;
I
1=
.
(8.26)
I
Chce111y pokazać, że lirn ~log ( I
r- >0
Ił
Il
'~ "°"' p;·+J) = '~ "°"' p; logp;. ;::: I
(8.27)
i= I
Ił
Rzeczywiście, skoro
LP; = I, to dla i= I
158
r -->
Ozarówno licznik, jak i 111ia110\vnik
8.3. Stany kwantowe jako wektory z przestrzeni Hilberta
lewej strony ró\vnania (8.27) tala, clostaje1ny
dążą
. Jog (I:;~, p;-'') 1 I1n1 = lin1 „ "'' r~ O r r-o"' p. W 1. 1 '
Zauważmy również, że
do O. Korzystając więc z reguły de CHospi-
,,
,,
LP;-'° 1 logp; = LP; logp;. i= I
i= I
z równania (8.27) wynika
I
!~~ ( t1:P;-'°1) r = (~p;· oraz że nasza teza jest rÓ\vnov,iażna nieróv1ności exp(- H(P) - H(Q)) ~ c2, co można zapisać jako n
11
II";;II ąJ' ~ i= I
(8.28)
c2 .
i= 1
iloczynó\v występujących w pov,iyższej nieró\vności \vyrażcniami podobnyn1i do sum z równania (8.26), oszacowaniu ich i otrzymaniu (8.28) \V granicy r -> O. Aby oszacować (8.26), skorzystan1y z t\vierdzcnia M. Ricsza [73] przytoczonego poniżej. 16 Jeżeli T: H„ -> H„ jest 1nacierzą unitarną, y = Tx oraz l ~a~ 2, to Nasz plan polega na
(
a)":'
~ L..,, IY;la=-r
zastąp i eniu
~
)~ c"l -a (~ L..,, lxd" ,
1= 1
1=1
gdzie c = n1ax ITii I· Wybierając x;
= (adx) oraz Tu = (bdaj), otrzy1nuje1ny Y; = (b;lx). OclY'viście
operator T jest unitarny. łl
a
l
Możerny Ił
teraz t\vicrdzenie Riesza zapisać w postaci I
(f,; l(b;lx) ln21 ) " ( f,; !(a;!x)!") -" ~ c ~· . 2
(8.29)
PO\vyższa nierówność
bctdzic także spelniona, gdy jej obie strony podniesien1y do potęgi k > O. Postaramy się usta lić wartości paran1etrów \V taki sposób, aby lewa strona nierówności (8.29) przypon1 i nała pra\vą stronę równania (8.26). Riesza jest szczególnym przypadkien1 fonuuły interpolacyjnej Steina. Elementarny dowód podany przez Riesza (73] oparty jest na ni~równości Holdera.
16 Twierdzenie
159
8. Dodatek A. Fizyka kwantowa
Tak
\Vięc
szukamy takich liczb r, s i k, k
a= 2(r + 1), - -a
= -Ir
2- a
oraz k a
=2.
że
a (I -
Aby 1
~
I a
=2(s + 1), ~
a-I
k a
wybrać
2, musimy
2
= s'I
r E [- ~,O]. Prosty rachunek pokazuje, że wystarczy przyjąć s = - „ ~ 1 oraz 2 +2 A . ' ' ' (8.29) mozemy . . ' \V postaci. „ . zaten1 n1ero\vnosc przcp1sac k=-
„
(
1
~ s+I) }(~ r+I) : :::::,., c2, L., Cf; L., P; i= 1
co przy r
i= 1
-+
Odaje szukane oszacowanie.
o
Uwaga 8.3.3. Dolne ograniczenie w l'.vierdzeniu 8.3.3 nie zal eży od stanu ukła du x, może jednak za leżeć od reprezentacji obserwabli A= >.J!a1 )(a il + . . . + >.„la„)(a„j
oraz B = µ J! b1)(b il + .. . + µ„l b„)(b„ j. Niezależność
od reprezentacji otrzy111uje111y, jeżeli obie obser\\'able są niezdegenerowane. Wtedy 1vszystkie 1vektory a; oraz b; są wyznaczone jednoznacznie, z dokładnością do stałej multiplikatywnej o \Vartości bezwzględ nej ró1vnej 1. Stąd także c = 111ax l(b;jaj)I jest \vyznaczone jednoznacznie. Zatl\vażmy, że \V przypadku degeneracji obsenvabli liczba \vartości, które da się zaobserwować, jest mniejsza od n, co w naturalny sposób powoduje 1vzrost entropii. 8.3.3. RoZ\vażmy układ złożony z 1n kubitó\v. Pierwszą bazą ortonorn1alną będzie znana nam baza obliczeniowa B1 = { lx1 . . . Xm } : X; E {O, I}}. Drugą bazę 82 = { Hlx) : lx) E 8 1} otrzymuje1ny, poddając bazę 8 1 transformacji Hadan1arda-Walsha (patrz podrozdziały 4.1.2 i 9.2.3): Przykład
Będzie1ny
badali obsenvable A1 i A2, \vyznaczone przez bazy 8 1 i 8 2:
A;= l: c~)lx}(xl . xEB;
Wartości c~) nie są dla nas \Vażne i m ogą być ustalone \ V dowolny sposób, tak
aby oba ciągi c~' złożone były z 2"' różnych liczb rzeczywistych. Istotne jest
8.4. Stany kwantowe jako operatory
przede \vszystkim to, aby obserwablę traktować jako rozkład przestrzeni H 2., na 2111 wzajen1nie ortogonalnych podprzestrzeni jednO\vymiarowych. Łatwo spra,vdzić, że dla do,volnych lx) E B1 i lx') E B2 zachodzi j(x jx')I = Stąd
~·
na mocy entropowej zasady n ieoznaczoności (twierdzenie 8.3.3) mamy
H(A 1) + H(A2)
~ 111 .
Oznacza to, że suma nieoznaczoności obsenvacji 11i-kubito,vego stanu w bazach 8 1 i 8 2 wynosi nie n1niej niż 111 bitów! Z drugiej strony, nieoznaczoność pojedynczej obserwacji nie może być oczywiście większa niż 1n bitów: obserwacja względem do,volnej bazy daje ciąg x = x 1 ... x,,, E {O, I }111 z prawdopodobieńst\van1i p, takin1i, że
L Px = 1. Entropia Shannona dana jest przez
xeir; - LPx logpx XE~
i osiąga n1aksimum gdy p, =
;mdla każdego x E {O, I }
111 ,
a zatem maksymal-
na nieoznaczoność 'vynosi 1n bitów. Dolne ograniczenie \vystępujące w zasadzie nieoznaczoności (m•ierdzenie 8.3.2) zależy od komutatora [A, BJ oraz od stanu lx). Jeżeli [A, B] =O, to ograniczenie to jest trywialne. Czy dla entropo,vej zasady nieoznaczoności jest podobnie? Odpowiedź jest pozyty\vna. Jeżeli operatory A i B komutuj ą ze sobą, to zgodnie z lematem 8.2.9 mają one \vspólną bazę złożoną z ortonormalnych wektorÓ\V \Vłasnych. Wtedy jednak c = max l(b;jaj) I = I i dolne ograniczenie jest oczyv;iste.
8.4. I Stany kwantowe jako operatory Przyjrzyjn1y się
układo\vi
)z
dwóch kubitÓ\V, znajdującen1 u się w stanie (8.30) „
We \VStępie stwierdziliś111y, że stan ten jest stanem splątanym; nie ma n1ożli wości zapisania stanu (8.30) w postaci iloczynu dwóch stanów jcdnokubito'vych. Oznacza to również, że jeżeli układ złożony znajduje się w stanie (8.30), to stanu pienvszego kubitu nie można zapisać \V posta1.-i wektora stanu \V przestrzeni Hilberta. W b ieżącym rozdziale uogólnin1y poj ęcie stanu kwa ntowego.
161
8. Dodatek A. f izyka kwantowa
4.1. j Macierze gęstości Niech {bi. ... , b„} bt;:dzie ustaloną bazą przestrzeni H„. Reprezcntacj9 \vektora we \vspół rzędnych x = x 1b 1 + ... + x11 b 11 będziemy in terpreto\vać dalej jako wektor kol un1nowy (xi. . .. ,x11 )T. Definiujemy t a kże wektor dualny do lx) jako wektor wierszowy (xl = (xT, ... ,x:,). Zau\vaż n1y, że dla do,volnych x =x1 b1 + ... +x11b11 oraz y =y 1b 1 + . .. + Y11 b11, \vy rażeni e (xlly), trakto,vane jako iloczyn macierzy, ma postać
=xjy1 + ... + x;,y" =(xly}. Y11
Wekto ry : wierszowy (xl i kolun1nowy IY) nazywa111y odpo\vicdnio wektorami bra i ket. 17 Nazwy te pochodz<1 od angielskiego slo,va bracket (na\vias). U\vaga 8.4.1. Pojęcie \vektoró\v dualnych można zdefinio,vać \V sposób niezależny od 'vyboru \Vspółrlędnych, korzystając z t\vierdzenia Frecheta i F. Riesza. Do,volny \Vektor x E H11 \vyznacza funkcję linio\vą f.: H„ __. C jako
(8.31)
fi.(y) = (xly). Linio\va fu nkcja f : H„
nazywa si ę funkcjonałem. Funkcjonały t\vorzą przestrzeń wektorową H;., tak zwa ną przestrteń d11ałni1 do przestrzeni H 11 , \V której doda,vanie oraz mnożenie przez skalar zdefinio,vane są punktO\VO. T\vicrdzenie Frecheta i Riesza mó,vi, że dla do\volnego funkcjonału /: H„ __. C istnieje dokładnie jeden \vcktor x E H„, taki że f = f... Z tego punktu widzenia \vektore1n dualny1n do x jest funkcjonał f.. spełniający ró\vnanie (8.31). Dla clO\vOlncgo stanu (\vckto ra jednostkov1ego) x = x 1b1 + . . . + x„ b„ E H„ defini ujerny 1nacierz gęstości odpo,viadającą x jako Xt
X2
lx)® (xl =
>C
..
® (X1 „t2, ... ,X11") =
.:r,,
lx11 2 X1Xi 2 X2X1• lx21
X1x;;
„t,,„'( X11 Xi
lx„ 12
XzX:,
U\vaga 8.4.2. Także w przypadku macierzy g<;:stości można podać definicję nieza lcżni1 od u kładu współrzędnych: łat\VO spra,vdzić, że lx)® (xl jest n1acicrzą rzutu na jedno\vymiaro\vą podprzestrzeń genero\vaną przez x; do oznaczania 11 Thrminologia
162
ta
została
wprowadzona przez P. A. M. Diraca.
8.4. Stany kwantowe jako operatory
takiego rzutu stosowaliśmy już notację lx) (xl. Dla uproszczenia zapisu będzie my od tej pory opuszczać znak © i pisać lx)© (xl = lx)(xl. Przypomnijmy, że postanowiliśn1y, iż dla x = e;9x 1, gdzie() E IR, stany lx) i lx 1) będzierny uważać za równo\vażnc. Macierz gęstości jest jednak nieczuła na czynnik e;o , tzn. lx 1) (x 1I = lx) (xl. Z drugiej strony można \vybrać jednostko\V)' wektor x, generujący jednowymiarową podprzestrzeń W. Wybór tego wektora jest jednoznaczny z dokładnością do stałej niultiplikatywnej eiO, a operator rzutu na podprzestrzeń W ma postać lx)(xl. Istnieje zatem jednoznaczna odpowiedniość n1ięd:.:y stanami a macierzami gęstości, odpowiadającyn1 i wektorowi jednostkO\vemu x. Podamy teraz trzy ważne własności rnacierzy gęstości lx}(xl: • Ponie\vaż llxll = I, ślad macierzy lx) (xl ró\vny jest 1 (przypomnijn1y, że śl ad macierzy równy jest sun1ie jej elen1entó\v diagonalnych). • Jako operatory rzuto,ve macierze lx)(xl są sarnosprzężone. • Macierze lx)(xl są dodatnie, ponie\vaż (lx)(xl)2 = lx)(xl. Korzystając z powyższych własności, n1ożemy uogólnić pojęcie stanu: Defi nicja 8.4.1. Stan układu kwantowego jest to dodatni san1osprzężony ope~ator z przestrzeni H„ o śladzie ró,vnym jedności. Operator taki naz)'\varny operatorern gęstości. Od tej pory
n1acierz reprezentuj
p = A1 lx1 )(xd + ... + A„ lx„)(x„I.
(8.32)
Po\V)'Ższy zapis oznacza, że każdy stan (n1acierz gęstości) jest liniową kornbinacją opcratoró'v rzutO\V)'Ch na jedno\vymiaro\ve podprzestrzenie, stano,vią
cych alternatywny opis stanów kwanto\vych zdefiniowanych jako \vektory jednostkowe. Stany odpo,viadające jednO\vy1niarowyn1 rzuton1 będziemy nazywać \vektorami stanu lub stana1ni czystyn1i. Stany, które nie są stanami czystyn1i, noszą naz\vę stanów mieszanych. W ł
163
8. Dodatek A. Fizyka kwantowa
(JJ 1 , ••• ,p„) \vzajemnie ortogonalnych \vektorów stanu x 1 , . • • , x„ za\vsze defini uje macierz gęstości
P = P1 lx1}(x1 I+ ... + p„ lx„}(x„I. Jednak ze względu na pe\vną własność rozkładu (8.32) stwierdzenie od,vrotne nie jest tak oczywiste. Przypomnijmy bowiem, że rozkład (8.32) jest jednoznaczny \vtedy i tylko wtedy, gdy p posiada różne wartości \vłasne. Przykłado wo, jeżeli )q = >-2 = A, to łatwo sprawdzić, że wyrażenie
za\vsze można .Ą(l x; )(x;
zastąpić
przez
I+ l x12 )(x~j ),
gdzie I
X1
= X 1 cosa: -
X2
' Sln (t,
x~ = x 1sin a + x2 cos a:,
dla a będącego liczbą rzeclY\vistą (zadanie 5.). Zaten1 bez dodatko,vych informacji nie możemy w ogólności l\vierdzić, czy n1acierz gęstości reprezentuje rozkład prawdopod obieństwa ortogonalnych wektorÓ\V stanu. Omówimy teraz krótko e\vol ucję czasową stanów uogólnionych. Dokładniej przedyskutuj erny to zagadnienie w podrozdziale 8.4.4. Dla stanu czystego jx}(xl istnieje unitarne od\vzorowanie U(t), takie że
lx(t)) (x(t)I = IU(t)x(O)}( U(t)x(O)I = U(t) jx(O)}(x(O)IU(t)*
(8.33)
(patrz zadanie 6.). Rozszerzając ten wyn ik także na stany mieszane p, dostajemy
p(t) = U(t)p(O)U(t)' , gdzie U(t) jest Od\vzoro\vaniem opisującym zmianę układu \Vczasie. Stosując reprezentacj ę U(t) = e - iiH, n1 ożna łatwo spra\vdzić (zadanie 7.), że rÓ\vnanie Schrodingera przyj muje postać i :rp(t) = [H,p(t) ].
4.2. I Obserwable i stany mieszane Pokażemy teraz, w jak i sposób włączyć pojęcie obsenvabli do formalizmu stanó\v mieszanych. W tym celu obserwablę będziemy trakto\vać jako san10sprzężony
A 164
operator A o reprezentacj i spektralnej
= 81E(81) + 82E(82) + . . . + 8„E(O„),
8.4. Stany kwantowe jako operatory
gdzie każdy operator E(8;) = lx;}(xd jest rzutem, taki1n że wektory x1, . .. , x11 tworzą ortonormalną bazę przestrzeni H11 • Jeżeli układ kwantowy znajduje się w stanie x (stan czysty lx)(xl), to możemy napisać, że x = c1x1 + . . . + c11 x11, gdzie c; = (x;lx). Stąd prawdopodobieńst\vo zaobserwowania etykiety 8; rÓ\Vne jest li
li
j=I
j =I
(8.34)
li
=L (xilE(B;)lx}(xlx,;) =Tr(E(B;)lx) (xi). j= I
Obsenvacje stanów niieszanych będzien1y opisY'vać, opieraj ąc się na ró\vnaniu (8.34). Do,volny stan T n1ożemy przedstawić w postaci kombinacji wypuklej stanów czystych lx;}(xd: (8.35) Wykorzystamy teraz liniowość śladu do połączenia pojęć obse1wabłi i stanu rozun1ianego jako odwzorowanie sa1nosprzężone. Niech T będzie stanem układu kwanto,vego, a E obserwablą rozważaną jako miara spektralna. Prawdopodobieństwo, że w wyniku obserwacji uzyskamy liczbę rzecZY'vistą (etykietę) ze zbioru X, \vynosi Tr(E(X)7) = Tr(TE(X)). Zau\vaż1ny, że Tr(7) = 1, a E(X) jest rzuten1, \vięc za\vsze nia1ny O ~ Tr(TE(X)) ~ I. Wynik ten otrzyman1y natychmiast, korzystając z lin iowości śladu oraz reprezentacji spektralnej (8.35): li
li
Tr(TE(X)) = LA;Tr(jx;)(x; IE(X)) = LA;(x;IE(X)x;) . i=I
Nierówności
O ~ Tr(TE(X))
i= I
~
l
\vynikaj ą bezpośrednio
z tego, że
li
O ~ (x;jE(X)x;) ~ I, A; ~ Ooraz
L >-; = l. i= I
Przykład
8.4.1. Niech E = {E 1, ••• , E111 } będzie obserwablą (zbiorem wzajemnie ortogonalnych podprzestrzeni), zgodnie z definicją 8.3.1, a P; rzutem na E;. Jeżeli ponadto 81, . .. , 8111 E IR są wartościami związanymi z odpowiednilni podprzestrzeniami, to niożemy zdefiniować n1iarę spektralną E przez równość E(8;) = P;. Wtedy mamy A= 81?1 + ... + B111 P111 =81E(01) + .. . + BmECBm). Stąd pra\vdopodobieństwo, że pon1iar obserwabli E da wynik 8; dane jest przez Tr(TP;) = Tr(TE(B;)).
Jak shvierdził iśmy wyżej, dowolny stan Tokreś la rozkład prawdopodobieflst\va na zbiorze operatorÓ\V rzutowych w przestrzeni Hilberta H11 w następujący 165
8. Dodatek A. Fizyka kwantowa
sposób: tir(P) = Tr(TP). Jeżeli n ~ 3, to t\vierdzenie odwrotne także jest prawdzhve. Aby sformu łować rn•ierdzenie Gleasona, przypomnijmy, że przez P(H) oznaczamy zbiór rzutó\v \V L(H). Twierdzenie 8.4.1 (A. Gleason, 1957). Jeżeli din1 H ~ 3, to każd a rniara probabilistyczna µ : P(H) ----> (0, I) spełniająca dla każdego ciągu ortogonalnych rzutów P; \varunki 1. Jt(O) = O, ti(I) = I ,
2.
/.l( L,
P;) = LfL(P;)
,
jest generowana przez stan T
(zależny
jedynie odµ) jako
µ(P) = T r(TP) .
Dov1ód twierdzenia Gleasona można znaleźć w pracy (65]; nie jest znany prosty dowód tego t\vierdzenia. Pokażen1y teraz, w _ jaki sposób n1ożna otrzyn1ać analogiczne twierdzenie dla przypadku skoń czeni ewymiaro\vego, jeżeli zamiast operatorów rzutowych rozpatruje się dowolne od\vzoro\vania samosprzężone. Dowód poniższego t\vierdzenia pochodzi z pracy (61). 1\vierdzenie 8.4.2. Niech Ls(H„) będzie zbiorem operatoró\v nych, a µ: L,(H„) ----> ~ odwzorowaniem spełniającym warunki
samosprzężo
1. tt([) = I,
2. tt(l x) (xi) ~ Odla każdego vicktora jcdnostko,vcgo x E H„, 3. µ (
L O';S;) = L cx;µ(S;) dla każdego ciągu operatoró\v samosprzężo'
,
nych S; E Ls(H„) i liczb rzecz)'\vistych o:;. Wtedy istnieje stan T, za leżny jedynie od µ, ta ki że dla nego operatora S
każdego sarnosprzężo
µ(S) = Tr(7:S).
Zanin1 przeprowadzimy dowód, zapoznajmy się z dwoma
łen1a tami.
Lemat 8.4. 1 .
clx„)(x„I + c*lx, )(x„I = Re(c)(lx„) (x,I + lx, )(x,I) + Im(c)(ilx,)(x„I - ilx,)(x,I), gdzie Re(c) oraz Im(c) są odpo,viednio rzeczywist
Dowód. Ponie\vaż Re(c) = ~ (c + c· ) z prostego rachunku.
166
hn(c) = ~i(c - c· ), \vięc teza 'vynika
o
8.4. Stany kwantowe jako operatory
Lemat 8.4.2. Od\VZOl'O\Vania Br, = lxr}(x„I + Jx_,)(xrl oraz c „„ = iJx, )(xsl - ilxs)(x, Jsą samosprzężone. Ponadto zachodzą ró\vności: Brs = Bsr i C„s = - Csr·
Dowód. niach.
Korzystając
z uwagi 8.2.4, dowód otrzymujemy po prostych obliczeO
Dowód twierdzenia 8.4.2. Niech S E Ls(H11 ) . Ustalmy ortonormalną bazry {x 1, • • • , x11 } przestrzeni H11 • Wtedy operator S możen1y zapisać \Vnastępują cy sposób (patrz U\vaga 8.2.5) S=
Il
Il
1~ 1
s=I
L L (x„JSxs)Jx,.)(xsl li
=
L (x„JSx„) Jx„) (x„J+ L (x„JSxs) Jx„) (xsl r.js
r= I li
= L (xrJSxr}Jx,)(xrl + L (x„JSxs)lxr)(xsl + L (x„JSxs)Jx,)(xsl· r
r=l Zam ieniając wskaźniki
r>s
r i s w ostatnim wyrazie, otrzymujemy
li
S = L (xr!Sx,)Jx,)(xrl I~ I
+ :L
(8.36)
r
= :L
Stosując
r
do ró\vnania (8.36) len1at 8.4.1, możemy je zapisać w postaci
li
S=
L (x,JSx,)Jx,)(x,J + L Re(x,JSx„}(jx,)(x., I + Jx.}(x, J) r= l
+
r
L In1(x,JSxs}(iJxr} (x, J -
iJx„) (x„J).
r
PrzyjmujacoznaczeniaA, = jx,)(x,J, 8 ,, = Jx,)(x, J+ Jx_,)(xrJ oraz C,s = ijx„}(xsl - ilxs) (x,J (odwzoro\vanie A, jest oczywiście sarn osprzężo n e, a na 111ocy le1nal li 8.4.2 samosprzężone są też odwzorowania 8„5 i C„,), powyższe ró\vnanie przyjn1 uje postać li
S=
L (x„JSx,.)A„+ L Re(x„JSx,}B,, + L In1(x,JSx,)C,s. r
167
8. Dodatek A. Fizyka kwantowa
wszystkie \vspółczyn niki \ V po,vyższych sumach są rzeczywiste, a odwzorowania są samosprzcyżonc, to z założeń twierdzenia wynika, że Ponieważ
li
Powyższe
ró\vnanie
możemy zapisać jako
li
µ(S) = 2:
+
L Re(x„ISx,)µ(Br,) + L In1(xr!Sxs)µ(C„s) r
r
li
= L (x„ISx,)µ(A„) +
L ;({xr!Sxs) + {Sxslxr)),Lt(B,.•) r
+
L
~i((x,!Sx,) - {Sxslxr))µ(C„,).
r
Z
równości
Brs = Bsr oraz C„s = - Csr \yYOika, że
li
µ(S) = L (x„!Sxr}µ(A„) + L (x„ISx.) ( l tt(B„s) - i µ(C„„) ) . 2 2 r= I •i.<
Oznaczn1y Trr = 1;,(Ar), T.fr = ;1t(B„s) - ~µ(C„s). Oczywiście T:S = T.„ tak \vięc n1ożemy zdefin iO\vać san1osprzężone odwzorowanie T E L(H,i) jako Jl
Il
(8.37)
T = LLTrslx„){xsl · J
r= I s=I
Z ró,vnania (8.37) \yYnika wprost, Ił
IJ
r=I s=I li
li
1~1
s= I
„
= L {x.ITSxs) = T r(TS) .
168
Trs = {xrlTx.) oraz
li
r=I s=I
li
.<'= I
że
li
,f;;
li
I
I"=
I
8.4. Stany kwantowe jako operatory
Aby zakończyć dowód, nlusin1y jeszcze pokazać, że T jest stanem, tzn. sarnosprzężonyn1 dodatnim odwzoro,vaniem o śladzie równym 1. Przed chwilą stwierdziliśmy, że T jest samosprzężony. Ślad T łatwo znajdziemy, su1nuj ąc elen1enty diagonalne: Il
Tr(T) = :Lr,, =
li
Ił
r =I
r=I
Lµ(A,) = µ( L A„) =µ(!) = I.
r-o l
Aby pokazać, że T jest dodatni, zau\vażmy, że jeżeli x E H11 jest wcktore111 jednostkowyrn, to
p.(lx){xl) =Tr(Tjx){xl) = {xlTJx){xllx) = {xlTx) . Przedostatnia z powyższych
równości wynika z faktu, że za\vsze n1ożn a wybrać
bazę ortono rn1 al ną za\vierającą
x. Zatem dla każdego wektora jednostko\ve-
go x E H11 zachodzi
{xlTx) = µ( lx) {xl)
~
(8.38)
O.
Jeżeli y-/: Onie jest wektorem jednostkowym, to długość wektora x = ll~ll y już jest ró\vna 1 i podsta\vienie takiego x do (8.38) daje oczekiwany \vynik.
O
Uwaga 8.4.3. Paul Busch pokazał \V pracy (22), że n1iary probabilistyczne zdefiniowane na efektach 18 n1ożna zapisać w taki sam sposób, jak \V twierdzeniu Gleasona. Wynik Buscha opiera się na rozszerzeni u n1ia1y µ, pierwotnie zdefi nio\vanej jedynie na efektach, do funkcjo nału liniowego zdefiniowanego na wszystkich operatorach samosprzężonych, a następnie zastosowani u poprzedniego t\vierdzenia.
8.4.3. I Stany podukładów Zajn1iemy_się teraz dokładniej opisem układów złożonych. Niech H11 i Hm będą przestrzenian1i stanów dwóch rozróżnialnych układów k\vanto\vych. Tak jak pov1iedziel iśmy \vcześniej , przestrzeń stanó\v układ u złożonego jest iloczynem tensoro,vym H11 ® Hm . Stan układu złożonego jest odwzorowaniem sa111osprzężonym na H11 ® H,,. . Stan ta ki można zbudo\vać ze stanó\v pod ukła dó\V \V następujący sposób: jeżel i T 1 i T2 są stanan1i (rozpatry,vanymi ponownie jako odwzorowania samosprzężone) z przestrzeni H11 i Hm, to jak łatwo się przekonać, iloczyn tensorowy T 1 ® T2 definiuje odwzorowanie samosprzężone na H11 ® Hm (odwzorowanie T 1 ® T2 jest zdefiniowane dla stanów bazowych jako (Ti ® T2)(x ® y) = T1x ® T2y is Efekt E jest operatorem w L.,(H„) spełn iającym warunek O ~ E
~
I.
169
8. Dodatek A. Fizyka kwantowa
i linio,vo rozszerzone na H„ ® Hm)· W prosty sposób można też pokazać, że macierz od,vzoro,vania Ti ® T2 jest iloczynem tensoro,vym macierzy od\VZOro\vań Ti i 72. Podobnie obsenvable podukladÓ\V t\vorzą obsenvablę układu złożonego: jeżeli A i i A2 są obsenvablan1i podukładó\v (teraz reprezcnto,vanyn1i przez dodatnie samosprzężone od,vzoro,vania o śladzie ró\vnyn1 I), to A i ® A1 jest dodatniln samosprzężonym odwzoro\vanien1 \V H„ ® H,,, o śla dzie ró,vnym l. Także odwzoro,vanic identycznościo\ve I: H --+ 11 jest dodatnin1 san1osprzyżonym odwzorowaniem o śladzie równyn1 1, w związk u z czyn1 definiuje ono obsenvab l ę. Jednak obsenvabla ta jest malo in1ercsuj<1ca, bo,viern odpowiednia 111 iara spektralna jest zdcfinio,vana jako jeżeli
I E X, O \V przeciwnym przypadku,
_{ I Ei(X) -
tak \vięc Z\viązany z E1 rozkład pra\vdopodobieńst\va jest tfY\vialny: T r(TE1(X)) I, jeżeli 1 E X i O\V przechvnyn1 przypadku. Zau\vażmy także, że I posiada tylko jedną \Vartość \Vłasną (ró,vną 1), ale \vszystkie \vektory z H są \vektorami \vłasnymi /. Znajduje to odbicie ,.,, odpo,viednim rozkładzie H na podprzestrzenie ortogonalne: ,.,, rozkładzie tyn1 ~stępuje tylko jedna sklado\Va, san1a przestrzeń H. Wykonując zatern pon1iar obsenvabli /, nic obscnvujcmy żadnej nietrywialnej własności układu. Rzccży\viście, jeżeli Ti i T2 są stanami przestrzeni H„ i Hm, naton1iast A i i A2 są obserwablan1i, to latwo
=
za uv.rażyć, że
Tr((T1 ® T2)(A1 ® /)) = Tr(T1A1). Tr((T1 ® T2)(I ® A2)) Tr(T2A2).
=
Oznacza to, że obscnvacja złożonej obsenvabłi Ai ® I (odpo\viednio I ® Ai) odpo,viada obsenvacji jedynie pienvszego (drugiego) ukladu. W oparciu o ten fakt zdefiniujen1y teraz stany podukladó\v układu złożonego. Definicja 8.4.2. Niech Tbędzie stanen1 układu złożonego, którego przestrzenią stanÓ\v jest H„@ H,,,. Stanarni podukladÓ\V nazy,van1y dodatnie san10sprzężone Od\vzoro\vania o śladzie równym 1: T1 : H„ --+ H„ oraz T2 : Hm --+ 1-lm, ta kie że dla dowolnych obse1wabli J\ 1 i A2 Tr(T1A i ) = Tr(T(A 1 ® !)),
(8.39)
Tr(T2A2) = Tr(T(I ® A1)).
(8.40)
Mó\vimy, że stan Ti otrzymaliśmy przez \vyliczenie śladu \V przestrzeni H„„ a T2 prlez \vyliczenie śladu \ V przestrzeni li„. OczY'viście n1ożna niieć \vątpJi,vości co do istnienia i jednoznaczności stanÓ\V T 1 i T2, jednak szczęśliwie są one za\vsze 'vyznaczone jednoznacznie.
170
8.4. Stany kwantowe jako operatory
Twierdzenie 8.4.3. Dla każdego stanu T istnieją jednoznacznie określone stany Ti i T2, spełniaj ące dla wszystkich obserwabli A 1 i A2 równania (8.39) i (8.40). Dowód. Dowiedziemy jedynie istnienia i jednoznaczności stanu Ti, dowód dla T2 jest symelryc:.:ny. Najpier\v znajdziemy od,vzoro,vanie Ti, spełniające dla do,volnego odwzorowania linio\vego A : H„ -+ H„ ró,vnanie (8.41)
Tr(TiA) = Tr(T(A © !)).
W tym celu ustalamy w przestrzeniach H„ i H,,, ortonormalne bazy, odpowiednio {xi, ... , x„} i {y 1•• • • , y,,,} . Wykorzystując te bazy, możemy równanie (8.41) przep isać w postaci li
li
Ili
i= l
i=i
j=i
Jl
Ili
(8.42)
= L L(x; © YilT(Ax; © yj)) . i=I j=I
Przypomnijmy, że odv1zoro\vanie T 1 111ożna zapi sać w następującej formie: Il
T, =
11
L L cijlx;)(xj l, i=I
gdzie C;j
są
Wybierając
(8.43)
j=I
liczbaini zespolonyn1i (uwaga 8.2.5). A = lxk) (xd i podstawiając (8.43) do (8.42), otrzymujerny
Ili
C/k
=
L (x, @
YjlT( x k @
Yj)),
j=l
co daje li
li
Ili
T1 = L L L(x; © ydT(xj © Yk))l x;)(xj l i=I
j=I
(8.44)
k=I
jako kandydata na T1. Rzeczywiście, od,vzorowanie (8.44) jest sainosprzężone: 11
li
,,,
•'
Tj= L L L{T(xj © Yk)lx; © Yk)ixj)(xd i=I j = i k=i li
11
i=i j = i
111
k=i
171
8. Dodatek A. Fizyka kwantowa
=
=
Wybierając A I, widzimy też, że Tr(T1) 1. Czy od\vzoro\vanie dodatnie? Postępuj <}C analogicznie jak \V(8.34), rnarny
T 1 jest także
(xlT1x} = Tr(T1lx)(xi) = Tr(T(lx}(xl ® !))~O, zatem r, jest dodatnie, co ostatecznie dO\VOdzi istnienia odpowiedniego stanu Tr.
r;,
Załóżn1y
teraz, przeciwnie do tezy l:\vierdzenia, że istnieje inny stan taki że dla każdego samosprzężonego od\vzorowania A zachodzi Tr(T1A) = Tr(T[A). Wybierając A w posta.:i operatora rzutowego lx)(xl, dla dowolnego wektora także jest jednostkowego X mamy (xl(Tr - TDx} = O. Od\VZOrO\Vanie Ti samosprzężone , a więc istnieje ortonormalna baza przestrzeni H„ składająca się Z wektorów \Vłasnych Od\VZOrowania T1 - T!. Jeżeli \VSzystkie \VartOŚCi ·,vłasne T1 są równe O, to T1 = O, co kończy dowód. W przechvnym przypadku istnieje różna od zera wartość własna operatora T1 A1, oraz odpowiadający jej jednostkowy \Vektor własny x 1• Wtedy jednak
r;
r;
r;
r;,
(xd(T1 - TDx1 } =AJ (xdx 1} .rf O,
o
a \vięc otrzymujemy sprzeczność.
Oznaczmy stany otrzymane przez wyliczenie śladu w przestrzeniach H 111 i H11 jako, odpowiednio, T 1 = TrH„ (1) oraz T2 = TrH. (7). Przeprowadzając poprzedni clO\VÓd, \Vidzieliśmy, że li
Ti =
Il
LL
111
L (x; ® Yd T(xj ® Yk))lx;)(xj l·
(8.45)
i= I j=I k= I
Podobnie ,„
T2 =
,„
li
LLL i=I
(Xk ® y;IT(Xk ® yj)}ly;}(Yjl ·
(8.46)
j= I k=I
Łatwo się przekon ać, że
operacja
śladu
jest liniowa: TrHn (ctS + f31) =
= a:TrHn (S) + /3TrHn (1). Przykład 8.4.2. Przyjmijn1y notację z poprzedniego lematu. Jeżeli Sjest stanem układu złożonego fl11 ® fl111, to Sjest także odwzorowaniem JiniO\\'YID H„ ® H111 _, H„ ® H111 . Dlatego S n1oże być jednoznacznie przedstawione
w postaci li
S=
li
111
L L L L Srsrulx, Q9 y,)(x, ® Y11 I· 1:1
172
,„
1=1
s=I
11=1
(8.47)
8.4. Stany kwantowe jako operatory Łal\vo spra\vdzić, że
lx,® y,)(x, ® y„I = lx,)(xsl ® ly1){y11 I, tak \vięc możemy
napisać li
S=
/„
Il
LL
lx„)(x,I ®
każde
,,
L LSrs111 IY1) (y„I = LL lx„)(x,I ® S„„
r=I s=I
gdzie zbiór
li
Ili
t•I
(8.48)
r= I .t= I
1t=I
S,., E l(H,,,) (przypomnijn1y, że symbolen1 l(H111 ) oznaczamy
linio,vych Hm ---> H,,,). Warto zaznaczyć, że ostatnie \vyrażenie na Sjest rozldadem macierzy (8.47) o \vymiarach 11111 x 11111 na macierz blokO\Vą li X li, której elementami są macierze Srs O \Vymiarach Ili X Ili. Podstawiając równanie (8.48) do (8.45), po kilku przekształceniach otrzy. muJemy od\vzoro\vań
Il
/Il
l'I
li
r=I
i=I
j=I
r=I
Po,vyższy \vynik można zinterpretować następująco: jeżeli macierz gęstości odpowiadająca stano,vi S zapiszemy \V postaci macierzy błoko,vej 11 x 11 o elemen-
tach S„,, będących macierzami 111 x 111, to macierz gęstości odpo,viadającą stanowi układu S2 można otrzymać przez 'vysun10\vanie błokó\v diagonalnych S,„. Przykład
8.4.3. Zbadajn1y układ złożony H 2 ® H 2 - uldad d'vóch kubitÓ\V. Jako bazę ortonormałną przestrzeni H2 G H2 'vybicramy {IOO), IO I), IJ O), IJ 1)}.
Roz,vażmy (czysty) stan układu złożonego y = ~(IOO) +Ił I)). Stosując
ró\vnanic (8.45), \Vidzimy,
że
stanami podukladÓ\V są
S' = ~ IO) (Ol + ~Il) (li. Zapisuj<1c wektory bazo,ve '" tradycyjny sposób IOO) = (l, O. O, 0) T, IO I) = (0, ł , O, O)T, IIO) = (0, O, ł, O)T i II I) = (0, O. O, ł )T, otrzymujemy, że \V tej reprezentacji y jest ró\vne gęstości odpo,viadająca ł
I
Mly)(yl = 2
(~.O.O,~) T. Łal\vo tei pokazać, że macierz
stano\vi czystemu IY) (YI równa jest
OO
ł
„
OO0 0
O O O O • ł O O I
natomiast macierze gęstości odpo,viadające stanom S' są ró\vne I (
MS' = 2
l 0)
O ł '
173
8. Dodatek A. Fizyka kwantowa
co zgadza s i ę z wynikiem otrzymanym \V poprzednim przykładzie. Z drugiej strony, próbując zrekonstruować ze stanó\v s1 stan układu H2 © H2, st\vierdzamy, że
0 0 0 0 l 0 0 O O I O ' I
I
Ms' © My = 4
ooo
1
co jest \vynikiern różnyrn od ·A1t,)(rl· Pokazuje to, że stany podukłacló\\I S' otrzy1nane poprzez wykonanie operacji śl adu nie \\!)'Starczają cło określen ia stanu układu złożonego. Pomimo że stan układu złożonego całkowicie dete rminuje stany podukladó\V, bez docletkowych informacji nic ma możliwości od!>vorzenia stan u całego układ u z układów cząstkowych. Przykład
8.4.4. Przyjmijmy notację z poprzedniego przykładu. Jeżeli z E H„ © Hm jest wektorem jednostkowym, Io Iz) (z! odpowiada stanO'Ni czysten1u układu H„ ® H111 • Dla każdej pary (x, z) E H„ x H„ ® H111 istnieje jednoznacznie określony wektor y E H111 , taki że dla każdego y' E Hm (y'ly) = (x © y'lz). Rzeczywiście, załóżmy, że istnieją
dwa takie \vektory y 1 i y2 . Wtedy dla każ dego y' E H 111 zachodzi równość (y'ly, - y, ) =O, skąd natychmiast wynika, że Y1 = Y2· Z drugiej strony, \vektor Ili
y = L (x ® Yk lz)yk k=I
w oczywisty sposób spełnia wymagany warunek. Zdefini•.Jjmy odwzorowanie (" ) : H„ x H„ © H„, --+ H 111 jako Ili
(x, z) =
L (x © Yk lz)Yk· k;' I
Odwzorowanię
(„ ·)posiada własności przypominające \Vłasności iloczynu wewnętrzr~ego, takie jak łin io,vość względem drugiego składnika i antyliniowość 19 ,vzględem skladnika pierwszego.
Podstawiaj11c teraz do równania (8.45) S = Iz) (z!, \Vidzin1y,
że
li
S2 =
L l z))((xk, z)I. k=l
174
(8.49)
8.4. Stany kwantowe jako operatory
Poró,vnanie 'Y)'rażenia (8.49) z ró,vnaniem
wyjaśnia
nież,
li
li
k= I
k- 1
znaczenie termin u „operacja
śl adu
\Y przestrzeni". Zauważ n1y rÓ\Y·
że jeżeli 11
1n
11
111
z=L L ciix; ® y, =.L:x; ® L i=i j = i
i=l
CiiYi>
j=i Ili
to w oczywisty sposób (xk, z) =
L
Ckj Yj
i S2 przyj1nujc postać
j =i li
S2
Ili
111
=LIL Ckjyj}(L k=i
r-i
C.tj Yjl·
j =i
Twierdzenie 8.4.4 (Rozkład Schmidta). Zalóżn1y, że n ,:;; 1n. Niech z E H „ ® H 111 będzie wektorem jcclnostko,vyn1, a T 1 = TrH., (Iz} (zi) oraz T2 = Tr11• (Iz) (z!) stanami podukładÓ\Y, odpo,viednio, w L(H„) i L(H111 ). Niech {x 1, ... ,x11 } będzie ortonormalną bazą przestrzeni H11 złożoną z \vektoró\v \vłasnych Ti, a
reprezentacją spcktrałn<1
z= A
Ti . Wtedy
x1 © Y1 + ... + Ax11 © Y11,
gdzie {Y; : A; "I O} jest zbioren1 ortonormałnych \YCktorów własnych T2 ( niekoniecznie bazą H,,,). Dowód. Niech b 1 , .•• , b111 będzie ortononnalną bazą przestrzeni Hm. Wtedy \YCktory X; ® bi tworzą ortonormalną bazę przestrzeni H11 © H,,, i \\•ektor z może być przedsta\viony \Ypostaci li
llł
z=L L
li
CijXf
i=I j=I
® b1 = LX; ©
y;,
(8.50)
i= i
gdzie m
f; =
L
Cijb j .
j =i
175
8. Dodatek A. Fizyka kwantowa
Z drugiej strony możemy napisać Ili
z=
:L>.J @bj,
(8.51)
j= I li
L
gdzie xj =
C;jX;.
i=i
Zastosowanie \vyniku uzyskanego (8.51) daje
ni
Il
\Y
poprzednim
przykł adzie
Ili
111
li
li
k= I
k= i
i= I
j=l
do
\vyraże nia
(8.52)
Ił
=LLL C;kcjklx;)(xA. k=i
i= i j = i
Z drugiej strony Ili
(Y}IY~) = (L Cjkbd k- i
,„
m
,,,
L cub1) = L L l= i
k=l
111
cjkcu(bd b1) = L cjkcik.
/= I
k= I
tak \vięc (8.52) możemy przepisać w postaci Il
Il
Ti= L
L (Y}lf;) lx;)(xA.
i= i
Ponie\vaż
(8.53)
j=i
T 1 posiada reprezentację
spektraln ą
li
Ti =
L >.;!x;)(x;I, i=l
a przedsta\vienie (8.53) jest jednoznaczne, \vnioskujemy, że
(Y1'IY;') -_ { .A; O
jeże li j = i, \Y
przeciwnym przypadku.
Podsta\vienie y; = /'):;y; do \yYrażenia (8.50) daje szukany rozkł ad. Oczy\viście {y;: A; I O} jest zbiorein ortonormalny1n. Stosując \vynik uzyskany w przykladzie 8.4.3 do rozkładu li
z=
L i=i
176
/'):;x © y;,
8.4. Stany kwantowe jako operatory
\Vidzin1y, że li
Tz =
L >.;ly;)(y;I . i=I
Oznacza to, że Y1, .. . , y„ są wektorami ścion1 własnym ,\ 1, .. . , >.„.
\Yłasnymi
Tz odpo\Yiadającyrni wa rtoO
Lemat 8 .4.3 (Oczyszczenie (purification) ). Niech T E L(H„) będzie dowoł nyn1 stanen1 układu k\vanto\vego. Istnieje liczba całko\vita 1n oraz \Vektor jednostkO\VY z E H„ © H„„ taki że T = Tr11m (Iz) (z!). Don•ód. Niech
będzie reprezentacj ą spektralną
T. Wektor z skonstruuje111y w oparciu o poprzednie twierdzenie i przykład 8.4.3: ustalan1y 11 = 111 i niech y1, .. . , y„ będzie ortonormałną bazą w przestrzeni bi;dącej kopią H11 • Defini ujemy
z= fi;'x1© Y1 + ... + A,x11 © y„. od,vzorO\Yanie T jest dodatnie, wszystkie wartości \vłasne >.; są nieujen1ne i 111oże111y 'vyciągnąć z nich pierwiastki k\vadrato\ve. Może1ny także ła t\vo obliczyć długość wektora z: Ponie,vaż
gdyż ślad
T ró\vny jest 1.
Przyj111ując j eżel i
i= j ,
w przeciwnym przypadku, n1oże n1y zastosować
\vynik otrzyn1any ,.,, poprzedni111
przykładzie
i
pokazać
wprost, że li
li
o k= I
k= I
U\vaga 8.4.4. Po\V)'Ższy le1nat oznacza, że do\volny stan układ u k\vantowego może być interpreto,vany jako \Vynik wykonania operacji śladu na czystym stanie większego u k ładu . W przypadku, gdy T jest stane111 mieszanym, czysty stan Iz) (zl, taki że T = Tr11m (Iz) (zi), naZ)'\va111y oczyszczeniem stanu T.
177
8. Dodatek A. Fizyka kwantow a
.4.4. I Więcej o ewolucji czasowej Wierny już, jak należy i nterpretować abstrakcyjne pojc;cia matematyczne, takie jak stan (dodatni operator san1osprzężony o ś lad zie równyn1 1) i obserwabla (operator samosprzężony) . Po n ieważ pojęcia te odnoszą sic; do obicktó\v fizycznych, ró\vnie \vażne jest, abyśrny \viedzicli, \ V jaki sposób opis układu zmienia się \ V czasie. Innymi s łowy, powinniśmy u m ieć opisać e\volucję dynami czną u kład u. W podrozdziale 8.3.1 naszkico\val iśrny sposób opisu e\VOlucji czasowej \ V formalizmie wektoró\v stanu. Teraz omó\vin1y dok ład n i ej to zagadnienie w uj ęci u ogólnyn1. W tak Z\vanyn1 obrazie Schródingera stan układu zmienia się \V czasie, a obserwable pozostają niezmienne, natomiast w obrazie Heisenberga zn1ianie ulegaj ą obsenvabłe. Oba ujęcia są 111aten1atycz nie równoważne; rny przyj1nien1y obraz Schrodingera. Podob nie jak w podrozdziale 8.3.l , będziemy przyjmować, że sł uszn a jest także zasada przyczyno,vości. Mó>ń1 i ona, że stan układ u 1v pewnej ch'ńii li t jest określony przez stan układu \ V Ch\vili t = O. Maten1atycznie sens tego jest nastc;puj ąey: j eżeli w ch'ń1 i l i t = O układ H 11 znajduje się \ V stanie So, to istnieje funkcja V, : L(H 11 ) -> L(H„), taka że 1v da nej chwili t u k ład będzie się znajdował w stanie S, = V,(50 ) . Wynika stąd , że każda funkcja V, powinna zachowywać san1 osprzężoność, ślad oraz dodatniość operatorów. Pewne obiekcje może b udzić wymaganie, aby każda funkcja V, był a linio,va. Często
sta\via się też \varunek, aby każda funkcja V, by ła całko\vi cie dodatnia. Aby zdefi nio1vać pojęcie całkowicie dodatniego od1vzoro\vania linio1vego L(H11) _, L(H11), on1Ó'ń1 in1y teraz podstawo\ve \vłasności iloczynu tensoro1vego. Niech Hm będzie przestrzeni ą I-Iilberta z ortonormalną bazą {Yr, . . . , Ym}, gdzie 1n ~ I jest pewn ą liczbą naturalną . Jeżeli {x 1, • • • , x„} jest ortonorn1alną bazą H 11 , to 1v przestrzeni H111 ® H11 można \vybrać natura lną bazę {y; ®
Xj:
i E { 1, . . . , 111} ,) E { I , . . . , n}} .
W bieżącyrn podrozdziale bc;dziemy stoso\vać po\vyższą notację . Każde od1vzoro\vanie liniowe WE L(H111 ® H„) można jednoznacznie przedstawić 'ń' postaci 111
111
W= L L r=I
IYr}(Ysl® A„,,
(8.54)
s=I
gdzie każde A„, E L(H11 ) (patrz przykład 8.4.2). J eś l i stosujemy przedsta\vienie (8.54), to znaj omość każdego A,, jednoznacznie określ a W i vice versa. Jest tak dlatego, że
178
8.4. Stany kwantowe jako operatory
a do\volnc linio\vc od\vzoro\vanie \V Ak1 E L(H11 ) jest całkowicie wyznaczone przez \vartości (x;!Ak/Xj). Wynika to z faktu, że (8.54) opisuje 1nacierz W o \VY· 111iarach 11111 x 1nn jako macierz 1n x ni, której elen1entan1i są 1nacierzc n x n . Jeżeli V: L(H11 ) -+ L(H11 ) jest od\vzoro\vaniem liniowyn1, a W jest określon e przez (8.54), to definiujemy odwzorowanie lm © V: L(Hm ® H„) -+ L(Hm © H,,) jako
,,, ,,,
(1111 ® V)(W) =
L L IYr)(Ysl © V(A,.s). r=I
.<=I
Definicja 8.4.3. Mó\vimy,
że odv,1zorO\'łanie
cie dodatnie, jeże li dla dO\volnego 111 zachowuje dodat ni ość operatoró\v.
~
V: L(H11 ) -+ L(H11 ) jest całkowi
1 odwzorowanie rozszerzone !,,, © V
U\vaga 8.4.5. Intuicyjne znaczenie pojęci a całkO\Vitej dodatniości jest następu jące : zamiast rozpatrywać T jedynie jako stan układu kwantowego, moglibyśn1y również wprowadzić „otoczenie" Hm i traktov1ać !,,, © T jako stan układu złożonego Hm © H„ . Wymaganie, aby V było calko\vicic dodatnie oznacza, że funkcja opisująca zmianę \V czasie układu złożon ego musi także zacho\vy\vać dodatniość operatoró\v. Przyjmujemy, że ogólne operacje e\volucji czasowej ukladów k\vant
8.4.5. ! Twierdzenia o reprezent acji W podrozdziale tyn1 sforn1ulujemy d\va twierdzenia o reprezentacji opcratoróv,1 calkov1icie dodatnich. W tyn1 celu niusimy najpicf\v zapoznać się z kilkoma 'vynikami pomocniczymi. Lemat 8.4.4. Od\vzoro,vanic dodatnie A E L(H11 ) jest samosprzężo ne.
A oznacza, że (xjAx) ~ O dla każdego x E H11 • W szczegó lności (x!Ax) jest rzeczywiste, skąd (x!Ax) = (Axlx) dla każdego x E H11 . Z drugiej strony, dla każdego x E H11 także (xlAx) = {A' xlx). Oznaczając B = i(A - A•), man1y (Bxlx) =O dla każdego x E H11 • Ponieważ B jest samosprzężony, wiyc istnieje ortonormalna baza {x 1, .. . , x„} złożona z \Vektorów \vlasnych B i
Do,vód.
Dodat niość
179
8. Dodatek A. Fizyka kwantowa
B = . X iJx1}(xd + . .. + ..X„Jx„}(x„J.
(patrz reprezentacja spektralna (8.16)). Ale \Vtedy dla
każdego
i E {I , . ... 11}
O= (Bx;jx1} = ..Xi (x;Jx,) = ..x;,
a za te ni 8 =O, z czego natychmiast '''Ynika, że A =A· .
a
Lemat 8.4.5. Od,vzoro,vanie A E L(H11 ) jest <.lodatnie \vtedy i tylko \vtc<.ly, gdy istnieje ortonormalna baza {X1.... , x 11 } przestrzeni H„ oraz nieujemne liczby ..\1 .... , ..\11 , takie że A= ..\ilx1 }(xd + ... + ,\„Jx„}(xnl·
Do,vód. Załóżn1y, że (8.55) jest x E H„ 1nożna zapisać jako
reprezentacją
(8.55) operatora A. Kaidy wektor
X= ó 1X1 + · · · + 011X11. Wtedy (xlAx} = ..\ 1Jo11 2 + ... + ..\„ o„12 ~ O, a zatem A jest dodatni. Z drugiej strony, jeżeli A jest dodatni, to na mocy poprzedniego len1atu A jest samosprzc;żony. Zapisuj<1c A \V reprezentacji spektralnej, \vidzimy, że istnieje ortonorn1alna baza {x 1 , •••• x„} przestrzeni H,„ taka że
dla liczb rzeCZ)l\vistych ,\ 1.... , ..\11 • O ~
dla
Ponie\vaż A jest
dodatni, to
(x;jAx;} = (x;l..X;x;} = ..\;
każdego
i.
Q
Do\vód poniiszego t\vicrdzenia, pierwszego z t\vicrdzet1 o strukturze odwzorowań całkowicie dodatnich, pochodzi z pracy 125). Twierdzenie 8.4.5. Qd,vzoro,vanie łi nio\VC V: L(H„ ) ~ l(H11 ) jest całko\vi cie dodatnie \vtedy i tylko \vtedy, gdy istnieje 11 2 od,vzoro,vań V; E l (H„), takich że dla każdego A E L(H„) ,.-'
V(A) =
L V;AVt.
(8.56)
i= I
u,vaga 8.4.6. W środo,visku nauko,vcó\v zajn1uj ących się obliczeniami k\vanIO\vyrni rozkład (8.56) naZ)'\vany jest częst o rozkładem Krausa od\vzoro\vania całko,vicie dodatniego. Do,vód. Jeżeli (8.56) jest reprezentacją V, to należy pokazać, że dodatniość od,vzorowania 180
8.4. Stany kwantowe jako operatory Ili
W=
Ili
LL
IYr)(Ysl © Ars
r= I s=l
dodatniość
in1plikuje
od\vzorowania
,,, ,,,
ll l
Pokaże1ny
to za po rnocą bezpośredn ich przedstawić w postaci
obliczeń. Każde
z E Hm 18> H11
1nożna
N
LY<> 18> Xo,
Z=
o= I
gdzie N :(
11
2
oraz Yo E Hm i X0 E H11. Zapisując
N
LYo@ V;"x0
Z; =
o= I
lanvo
sprawdzić, że
(zl(Im 18> V)(W)z) =
L (z;I Wz;) ;;<: O, i= I
od\vzorowanie W jest dodatnie. Aby pokazać wynika nie w drugą stronę, zalóżn1y, że V jest od\vzorowanie1n calko,vicie dodatniin. Oznacza to \V szczególności, że !11 18> V powinno być dodatnie. Dla przejrzystości \vywodu oznaczamy bazy dwóch kopii przestrzeni H11 odpowiednio przez {y 1, ••• ,y11 } i {x 1, ••• , x11 }. Odwzoro,vanie W E L(H11 © H,.) zdefiniowane jako gdyż
Jl
W=
Il
LL
ly,)(Ysl © lx,)(xsl
„
r= I .t= I Il
11
= L L ly, ® x,)(Ys © Xsl r=I s= I li
li
181
8. Dodatek A. Fizyka kwantowa
jest oczywiście dodatnie. Powyższy zapis oznacza bo\vicm, że W jest z dokład nością do stałej operatorem rzutu na jedno,vymiaro,vą podprzestrzeń. Z faktu, że V jest całko,vicie dodatnie, \vynika, że n
(/„ ® V)(W) =
11
L L jy,)(Ysl ® V(jx,)(x,I) r=I
(8.57)
s=I
jest od,vzoro\vanicn1 dodatnim. Na mocy lematu 8.4.5 istnieje ortonormalna baza {v 1, . .. , v„2} przestrzeni H„ ® H11 oraz dodatnie liczby >", ... , „\,1, takie że (/„ ® V)(W) = Po\vyższc
(/„ ®
li
li
,,.'
r=I
s=I
i= I
L L jy,)(y„I ® V(lx,)(xsD = L A;lv;)(v;I .
rÓ\vnanic
„.,
V)(~\I)
możemy także przepisać
\V postaci
=L Ifi;v;}( fi;v;I.
(8.58)
i=I
Z \vektorcm
"
V
=
„
LL j =I
V;jYj ® X;
i= I
\Vi<1żemy
z przestrzeni H11 ® H11
. puiąco:
"
Vv =
od\vzoro\vanie Vv E L(H11 ),
określone nastę-
li
L L Vijlx;}(xjl ·
(8.59)
i=I j=I
Proste obliczenia pokazują, Ił
li
lv)(vl =
że
L L ly,.)(y„I ® v,, jx,.)(x, Iv;. r= I
(8.60)
.r: I
Teraz z każdy1n fi;v; \V wyrażeniu (8.58) \Vi
(/11 ® V)(W) =
=
LLL i=I
r=I
łJ
łl
jy,}(y,j ® V;jx,}(x,j V;'
.r=I
L L jy,}(Ysl ® L V;jx,}(x,j V;", ,.,. J s= I
182
n
i=l
8.4. Stany kwantowe jako operatory
co razen1 z (8.57) pokazuje,
V(lx„)(x,J) =
L
że
każdej
dla
paty r, s
V;jx„)(x, jV/ .
i=I
Pon ieważ
odwzoro\vania lx„) (xsl każdego A E L(H 11 ) n1a1ny V(A) =
rozpinają całą przestrzeń
L(H11 ), więc dla
L V;AV;' .
o
i=l
Dość użyteczne
klyteriu1n całkowitej dodatności stawie do\vodu poprzedniego twierdzenia.
można sformułować
Twierdzenie 8.4.6. Od\vzoro\vanie liniowe V: L(H„) cie dodatnie \Vtedy i tyl ko wtedy, gdy Ił
T=
~
na pod-
L(H11 ) jest całkowi
Ił
LL
IYr)(Ysl ® V(jx,)(x.J)
r=I .<=1
jest dodatnin1 odwzorowaniem H11 © H11
~
H11 ® H11 •
Do\vód. Jeśli V E l (H11 ) jest odwzorowaniem całko\vicie dodatnim, to T jest dodatnie z definicji, gdyż odwzorowanie li
Ił
L L IYr)(Ysl ® lx,)(xsl r=l s=!
jest dodatnie. Z drugiej strony, jeżeli T jest dodatnie, to V(A) =
reprezentację
L V;AV;' i=I
znajdujemy jak w do\vodzie poprzedniego t\vierdzenia. Zau\vaż1ny, że wy1nagałiśmy także, aby V zach owywało ślad. Lemat 8.4.6. Niech V : L(H,i)
~
o
L(H„) będzie całkowicie dodatnim od\vzo, 11·
rowaniem n1ającym postać V(A) =
L
V;AV;'. Odwzorowanie V zachowuje
i= 1 11'
ślad wtedy i tylko \vtedy, gdy
L V;"V; = I. i= I
183
8. Dodatek A. Fizyka kwantowa
Dowód. Niech {x1, .. . , x„}
będzie orto norn1aln ą bazą
przestrzeni H„.
Ponieważ li
I =
L
lxr) (xrl,
r=I
bezpośredni
rachunek pokazuje, że
i=I
i= I
i= I
r= I
r= I
= Tr(L
i=I
r= I
V;lxi)(xd V;*) = Tr(V(lxi)(xki)).
i= I
„z
Jeżeli
L V;" V; =I,
to
i=I
co oznacza, że V zacho\vuje ślad odwzorowania lx1) (xkl· Ponieważ V oraz operacja śladu są linio\ve, a od\vzoro\vania lx1)(xkl rozpinają całą przestrzeń l(H„), wi9c V zacho,vuje ślad. Z drugiej strony, jeżeli V zachowuje ślad do\vol-
„-,
nego odwzorowania linio\vego, to
L
\!;' V; = I, gdyż dowolne Od\vzorO\vanie
i= I
liniO\VC A E L(H„) jest \vyznaczone przez \vartości (xdAx1) .
o
Drugie ze wspomnianych \vcześniej twierdzeń , dotyczących odwzorowań cał kowicie dodatnich, łączy je z odvvzoro\vaniami unitarnymi i wskazuje cieka\vą interpretację .
Twierdzenie 8.4. 7. Qd,vzoro\vanie linio,vc V: L(H„) -> L(H„) zachowuje ślad i jest calko\vicie dodatnie wtedy i tylko \Vlcdy, gdy istnieje odwzorowanie unitarne U E L(H„ ® H„1) oraz stan czysty B = lb)(bl układu L(H„2), tak że dla każdego A E L(H„) \!(A)= TrHn-. (U(A ® B)U*) .
U\vaga 8.4.7. U ni tarną ewolucję czaSO\vą lx) (xl I-) IUx) ( Uxl
184
8.4. Stany kwantowe jako operatory można też zapisać
w postaci
lx) (xl >--> Ulx) (xlU * . twierdzenie głosi zatem, że do\volne całkowicie dodatnie od\vzoro\vanie L(H 11 ) __. L(H11 ) n1ożna interpreto\vać jako unitarn11 ewolucję czaSO\V1! zachodzqC
Ił
11
u• = L
L
r=I
s= I
lx„)(x, I ®
u„: .
Zdefi.niujen1y także Vk E l(H11 ) jako Ił
Il
vk = L l :
J eżełi teraz A=
to
li
li
i=I
j =I
L L aijjx;}(xjl,
bezpośredni li
VkAV! =
rachunek pokazuje, że Ił
Ił
11
L L L L (x„IAx,)(U;;ykllb)(b lU,j yk)lx;)(xil. i= I j=I
1-=l
1=1
Z drugiej strony, na podsta\vie (8.45), Tr11„1 (U(A © B)U*) =
11
2
j =I k= I IJ
Il
Il
Il
j=I
r=I
t=I
li
li
li
LL L L L(x„ © u,~YklAx, © BU,jyk)lx;}(xA k=I i=I li
=
możemy napisać, że
L L L (x; © ydU(A © B)U*(xj © Yk)}lx;)(Xjl i=I
=
(8.61)
LLLLL k= l
i= I
j= I r=I
(x„jAx,)(V;.;Ykllb)(blU,jyk)lx;)(xj l
t= I
185
8. Dodatek A. Fizyka kwantowa
lub wykorzystując (8.61), otrzymujen1y Tr11• 1 (U(A © B)U. ) =
L VkAv; . k=I
Stąd na 1nocy twierdzenia 8.4.5 odwzoro\vanie V jest całk0\\1 icie dodatnie. Aby pokazać, że V zachowuje także ślad, zauważmy, iż unitarne ochvzorov1anie U
przeprowadza ortonormaln<1
bazę
B '"inną bazę ortonormalną 81 , zatem
Tr(Uru•) = L (z'IUTU' z' ) = L (U*z'ITU*z') z' EB
'l1 € 8 1
T!EB'
operacJ·a s'ladu Trr1 , ·· L(H11 "0' '°' H 112) jest zdcfiniO\vana ró\vnaniem Ponieważ
--+
11-
L(H,,) , T 1--> T 1 =TrH i (7) n
dla każdego operatora rzutowego P E L(H 11 ), n1ozen1y Otrzymujemy \vtcdy
podstawić
P = !„.
Tr(Tr11 2 ( U(A © B)U*)) = Tr(U(A ® B)U' ) = n
= Tr(A © 8) = Tr(A)Tr(B) = Tr(A). Chcąc pokazać wynikanie w drugą stro nę, zakładamy, że V: L(H„) --+ L(H„) jest całkowicie dodatnin1 od,vzorowaniern linio"''Ym zacho\vuj11cyn1 ślad .
Z l\vierdzenia 8.4.5 \vynika, że V można V(A) =
przedsta\!.•ić
w postaci
L V;A V;*, i=I
przy czyrn
każde
V; E L(H„) oraz
?
11·
LV;V;* = !. i=I
Wybieramy teraz w do,volny sposób wektor jednostko,vy b E H„2. Dla dowolnego \Vektora x E H„ definiujemy U(x © b)= LV;x ® y;. i= I
186
(8.62)
8.4. Stany kwantowe jako operatory
W oczywisty sposób U jest liniowe \',izglądem x. Jeżeli x 1, x2 E H,„ bezpośred ne obliczenia pokazują, że
i=l j=l
,,„,
,
tł „
i= I
i=l j =l
,
11-
=L
(xilV;"V;x2} = (xdx2)
= (x1 © b lx2 © b).
i=I
Ozn aczaj ąc
H11 © b = {X® b : X E H11}
c H11 ® H112'
widzimy, że U : H 11 © b -+ H„ ® H11 2 jest od,vzoro,vaniem linio,vyn1 zachowującyn1 iloczyny 'vewnętrzne. Wynika z tego, że U m ożna rozszerzyć (zwykle na wiele sposobó,v) do od,vzoro,vania unitarnego U' E L(H11 ® H11 2) . Ustalan1y jedno rozszerzenie i oznaczamy je ponownie przez U. Jeżeli x jest dowolnyn1 wektorem jednostko,vym, to U(lx}(xl © lb)(bi)U• = Ulx ® b}(x ® b i U• = IU(x ® b)}(U(x © b)I ,
=IL
li"
V;x ® Y;}(L
i=I
Stosując
V;x ® y;j .
i=I
'vyni k uzyskany w p rzykładz i e 8.4.4, widzin1y,
że
,
,.i=I
=
L V;jx)(xlV;' = V(lx)(xl). i= I
Stąd
dla U zdefinio\vanego przez (8.62) oraz B = lb}(bi l\vierdzenie jest prawdziwe co najn1niej dla wszystkich stanów czystych lx}(xl. Ponie,vaż jednak odwzorO\vania liniowe A ,_. TrH , ( U(A © B)U* )
„-
oraz A ,_. V(A) dają ten sam wynik dla \vszystkich stanó-.v czystych, a dowolny stan n1ożna przedsta\vić w postaci wypukłej kon1binacji stanó\v czystych, odwzoro,vania te n1 uszą być równe. O
187
8. Dodatek A. Fizyka kwantowa
4.6. J Twierdzenie Jozsy o klonowaniu i usuwaniu Ostatnio Richard Jozsa podał silniejszą wersję t\vierdzenia o nieklonowaniu (48). 1\vierdzenie Jozsy można rozszerzyć tak, aby obejmo\vało również zasadę nieusu\vałności Patiego i Braunsteina (66). Twierdzenie 8.4.8 (Twierdzenie Jozsy o nieklonowaniu). Niech x 1, ... , x„ będą \Vektorami jednostko\vyn1i z przestrzeni H,„ 1aki1ni że (x;lxj) dla każ dej pary i, j. Niech O E H„ będzie \Vektorem jednostko\vym z H,„ a p 1, ... , Pk stanami z L(Hm). Całko\vicie dodatnie od\vzoro\vanie V E H 11 ~ H„ ® H,,. , takie że dla każdego i E { l , ... , k}
"O
V(lx;)(x;I ® 10)(01® p;) = lx;)(x;j ® lx;)(x;I ®
p:
istnieje \vtedy i tylko \Vtedy, gdy istnieje całkow i cie dodatnie odv1zoro\vanie V' E L(H„ ® Hm), takie że dla każdego i E {I, ... , k}
V'(IO)(OI ® p;) = lx;)(x;j ® p:'. U\vaga 8.4.8. Po\vyższe t\vierdzenic można interpreto\vać następująco: operacja fizyczna poZ\valająca na kopio\vanie stanó\v czystych lx 1) , • •• , lxk) (z dodatkową informacją p 1, ... , Pk> taką że p; należy do stanu lx;)) istnieje wtedy i tylko wtedy, gdy istnieje operacja fizyczna pozwalająca na \vyt\vorzenie stanu lx;) z dodatkowej inforn1acji p;. Przyjn1ując P1 = . .. = Pk = p, otrzy1nuje1ny klasyczne t\vicrdzcnie o nieklono\vaniu Woottcrsa i Zurka (t\vierdzenic 2.3.1). Do,vód. Jeżeli istnieje odwzoro\vanie V' E L(H„ ® Hm) spełniające \varunck
V'(IO)(OI ® p;) = lx;)(xd ® p;', to szukane od\vzoro\vanie V 1nożna tat\VO otr.i:ymać jako rozszerzenie. Załóżmy zatem, że istnieje od\vzorowanie V o własnościach podanych w za ło żeniach. Z len1atu 8.4.3 \yYllika, że każdy stan p; E Hm można przedstawić jako \vynik częścio\vej operacji śladu \yYkona nej na stanic czystym, \vyznaczonym przez \vektor y; E H,,, ® H,,,. Ponadto, na mocy l\vierdzenia 8.4.7, istnieje otoczenie H 0 , takie że V może być interpreto\vane jako Od\vzoro\vanie unitarne \V przestrzeni H„ ® H„ ® Hm® Hm® Ho: U(x; ® O® y; ® o)= x; ® X;® Z;,
gdzie o E H0 , a z; E H,,, ® Hm ® H 0 • Ponieważ U jest unitarne, wykorzystując lcrnat 8.2.5, 1namy, że dla każdego i,j E {I, .. . , k}
(x; ® 0 ® y; ® ojxj ® O® Yi ® o) = (x; ® X; ® zdxi ® Xj ® zj) . Ró\vnanie (8.63)
można zapisać \V
(8.63)
postaci
(8.64)
188
8.4. Sta ny kwantowe jako operatory
Z założenia zawsze mamy (x;lxj) -I O, a
\Vięc
(O© Y; © o!O© Yj © o)= (x; © z;l xj © Zj)
(8.64) daje (8.65)
dla każdego i,j E { 1, . . . , k} . Z lematu 8.2.8 'A'Ynika, że istnieje unitarne odwzorowanie U' E L(H11 ® Hm ® Hm® H0 ), takie że dla każdego i E {I, .. . , k}
U'(O® Y; © o)= x; © z;. Szukane od\vzorowanic V' otrzymujemy przez wykonanie operacji śladu \VH0 i drugiej kopii Hm . O Zasada nieusu'A1 al ności, sfo rn1 ułowana przez Patiego i Braunsteina (66], brzrn i n astępująco: jeżeli x 1, • •• , xk nie za\viera stanó\v ortogonalnych, to nie istnieje operacja fizyczna poZ\val ająca na usunięcie kopii x;. Oznacza to, że nie jest n1ożliwe (w rozu1nieniu następnego twierdzenia) wykonanie operacji
jx;)lx;) W na
>-+
jx)IO).
rzeelY'vistości istnieje n1ożliwość wykonania operacji usu\va nia: n1 ożna przykład, jak wskazano w pracy (66], u\vzględnić otoczenie i zdefiniować
.
operację
jx;)lx;) jo) ,_. jx;)IO)jo;), która w gruncie rzeczy polega jedynie na wymianie pon1iędzy otoczeniem a drugą kopią stanu x;. W takiin przypadku stan x; zostaje zachowany \V otoczeniu i n1ożna go dokładnie odtworzyć. Z drugiej strony, operacja wymaz)"vania jest wykonalna, j eżeli pFL)ljmiemy postula t rzutowania. Wystarczy wtedy dokonać obse1wacji drugiej kopii stanu lx;) lx;), a następnie zamienić stan wyj ściowy na IO) (48]. Twierdzenie 8.4.9 (Zasada nieusuwalności) . Przyjmijmy, że x 1 , ••• , x k E H 11 oraz O E H11 są określo ne jak \vyżej . Jeżeli istnieje całkowicie dodatnie odwzoro\vanie usu,vające d rugą kopię X;, tzn. Od\vzorowanie, dla którego speł nione jest
lx;)(xd ® lx;)(xd ,_. lx;)(xd ® jO)(OI,
„
to wektory X; n1ożna całko\vicie odtworzyć z otoczenia. Dowód. Za tóżn1y, że istnieje całko\v i c i e dodatnie odwzoro\vanie speł niające założe n ia hvierdzenia. Na mocy nvierdzenia 8.4.7 istnieją: przestrzeń H 0 , \vektory o, 01 , . .. , Ok E H0 oraz unitarne odwzorowanie U E L(H11 ® H11 ® H0 ), spełniające
U(x ; ® x; ® o)=
x; ® O® o;. 189
8. Dodatek A. Fizyka kwantowa
Z lematu 8.2.5 wynika, że dla każdego i,j E { 1, . . . , k}
(x; 0 X; 0 olxj © Xj© o) = (x; 0 0 © o;Jxj © 0 0 oj), co
n1ożna zapisać
jako
(x;Jxj)(x; 0 ojxj 0 o) = (x;jxj)(O0 o;jO0 Oj) lub (8.66)
(x; 0 ojxj 0 o)= (O0 o;JO0 Oj)-
Len1at 8.2.8 stwierdza, że istnieje unitarne od\'1zoro,vanic U' E L(H11 0 H0 ) , takie że dla każdego i E { I,. . „ k}
U'(x; 0 o) = 0 © o;. Ponieważ
U' jest unitarne, więc istnieje odwzoro\vanic od\vrotnc do niego, O a zatem istnieje możli\vość odzyskania z otoczenia stanów X;.
±] Zadania 1.
Pokaż, że
wynik operacji brania śladu
li
Tr(A) =
L (x;!Ax;) i=I
nie za leży od \vyboru bazy ortonormalnej {x 1 , • . • ,x11 } . 2. Pokaż, że jeżeli P jest operatorem samosprzężonym H„ istnieje podprzestrzeń W E H," taka że P = Pw.
-->
H„ i P 2 = P, to
3. Niech >- 1, •• • , .>- 11 będą \vartościami własnym i samosprzężonego operatora A, a { x1, .. . , x11 } ortonormalnyn1 zbioren1 odpo\v i adaj ących in1 wektoró\v wlasnych. Sprawdź, że A= >- dx1)(xd + ... + >-11lx11)(x11I ·
4. Wykaż
pra\vdzi\\1 0ść tożsamości
polaryzacyjnej
3
(xly) =
! L / (y + / xiy + / x). k=O
Posługuj ąc s ię
tym równaniem, pokaż, że jeżeli llAxll = llxll dla dowolnego x E H11 , to dla wszystkich x, y E H11 zachodzi (AxlAy) = (xly).
190
8.5. Zadania
5. UdO\vOdnij, że
.>..(ix1 )(x1 I + lx2)(x2D = .>..(lx~ )(x\ I + l x~ )(x~ I), gdzie I
= X1 COS O: -
I
.
X1
.
X2 $111 O:,
X2 =X ) Sin Cl'. + X2 COS O:,
a o: jest liczbą
rzeczywistą.
6. Udo\vodnij, że dla dowolnych x, y E H„ i A, 8: H„ IAx)(Byl =Alx)(ylB' . 7.
Opierając się
--->
H„ zachodzi ró\vność
na ró\vnaniu
p(t) = U(t)p(O)U . (t)
i reprezentacji U(t) =
e - iiH,
\vypro\vadź uogólnione ró\vnanie Schrodingera
1 t 1l
i ' p(t) = [H, p(t)).
„
9 Dodatek B. Podstawy matematyczne Celern tego rozdziału jest zaznajo111ienie czytelnika z podsta\vO\vy1ni pojęcia mi matematycznyrni wyko rzysty\vanyn1i w książce.
g.1.1 Teoria
gru p
l.1J Wiadomości wstępne Grupą
G nazywamy zbiór z od\vzoro\vaniem G x G
G, tzn. z reguh1, która jednoznacznie opisuje, w jaki sposób z pary uporządkowanej (g 1,g2 ), gdzie g 1 ,g2 E G, ut\vo rzyć elen1ent g E G. Działa nie to często nalY\vane jest 111110 żeniem lub doda\vaniem i oznaczane odpowiednio g = g 1g 2 lub g = g, + g2 . -'>
Ponadto wymaga si ę, aby grupa za,viera ła wyróżniony element, nalY\vany elementem jednostko,vym lub neutralnym. Element neutralny oznaczamy przez 1 (w notacji multiplikatywnej) lub O('v notacji addyty\vnej). DodatkO\VO n1usi istnieć operacja, która każdy element g E G przeprowadza w jego element od,vrotny f? 1 (\v notacji addyty\vnej element przechvny - f?). Działania określone \VG muszą spelniać następujące aksjomaty grupy (w notacji n1ultiplikaty,vnej): 1. Dla dowolnych elen1entów 81, 82 i 83, 8 1(g2f?3) = (g1g2)f?3. 2. Dla każdego g, g I = lg = g. 3. Dla każdego g, gg- 1 = g- 1g = I. Jeżeli dodatko,vo spełniona jest wlasność 4. Dla dowolnych elementó\v g1, 82, 1?182 = 828 1, to G naz)'\vamy grupą abelo,vą lub przemienną . 1 Ściśle biorąc, grupą pow in niśmy nazywać czwórkę (G, , I), gdzie G jest zbiorern elementów gru py, · oznacza mnożenie, -I od\vrotność, a l element neutralny. Jeżeli jednak nie będzi e to pro,vadziło do nieporozumień , to symbolem G będziemy oznaczać zarówno grupę jak i sam zbiór.
„-
Przykład
9.1.1. Zbiór liczb ca łko\vitych Z z dodawaniem jako działan iem grupo,vym t'.vorzy grupę abelową; Ojest elementem neutralnym, a odwzorowanie n ,...... - n od\vrotnością. Z drugiej strony, zbiór liczb naturalnych N ={ L, 2,3, . . . }
z tymi samymi działaniami nie tworzy grupy, gdyż po pienvsze N nie Jest zamknięty ze \VZględu na ochvrotność n ,...... - n, a po drugie w N nie istnieje cle1nent neutralny.
192
9.1. Teoria
rup
Przykład
9.1.2. Zbiór liczb zespolonych bez O tworzy grupę abelową wzglę dem mnożenia. Elernentem neutralnym jest 1, a odwzorov-+ z- • jest odwrotnością.
Przykład 9.1..3. Zbiór nieosobliwych macierzy (tzn. takich, których wyznacznik jest różny od O) nad C o wyn1iarach n x n t\vorzy grupę ze względ u na mnożenie rnacierzy. Grupę tę nażywa się grupą linio,vą nad C i oznacza się
ją
przez GL,,(C). Nie jest to jednak grupa abelo\va, chyba że n·= I i \vtedy n1amy do czynienia z grupą z poprzedniego przykładu. Wracając do aksjomatów grupy, z u\vagi na pie1wszy \Varunek możemy opuszczać nav;iasy i p isać po prostu g 1g2g3 = gi (g2g3) = (g1g2)g3. Ocz}'\v iście U\vaga ta jest słuszna ta kże dla iloczynó\v za\vie raj ących więcej n iż trzy elen1enty. Iloczyn g . .. g (k razy) biydzicmy oznaczać przez (kg \Vnotacji addyty,vnej). Definiujemy także g0 = l oraz g- k = (g- 1) k (Og = O, - kg = k(- g) w notacji adddytywnej).
t
9.1.2. I Podgrupy, warstwy Podgrupą
H grupy G nalY\vamy grupę za\va rtą ·w G \V następuj ącym sensie: H zawiera siiy v.1 G jako zbiór, a działa nia grupowe (iloczyn, odwrotność i element neutralny1) są działaniami w G zawężonymi do zbioru H. Fakt, że g1upa H jest podgrupą grupy G oznaczan1y przez H ~ G.
Przyjmijn1y, że H jest podgrupą n1ultiplikat}'\vnej grupy C. Warsnvą grupy G \vzględem podgrupy H (\vyznaczoną przez element g E G) nazywan1y zbiór (9. 1)
gH = {gh : h E H}.
Podamy teraz kilka prostych, lecz użytecznych u\vag. Po pierwsze, każdy element g E G należy do jakiej ś warst\vy, na przykład do gH. Jest tak, gdyż H jako podgrupa zawiera elen1ent neutralny 1, a zaten1 g = gł E gH. Wynika stąd, że \Varstv. y \vzględen1 danej podgrupy H pokrywają całą grupiy G. Zauważ1ny, że w szczegó lności dla dowolnego h E H nian1y hH = H, gdyż H jako grupa jest zamk nięta ze \VZględu na n1noże nie i każdy elen1ent h 1 E H należy do hH 1
('11 = h(h- 1h1)). Pozostałe
uwagi \V)•razirny \Vforn1ie
n astępujących
lemató\v. 1 Lemat 9.1.1. g1H = g2H wtedy i tylko wtedy, gdy g; g2 EH. Do\vód. Jeżeli g 1H = g2H, to musi istnieć h E H takie, że g2 = g ,h. Stąd 1 1 g ; g 2 = h E H. Z drugiej strony, jeżeli g ; g2 = h E H, to g2 = g1H, a zaten1 g2H=g1hH = g1 H.
O
1
1
U\vaga 9.1.1. Zau\vażmy, że g; g2 E H wtedy i tylko \Vtedy, gdy g; g1 E H. Jest tak dlatego, że H zawiera odv.1 rotno~<'i \vszystkich elen1entó\v z H, 1 Ele1nent neutralny
n1ożna interpretować jako
dzialanie puste.
193
9. Dodatek B. Podstawy matematyczne
a (g~ 1 g 2 )- 1 =g~ 1 g 1 • W notacji addyty\vnej warunek g~ 1 g 2 E H zapisujemy jako - g, + g2 E H. Lemat 9.1.2. Niech H będzie skończoną podgrupą grupy G. Wtedy wszystkie warst\vy grupy G wzgłęden1 H posiadają 111 = IHI elementów. Dowód. Z definicji (9.1) jasno \vynika, że każda warstwa 1noże rnieć co naj,vyżej 1n elen1entÓ\V. Jeżeli któraś z warstw posiada mniej niż 1n elementó\v, to dla pewnych h; '/: h1 musi zachodzić gh; = ghj. Pomnożenie obu stron tej równości przez g- 1 daje jednak h; = hj , co prowadzi do sprzeczności. o Definicja 9.1.1. Jeżeli g 1H = g2H, to mówimy, że g 1 przystaje do 82 modu Io H. Lemat 9.1.3. Jeżeli g,H '/:g2H , to także 8 1H n g2H = 0 . Do,vód. Załóżmy przeciwnie, że g 1H '/: giH mają \vspólny element g. Ponieważ g E g 1H n g2H, więc muszą istnieć h1, h2 E H, takie że g = 8 1h, = 82'12. Ale 1 1 wtedy mamy g1 =g2h2h~ oraz 81H=82h2h~ H =82h2H =gzH, co pro\vadzi do sp rzeczności. o Jeżeli
G jest grupą skończoną oraz H :::;; G, to li czbę warst\v grupy G\vzgl9dcm H nazywa1ny indekse1n podgrupy H w grupie G i oznaczamy symbolem [G: H]. Po ni e,vaż \varst\vy pokrywają grupę G, z lematu 9.1.3 wynika, że G jest sumą [G : H] rozłącznych \varstw \vzględem H, z których każda ma moc H (na mocy łen1atu 9.1.2). Otrzyn1a liśmy \vięc następujące t\vierdzenie
Twierdzenie 9.1.1 (Lagrange'a).
IGI = [G : H] · IHI.
Mimo iż l\vicrdzcnic Lagrange'a można łatwo udo\vodnić, nia ono głębokie konsekwencje: strukt ura grupy, która na pienvszy rzut oka może się 'V)'da\vać niezbyt skompliko\vana, jest na tyle złożo n a, że silnie ogranicza rzędy podgrup; rząd dowolnej podgrupy grupy skończonej G jest dzielnikiem rzędu grupy G. Wynika stąd, że grupa G, której rząd jest liczbą pienvszą, może n1ieć jedynie podgrupy try,vialne. Podgrupa trywialna jest to grupa, której jedyny1n elen1enten1 jest element neutralny, bądź grupa G.
>.1 .3. I Grupy ilorazowe Podgrupę
fi :::;; G nazY'vamy
normalną2, jeżeli
dla
każdego
g E G oraz h E H
zawsze ghg- 1 E H. Zauważmy, że \vszystkie podgrupy grupy abelo\vej są norn1alne. Ola podgrupy normalnej H :::;; G definiujemy iloczyn warstw g1H i g2H \Vnastępujący sposób: (g1H)(g1H) = (g1g2)H.
2 Podgrupy normalne nazywa się zn1ienniczyn1i - przyp. 1tu1n.
194
(9.2) także
dzielnika111i oorn1alny111i lub podgrupa111i 11ie-
Jednakże
jak \viemy, dwa różne elementy mogą definiować tę san1ą \Varst\vę: g 1H = g2 H nawet, gdy g 1 i- g2 • Czy wobec tego jest możlhve, że iloczyn warstw nie jest dobrze określony, tzn. czy zależy on od wyboru reprezentantÓ\V g1 i g 2 ? Odpo\vi edź jest negaty'\vna. Lemat 9 .1.4. Jeżeli H jest podgrup<) norn1alną, 81H = 8;H oraz g2H = g~ H, IO także (g ig2)H =
.- i - i
) - 1( ,,' ./)
I
I
. - i,
J
'6182 = 82 8i 8182 = 82 !182
16182
1 1 1 =82 hig2g2 ii = g2 h1g2h2 E fi.
Wniosek, że g2i h1g2h2 E H, \\iyni ka z faktu, i ż g2 h1gi należy do H, gdyż H jest podgrupą normalną . St ąd na mocy lematu 9.1.l (gig2)H = (g;g~)H. O 1
Pojęcie
iloczynu warstw ponvala na zdefinio\vanie grupy ilorazowej G/ H.
Definicja 9 .1.2 . Niech H :,;; G będzie podgrup
9.1.4.
mamy IG/ H I = [G : H]
RoZ\vażmy
ustaloną liczbę całkowitą
podzielne przez /1
Z, grupę liczb całko\vitych z dodawanien1, oraz n. Jak łatwo sprawdzić, \vszystkic liczby całkowite
t\vorzą podgrupę
nZ = { . .. , - 311, - 2n, - n,O,n,2n,3n, . . . },
Wszystkie warst\vy \vzględc1n podgrupy 11Z 111 ają
postać
k + 11'1!, = { . . . , k - 3n, k - 2n, k - n, O, k + n, k + 2n, k + 311, ... } .
D\vie liczby całko\vite k1, k2 przystaj ą n10dulo 11.Z wtedy i tylko \Vtedy, gdy k 1 + n'll, = k2 + n'l, co na mocy lematu 9.1.l zachodzi \vtedy i tylko wtedy, gdy k2 - ki E nZ, tzn. k2 - ki jest podzielne przez n. Grupa ilorazO\va 'l/(n'Ł) oznaczana jest Z\vykle przez 'Ł11 • Definicja 9.1.3. Jeżel i liczby calko\vite k1 i k2 przystaj ą modulo nZ , to mówimy równ i eż, że k 1 i ki p rzystają modulo n, co oznaczamy k1 = ki (mod n).
195
9. Dodatek B. Podstawy matematyczne
Zajmiemy się teraz podgrupan1i skończonej grupy G specjalnego typu. Wybierzn1y do,volny element g E G i rozważmy zbiór } {8,o ' gl ,15,2' . . .•
(9.3)
Zbiór (9.3) za,viera się \V G, a zatem jest skończony. Wynika z tego, że dla pewnego i> j musi zachodzić ró\vnośćg; = gi. Obustronne 'vymnożenie przez (gi)- 1 daje gi- j = I, co uzasadnia poniższą definicją. Definicja 9 .1.4. Niech G będzie grupą skończoną, ag E G do,volnyn1 elementem tej grupy. Najn1niejszą dodat n ią l iczbę całkowitą k, taką żegk = I, nazywamy rzędem elementu g i oznaczamy k = rz(g). k = rz(g), to dla dowolnego całko\vitego rn n1amy =g11"' =g1. Ponadto łatwo się przekonać, że zbiór (9.3) jest pod-
Wynika z tego,
1 g +km
=g1I"'
grupą abelową
że jeżeli
grupy G.
Rzecz:ywiście,
zbiór ten jest zamknięty ze \VZględu na
mnożenie, a od,vrotność elementu g1 można przedstawić jako g- I+km, gdzie 1n
jest dowolną liczbą całko,vitą. Mówimy, że zbiór (9.3) jest podgrupą cykliczną grupy G genero,vaną przez element g, co oznaczan1y przez
(g} = {gO,gI ,g2 ' ... ,gk-
1}
.
(9.4)
Na n1ocy t\vierdzenia Lagrange'a k = rz(g) = !(g}I zawsze jest dzielnikiem !Cl. Tym samym otrzymaliśmy Stwierdzenie 9.1.1. Dla każdego g E G mamy glGI = I. Dowód. Po n ie\l1aż IGI jest podzielne przez k = rz(g); istnieje liczba calko,vita l, taka że IGI = k · l, a zatem glGI = gk·I = 11 = I. o
9.1 .4. IGrupa .z~ ponownie grupę .Z„. Chociaż dzialanien1 grupowym jest doda\vanie warstw, to łatwo spra\vdzimy, że także iloczyn warshv RoZ\vażmy
jest dobrze określony. Rzeczywiście, niech k1 + n'll = k; + nZ oraz k2 + nZ = "'2 + nZ. Wtedy k 1 - Ki oraz k2 - "'2 są podzielne przez n, a także k1 k1 Ki J!i = (k1 - Ki )k2 +!li (k2 - "'2) jest podzielne przez 11. Stąd k1k2 + nZ = !li "'2 + n?l. Warst,va I + nZ jest oczywiście elementem neutralnym względem mnożenia. Jednak warstwy k + nZ nie tworzą grupy 1nultiplikaty\vnej, gdyż nie istnieją
196
9.1. Teoria grup
których nwd(k, 11) > I. Aby się o tym przekonać załóżmy, że k + 11Z posiada element od,vrotny k' + nZ, tzn. k/Ć + 11Z = I + 11Z. Oznacza to, że kK - I jest podzielne przez 11, a zatem podzielne także przez nwd(k, 11). Ale wtedy l musia łoby być podzielne przez nwd(k, 11), co jest nien1ożliwe, gdyż nwd(k, 11) > I. od,vrotności \Varst\v k + 11Z, dla
Aby ominąć problem elementów, które nie posiadają od,vrotności, definiujemy z;, jako zbiór \VSzystkich \Varst\v posiadających Od\VrOtnOŚĆ ze \VZgłędu na mnożenie. W ten sposób Z7, staje się grupą multiptikaty\vną.3 Jak \vidzictiśmy, żadna z \varstw k + 11Z, dla której nwd(k, 11) > l, nie należy do Z~ . Teraz pokażemy, że z;, składa się dok ładnie z \varsnv k + 11Z, takich że nwd(k, 11) l (za u,vażmy, że \Vłasność ta jest ni ezależna od wyboru reprezentanta k). W tyn1 celu musimy znaleźć odwrotność każdej takiej warst\Vy. Zadanie to ułanvi nam poniższy lemat.
=
Lemat 9.1 .5 (Tożsamość Bezout). Dla do,vołnych liczb naturalnych x,y istnieją liczby całko,vite a i b takie, że y. Ponieważ nwd(x - y,y) jest dzielnikiem x - y oraz y, to musi dzielić także x, więc nwd(x - y,y) ~
nwd(x,y). Podobnie n\vd(x,y) ~ n\vd (x - y,y), a zatem n\vd(x - y,y) = nwd(x,y). Korzystamy teraz z założenia indukcyjnego ,vzgłędem pary (x - y, y) i otrzymujemy liczby a' oraz b' takie, że a'(x - y) + b'y = n\vd(x - y,y) = nwd(x,y),
co daje szukane liczby a= a', b = b' - a'.
o
Jeżeli
nwd(k, 11) = l, to możemy zastosować powyższy len1at do znalezienia odwrotności \varst\vy k + 111..: niech a i b będą liczbami całkowitymi, takin1i że ak + bn = l. 1\vierdzimy, że \varst\va a+ nZ jest szukanym elementem od\vrotnym. Można to łatwo spra\vdzić, ponie,vaż ak - I jest podzielne prlez 11, więc mamy ak + nZ = l + 11Z i dlatego (a+ 11Z)(k + 11Z) = I + 11Z. lic elementów zawiera grupa Z~? Ponieważ \vszystkie warst\Vy względern podgrupy 11Z są postaci k +n Z, gdzie k może przyjmować wartości ze zbioru {O, ... , 11 - I}, więc musimy \V tyrn celu sprawdzić, ile z tych wartości k speł nia 'varunek nwd(k, 11) = l. Liczba takich \Vartości k oznaczana jest przez cp(11) = 1z:,1 i nazY'va się funkcją
rzecz bardziej algebraicznie, grupa Z~ jest grupą jednostkową pierścienia Z11 • Dzięki ternu, że 11Z jest idea tern pierścienia Z, iloczyn warstw jest dobrze określony.
197
9. Dodatek B. Podstawy matematyczne
Rozważrny
najpierw przypadek, gdy n = p"' jest potęgą liczby pierwszej. Wtedy jedynymi liczbami ze zbioru {O, l, .. . , p"' - 1} niespełniającymi warunku nwd(k,p"') = I są liczby Op, lp, 2p, ... , (p"'- 1 - l)p, zatem <.p(p"') = p 111 - p 111 - 1 • W szczególności dla liczb pierwszych mamy <.p(p) = p - I. Załóżmy teraz, że n = 11 1 · •.• · n,, gdzie liczby n; są paran1i \vzględnie pie1wsze, tzn. nwd(n;, nj) = I dla i 'I j. Chcemy pokazać, że <.p(n) = <.p(ni) · . .. · <.p(n,). W tym celu przedstawimy dobrze znane twierdzenie: Twierdzenie 9.1.2 (Chińskie twierdzenie o resztach). Niech n= 11 1 · ••. ·n,, gdzie 11\vd(n;, nj) = 1 dla i 'I j. Wtedy dla danych \Varst\v k; + n;'Ł, gdzie i E { 1, . .. , r}, istnieje jednoznacznie określ ona warstwa k + n'Ł względem podgrupy n'Ł, taka że dla każdego i E { l, . . . , r} zachodzi k + n;'Z = k; + n;'Z . Do,vód. Niech 111; =n/ n;= n 1 • .. • • n;_ 1n;+ 1 • ••• · n,. Wtedy oczywiśc i e nwd(n1.;, 11;) = l i na mocy len1atu 9.1 .5 istnieją takie liczby całkowite a;, h;, że a;1n; + b;n; = l . Niech
Wtedy k - k; = a1nr1k1 + .. . + (a;111; - l)k; + .. . + a,nr,.kr
jest podzielne przez n;, gdyż podzielne jest każde 1nj dla) 'I i. Podzielne przez n; jest też a;1n; - 1, ponie\vaż a;1n; + b;n; = 1. Wynika z tego, że k + n;'Ł = k; + n;'Ł, co do\vodzi istnienia szukanej \varst\vy k + n'l . Jeżeli ponadto dla każdego i spełniona jest równość /( + n;'Ł = k; + n;'Ł, to /( - k jest podzielne przez każdą z liczb n;. Ponie,vaż jednak liczby 11; są \vzgl ędnie pierwsze,/( - k jest podzielne także przez 11 = 11 1 · . •• · 11,, skąd /( + 11Z = k + n Z . O 0CZ)'\Viście każda
„
\Varstwa k + 11Z E z~ definiuje \Varstw k + n;'l E 'Ł~, . Jednak na mocy ch ińskiego t\vierdzenia o resztach 'vszystl 1, to także d = nwd(k', 11;) > 1 dla pewnego i oraz takiego /(, że k = /( K'. Ale \vtedy IĆ !(' + 11;'Ł = k + n;'Ł ~ z:,. Wynika stąd , że
a zatern
1.p(111) · ... · 1.p(11r) = 1z;,, 1· .. . · IZ7.,I = 1z;,, 198
x ... x
Z7,,I = 1z;,1=1.p(n).
Teraz n1 oże1ny j uż policzyć rząd grupy Z7i: niech /1 = p~' · . .. · p~' będzie rozkladen1 liczby /1 na czynni ki pier.vsze, p; /; Pj dla i/. j. Wtedy a' )
· · · · · 'P
(pa')
=p ~· ( I - ..!_) ·. p, Wykorzystuj ąc
grupy
r
„
·
=
(pa ' I
-
a 1- i)
Pi
p ~, ( I - - )
1 p,
·····
(p"' r
-
(1, - 1)
P„
=n ( I - ..!_) ·. p,
„
·
(
1-
..!._) .
~
oznaczenia z definicji 9.1.3, zastosujmy stwierdzenie 9.1.1 do
z;,:
Stwierdzenie 9.1.2. Jeżeli nwcl(a, n)= 1, to av;<11>
=l
(1nod 11).
Wynik ten znany jest jako nvierdzenie Eulera. Jeżeli n = p jest liczbą pier.vszą, to
Ko ngruencja (9.5) nazywana jest
(9.5) 1n ałyn1
hvierdzenien1 Fern1ata.
9.1.S. I Homomorfizmy grup Niech G i H będą grupami mulliplikatywnymi. Definicja 9.1.5. Odwzorov1anie f: G ~ H takie, że f(g 1g2 ) = f(g1)f(g2) dla \vszystkich g 1,g2 E G nazY\va się homomorfizmem grupy G \V grupę H. St\vierdzan1y też, że f( l ) =f( l · 1) =f(l )f(l), a więc f(l) =I. Ponadto 1 = f( 1) = f(gg - ') = f(g)f(g - i), czyli f(g i) = f(g) - i . Przez indukcję można pokazać, że f(1/) = f(g)k dla do\vołnej liczby całkowitej k. Definicja 9.1.6. Niechf : G ~ H będzie homomorfizmem grup. l. Zbiór Ker(f) =1·- 1( 1) = {g E G:f(g) = l} nazY\va sięjądren1 /
2. Zbiór Im(f) =f(G) = {f(g) :g E G} nazY\va się obrazem / Jeże li f (ki) = f(k2) = I, to także f(k1 k2) = I i f(k~
= I. Oznacza to, że Ker(/) jest zamkn ięte ze względu na mnożenie i ocl\vrotność, a w i ęc Ker(f) jest podgrupą grupy G. Rzeczywiście, jeżeli k E Ker(f), co także 1 )
f(gkg - i) = f(g)f(k)f(g) - 1 = f(g)f(g) - 1 =I , zatem Ker(f) jest na\vet podgrupą norn1alną. Można też pokazać, że In1(f) jest podgrupą grupy H, jednak niekoniecznie podgrupą normalną. Mó\virny, że hon101norfizn1 f: G ~ H jest injekty\vny (różnowartościowy) , jeże li dla g 1 f;g 2 man1y f(gi) /;f(g2), su1jektyvmy (na), j eżeli f(G) = H oraz
199
9. Dodatek B. Podstawy matematyczne bijekłJ'vny
(\vzajen1nie jednoznaczny), gdy jest jednocześnie injektywny i surjektywny. Hon1omorfizmy injekt)l\vne, surjekt)l\vne i bijektywne naZ)'\vamy odpo,viednio 1nono1norfiz1na1ni, epilnorfizmami i izomorfizmami. Grupy G i G' są izon1orficzne, co oznaczamy przez G '.:::'. G', j eżeli istnieje izomorfizn1 / : G-+ G'. Zauważmy, że grupy izomorficzne różnią się jedynie oznaczeniami (każdy element g zastępujemy przez/(g)). Interesującą własność określa następuj<1cy len1at: Lemat 9.1.6. Niech/: G -+ H będzie hon1omorfizmem grup. Grupa ilorazowa G/ Ker(/) jest izornorficzna z Irn(H). Do,vód. Na początek zauważn1y, że T111(H) za\vsze jest podgrupą H, a Ker(/) jest podgrupą n orrnalną G, więc można zdefiniować grupę ilorazową G/ Ker(/). Dla uproszczenia zapisu oznaczamy K = Ker(.f). Zdefiniujmy teraz funkcję F: C/ K -+ Im(H) jako F(gK) = /(g). Najpienv musimy sprawdzić, czy F jest dobrze określona, tzn. czy \vartość F nie zależy od \vyboru reprezentanta wa rst\vy g. Jeżeli g 1K=g2 K, to wobec le1natu 9.1.1 g) 1g2 E K. Z definicji K rnan1y, że /(g) 1g2) = l, z czego \vynika, że /(g 1) = /(g2) oraz F(g, K) = f(g1) = /(g2) = F(g 2K). W OCZ)'\visty sposób F jest homomorfizn1en1. F jest też injekt)l\vne: jeżeli F(g 1K) = F(gzK) , to z definicji /(g 1) = /(g2 ) , \vięc 1 /(g) g 2) =I, co oznacza, że g) 1g2 E K. Na mocy lematu 9.1.1 man1y g 1K = g2K. Oczywiście F jest surjekt)'\vne, a zatem F jest izomorfizmem. O
.1.6. I Iloczyn prosty
1
grupan1i. Iloczynowi kartezjańskicn1u C x G' nadać st rukturę grupy, definiuj ąc działanie
Niech G i G'
będą
niożen1y
(g1 .g~ )(gz ,g~) = (g1g2, g',g~). Łatwo spra\vdzić, że
grupie G x G' elementem neutralnyn14 jest (I , I'), 1 a (g,g') >-+ (g- 1,g'- ) jest od~·rotnością. Grupa C x C' naz)'\va się (ze\vnętrz nym) iloczynem prostym grup C i C'. Iloczyn prosty jest przemienny, gdyż grupy G x G' i G' x G są izomorficzne; izomorfizm określony jest przez (g,g') >-+ (g',g). Zachodzi też (G1 x G2) x G3 ~ G 1 x (C2 x C3 ) (izomorfizm określony jest przez ((gr ,g2), g3) >-+ (g,, (g2,g3))), wi ęc iloczyn ten n1oże n1y zapis)'\vać jako G1 x G2 x G3. W naturalny sposób można to uogólnić na iloczyn prosty dowolnej liczby grup. Jeżeli Hr i H2 są podgrupan1i grupy G, takirni że G jest izomorficzne z H 1 x H2, to mówimy, że G jest (we\vn ętrznym) iloczynem prostym podgrup H 1 i H2. Piszerny także, że G = H 1 x H2. Zauważmy, że w takin1 przypadku H 1 4
200
\V
1 oraz I' oznaczają odpowiednio e lementy neutralne grup G i G'.
9.2. Transformaty Fouriera
(a także H2) jest podgrupą normalną. Aby to H 1 x H2 oraz Hi = {(h, 1): h E Hr }. Wtedy
pokazać utożsarnimy
G,
(h i, h2)(h, l)(h1,h2)- i = (h1hh ~ i, l) E Hi ,
a więc H, jest Następuj ący
podgrupą norn1alną.
len1at powoduje,
że poj ęcie
grupy ilorazowej staje
się
bardziej
naturalne: Lemat 9.1. 7. Jeżeli G = Hi x H1 (wewnętrznie), to G/ H 1 ::::: H2. Dowód. Ponieważ G =Hr x H2, istnieje izon1orfizr11 f: G -+ Hi x f/2, który każdernu elementowi g E G przypisuje reprezentację f(g) = (h 1, h2), gdzie '11 E Hr, h2 E H2. Od\vzorowanie p: Hr x H2 --+ H2, zdefiniowane jako p(hi, '12) = h2, jest w oczY'viście homomorfizn1em surjektY'vnym, nazywanym rzutem na H2. Ponie\\1 aż 1· jest izomorfizmem, złożenie odwzoro\va ń pf: G--+ 1-12 także jest hon1on1orfizn1en1 surjektY'vnyrn. Zau\vażmy, że p(j(g)) = 1 \Vtedy i tylko wtedy, gdy .f(g) = (hr, l ), co zachodzi wtedy i tyl ko \vtedy, gdy g E H1. Oznacza to, że Ker(pf) =Hi, a zatern na inocy lenia tu 9.1.6 mamy G/ Hi ::::: H2. O 9.1.5. RoZ\vażmy ponownie grupę z;,, przy czyin n = p';' · ... · p~' jest rozkładem liczby n na czynniki pierwsze. Można pokazać, że odwzorowanie Przykład
wyst<;:pujące '" chińskin1
t\vierdzeniu o resztach, jest izomorfizn1em.
9.2. I Transformat y Fouriera
I
9.2.1. Charaktery gru p abelowych Niech G będzie skończoną addytywną grupą abe]o,vą. Charakterem grupy G nazY'van1y hon1on1orfizin X : G --+ C\ {O}, tzn. każdy charakter spełnia warunek X(g i + g2) = x(g1)x (g2) dla dowolnych ełen1entów g i. g2 E G. Wynika z tego, że x (O) = 1. Oznaczając n = IGI, na mocy st\vierdzenia 9.1.1 mamy X(g)" = X(ng) = X(O) = I, a zatem \vartości charakte rów są pierwiastkaini stopnia n z j ed n ości. 5 Interesujące
jest, że względem mnożenia charakteró\v Xr x 2 : G --+ C, zdefiniowanego jako Xr x2 (g) = X i (g)x2(g), charaktery tworzą gru pę abelO\Vą. 5
Pierwiastek stopn ia 11 z jedności jest 10 liczba zespolona spełn iająca równanie ..1"
= I. 201
9. Dodatek B. Podstawy matematyczne ~
Grupa ta naZ)'\va się grupą dualn:} do C i oznaczana jest przez C. E lement neutralny grupy dualnej xo nosi naz\vę charakteru t!"Y'vialnego i jest zdefinio\Vany przez warunek xo(g) = 1 dla każdego g E C. Odwrotność charakteru x, oznaczana przez x- 1, zdefiniowana jest przez waru nek x- 1(g) = x(g)- 1. Przykład
9.2.1. Wyznaczn1y charaktery grupy cyklicznej
C = {g, 2g, .. . ,(11 - l)g,11g =O}. Łat\vo spra\vdzić, że każda
grupa cykliczna rzędu n jest izon1orficzna z Z,„ czyli jest addytywną grupą liczb całkowitych niodulo 11. Możerny \vięc przy badaniu grup cyklicznych traktO\vać grupę Z 11 jako „prototyp''. Dla dowolnego ustalonego y E Z defin iujemy odwzorowanie Xy : Z -> (['. jako 2::i.n·
Xy(x) = e--.-- .
Ponieważ e2" ; = l, Xy posiada okres ró\vny n. Praktycznie nioże n1y więc Xy traktować jak odwzorowanie Z„ -> C. Ponadto mamy Xy(x) = xx(y), więc 1110żemy założyć, że
Xy(x + z) = e
y E Z11 zan1iast y E Z. Teraz
2 ~ i\(.A
·
+ :l
2::in·
2::i:.\'
= e" e"
= Xy(x)xy(Z),
co oznacza, że każde Xy jest charakterem Z 11 • Dodatkcnvo, jeżeli y i z są reprezentantami różnych \varst\v modulo 11, to także Xy i Xi są różne. Gdyby bo2::1)·
2:ri:
wiem zachodzi ło Xy = Xv to w szczególn ości Xy( I)= Xz( l), tzn. c " = e 7 , a \vięc y =z+ k · n. dla pewnej liczby całkowitej k. Ale \vtedy y i z reprezentuj
= Xa+b , a zatem charaktery Z„ także t\vorzą grupę cykliczną rzędu 11, generowaną na przyk ład przez X1. Możemy to podsumo,vać następująco: grupa dualna do Ł11 jest izomorficzna z Z 11 , a zatem grupa dualna do dowolnej grupy cyklicznej jest z tą grupą izomorficzna. Fakt ten można uogólnić: na niocy dobrze znanego ~·ierdzenia, każda skończona grupa abelo\va G ni oże być przedstawiona w postaci sun1y prostej 6 (lub iloczynu prostego, jeżeli działan iem grupowyn1 jest mnożenie) grup cyklicznych G;: C -- G I
6
202
ili ~ ...
a> ~ CIli•
(9.6)
Grupa G jest sumą prostą podgrup C 1, . •• , Cn„ jeśl i każdy e le ment C ma jednoznaczną reprezentację g 81 + . . . + g11 gdzie g; E G;.
=
„
9.2. Transformaty Fouriera ~
Lemat 9.2.1. Niech G będzie grupą abelową jak \vyżej . Wtedy C ::::; C. ~
przykładu
~
G; ~ C; dla każdego i. Wystarczy wi ęc pokazać, że G = C1 EE> •.. E9 Gm. W tyrn celu załóżmy, że Xi, ... , Xm są charaktera rni G1, ... , G,,,. Pon ieważ C = G1 E9 ... E9 Gm, każdy elernent g E G można jednoznacznie przedsta\vić ·w postaci Dowód. Z
~
9.2.l wiemy,
~
że
~
g =g1+ . .. +g„„ gdzie g; E C;. To pozwala nam na zdefinio,vanie funkcji
x:G _, C \ {O} jako (9.7)
teraz zobaczyć, że x jest charakterem G. Ponadto, jeśli nieje element g; E G;, taki że x ;(g;) f X;(g;). Stąd Łat\vo
xj f X;, to ist-
x'(g;) = x 1CO) . . . x;(g;) . .. x,,,(O)
f
X1(0) · · · X;(g;) · · · Xm(O) = X(g;),
co oznacza, że charaktery C zdefiniowane ró\vnaniem (9.7) są różne dla róż nych Xi, .. . , Xm· Z drugiej strony wszystkie charaktery G mogą być wyrażone ró,vnaniem (9.7). A zatem, jeżeli X jest charakterem G, to r11ożen1y zdefiniować X; przez zawę żenie x do G;. Łat\vo teraz st\vierdzić, że każdy X; jest charakterern G; oraz X = X1 · · · Xm· O Aby zil ustrO\\•ać
pojęcie
charakteru, omówin1y teraz kilka przykładów.
Przykł ad 9.2.2. Rozważmy IF'~', 111-\vymiarową przestrzeń \vektorową nad eiałen1
liczb dwójko,vych.
Każdy elen1ent \V
\vi~c
grupa IF'~' nia rozkład:
addyty\vnej grupie IF'~' ma
rząd
2, tak
111 składnikó\V
Teraz pozostaje 'vyznaczyć charaktery IF'2,
gdyż
na mocy lematu 9.2.1 charak-
tery IF'~' są po prostu 111-krotnyrn iloczynern charakterów JF2 . Ale charaktery IF'2 = Ł2 znaleźliśmy już \V przykładzie 9.2.1:
1203
9. Dodatek B. Podstawy matematyczne
dla y E {O, l}. Zatem Xy(x)
=(- 1yl)·• ·
każdy
„
. · ( -
charakter ~,
=(-
I f • >;.,
można zapisać \V
postaci
1)'''',
gdzie x · y = x 1y 1 + ... + x111 y,,, jest Z\vykłym iloczynem r61v X= (Xi, ... ,X111) i y = ()'1 •... •Y111).
1vewnętrznym
wekto-
9.2.2. J Ortogonalność charakterów będzie skończoną grupą abelo1vą.
Funkcje f: G -+ C l\vorzą przestrzeń 1vektoro1vą V nad C z doda1vaniem i mnożeniem przez skalar zdefinio1vanymi punkto1vo: (.f + h)(g) = f(g) + h(g) oraz (c · f)(g) = c · f(g) (patrz także podrozdział 9.3). O przestrzeni V możen1y nlyśleć także 1v inny sposób: każda funkcja/: G--+ C może być postrzegana jako n-tka Niech G = {g 1, ••• ,g11 }
(fg ,•. .. •fg.) = (f(g, ), . .. ,/(g„)).
(9.8)
Widać 1vięc, że przestrzeń
V ma wymiar 11. Naturalną bazą V są 1vektory (O, I, .. . , 0), ... , e„ (0. O, ... , I). Innymi sło1vy e; jest
e1 =( I, O, ... , 0), ei = funkcją G --+ C zdefinio1vaną jako
=
. . _ { I jeżeI i i = j ,
c,(g, ) Zwykły
O 1v prz.cci1vnyn1 przypadku.
iloczyn we1vnętrzny na przestrzeni V zdefinio1vany jest jako li
(/ Jh) = L,.f(g;)h(g; )
(9.9)
i=ł
i 1v naturalny sposób \\'YZnacza on
norn1ę
111111 = ·/(hjh).
Baza {e1, • •• , e„} jest
oczywiście
we1vnętrznego. Inną bazą
Lemat 9.2.2.
Jeżeli
(X; IXi ) -_ { 11O
ortogonalna względem zwykłego iloczynu ortogonalną jest baza charakteró1v.
X; oraz Xi
jeżeli
są
charakterami G, to
i"'j ,
(9.10)
jeieli i = j .
Dowód. Po pienvsze, warto zau1vażyć,
iż
2
1 = Jx(g)J = x · (g)x(g),
z czego 1vynika, że x •(g) = x (g) - 1 dla każdego g E G. Wó1vczas li
li
(x;l'X.i) = L A- 1
204
xi(gk)Yj(gk) =
li
L x; (gk)Xi(g,) = 'L,
k= I
1
k= I
9.2. Transformaty Fouriera
Jeśli i
=j, to x; 1Xj jest charakterem trywialnym i teza dla i =j jest spełniona 1 natychmiast. Z drugiej strony, j eśli i fe j, to x = x; Xj jest niet1ywialnyn1 charakterem G i wystarczy pokazać, że li
s
=L: x (gk) =o k-1
dla nietrywialnego charakteru x. Ponie\vaż x jest nietrywialny, istnieje element g E G, taki że X(g) fe I. Ponadto odwzorowanie g ,_. g + g; dla ustalonego g jest pe rmutacją G, tak \vięc li
„
li
k=I
k=l
k= l
o
tezy S =O \vynika z ró\vnania (1 - x(g))S =O.
Pra\vdziwość
Charaktery t\vorzą bazę, gdyż są ortogonalne oraz jest ich n= IGI. Po norn1alizacji otrzymuje1ny bazę ortononnalną B = {B 1, . .. , B gdzie 11 } ,
l
B; = r.;Xi· V Il
Można łat\vo wyprowadz i ć
inne niuj my macierz X E C"x" jako
interesujące własności
charakterów. Zdefi-
Xii = Xi(g;) i oznaczn1y transpozycję zespolonego sprzężenia macierzy X przez X" . Ponie\vaż Xij = x7(gj). otrzymujemy li
(X"X)ij
li
=L: x;.xkj = L: x~(g•)Xj(gk) = (xdxi> k- 1
_ {O - n
k= I
jeżeli i jeżeli
fe j,
i = j,
co w istocie oznacza, że X"X =ni, czyli x- 1 = ~x·. Ponieważ jednak każda 11
macierz komutuje z macierzą do niej a to można zapisać jako
odwrotną, \vięc
mamy
także
XX* = nl,
(XX");; = { no jeże l i i fe j, , jeżeli i = j,
lub
też li
I: Xk(g;)xi:(gj) = { ~ k- 1
jeże li i jeżeli
f
j, i = j.
(9.ll)
205
9. Dodatek B. Podstawy matematyczne
Równania (9.10) oraz (9.11) znane są jako relacje ortogonal ności charakterÓ\V. Zauważn1y także, że wybierając \V (9.10) Xj jako charakter trywialny, a w (9.11) gj jako e le1n e11t neutralny, otrzymujemy u żyteczne stwierdzenie: Stwierdzen ie 9.2.1. li
X(gk) =
L
jeżeli
x jest charakterem tryv1ialnyn1,
{o w przeciwny1n przypadku.
(9.12)
k= I li
LXk(g) =
jeżeli
g jest ele111enten1 neutral nyn1, \V przeciwnym przypadku.
{o
(9.13)
k- 1
w;•zachodzi syrnetria X;(gj) = Xj(g;), a zaten1 dla obu grup
W gtupach Z„ oraz
możemy powyższe zależności zapisać za pomocą jed nego
ró,vnan ia. W Z 11 mamy
jeżel i
x =O, w prleciwnyn1 przypadku,
a \ V •r"""'2
~( -
I )''l' = {
6"'
jeżeli \V
x = O, przechvnym przypadku.
)'€ ~"2
l.2.3. I Dyskretna t ransformata Fou riera Dysponujemy teraz wszystkimi 3rodkami potrzebnymi do zdefiniowania dyskretnej transformaty Fouriera. Do,volny clc.rncnt f E V (przypomnijmy, że V jest przestrzenią wektoro\vą funkcji G --+ C) posiada jednoznaczną reprezen-
tację \vzględe111 bazy B = ~
Jnx1 .... , Jnx11 }:
{
~
f=f1B1 + ... +J,,B„.
(9.1 4) ~
Definicja 9.2.1. Funkcj<; f : G ~
f
--+
C
zdefiniowaną
przez
~
(g;) = ,f;, ~
gdzie/; jest \vspólczynnikie1n przy B; w reprezentacji (9.14), naZ)'\va1ny dyskretną transformatą Fouriera funkcji/ Ponieważ B jest bazą ortonormalną, to czyn wewnętrzny B; i wyrażenia (9.14):
206
li
li
j =I
j= I
w lal\vy sposób
możemy obliczyć
ilo-
9.2. Transformaty Fouriera Stąd transformatę
Fouriera
możemy zapisać \V następującej
postaci:
(9.15)
- - -- -
Z definicji dyskretnej transformaty Fouriera wynika, że f + h = f + h i cf= cf dla każdych funkcji ! i h o raz każdego c EC. Przykład
9.2.3.
Łat\vo można uzyskać interesujące
St\vierdzenie:
li
111112 = <1 lf
)=
"Lf (g;)f(g;) i=I
,,
=
,,
/ł
L )n L x ;(gk)f*(gk)-7,; L x;'(g1) f(g1) i=l
= ,1,
,, ,,
k= I
Lu k-1
l=ł
,,
·(gk)f(g1)
l=l
L X;(g~)x/(g1) i=I
„ 2 =.!.11 ~ J *(gk)f(gk)ll = (f i!) = Ilf 11 . L k= l ~
Otrzyrnanc w ten sposób równanie Przykład
Ilf li = Ilf li nazywa sir; to7.samością Parsevala.
9.2.4. Niech G = Z„. Jak charaktery grupy Z 11 są postaci
widzieliśmy '" przykładzie
9.2.l , \vszystkie
?·tn
\ y(X) = e. -.
Dlatego transformata Fouriera funkcji / : Z„ - C przybiera postać
f~ (x) =
I
~
~
L
2''"
e---.-f(J').
yEZ,,
Przykład
9.2.5. Charakterami grupy G = IF'~' są
Xy(X) = ( - I)X·Y'
„
a więc transfonnata Fouriera funkcji/: iF'~' - C równa jest f(x)
=}im 2::: (- J)x·yf(y). )'E~
Po,vyż.~za transformata '" transformatą
IF'; nazywana jest także transformatą Hadama rda,
Walsha lub też transformat<1 Hudamarda-Walsha.
207
9. Dodatek B. Podstawy matematyczne
9.2.4. j Odwrotna transformata Fouriera Zau\vażmy, że
ró,vnanic (9.15)
moż n a przepisać
~
f f
(g I) (g2)
~
I
f
(gll)
postaci
xi(g1) xi(g2) xi(gi) x2(82)
xT(g") xi(g")
/(g1) /(g2)
x;,(g,) x:.(g2)
x~(g,,)
f(g11)
- ./ii
~
\V
(9.16)
\Y)'Stępująca
po pra\vej stronie ró\vnania (9.16) jest macierzą X' tra nspozycją zespolonego sprzężenia macierzy X, zdefinio,vanej jako Xii = Xj{g;) 7. M nożąc (9.16) przez X, otrzyn1ujemy Macier.1:
~
f (gi) f(g2)
I
- fa
j(g„)
XI (g1) x2{g1 ) XI {g2) x2(g2)
x„(g1)
XI (g„) x2(g11)
X11(g11)
f (g l ) .f {g2) ~
X110:2)
(9.17)
~
f
(gll)
co uzasadnia następującą definicję: Definicja 9.2.2. Niech f: G -+ C Fouriera zdefiniowana jest jako
będzie funkcją.
Odwrotna transforn1ata
(9. 18) Równania (9.16) oraz (9.17) jasno pokazują, że
-f =f~
~
=f
Przykład
9.2.6. W Z11 man1y Xx
,.-,;
. """'
W grupie
f( x)
iF'; symetria jest pe łna:
=Jr-. L (- ł )"'lj(y) =J(x). YEr;°
7
Równanie (9.16) sprawia, że 1ożsa111ość Parsevala staje ~ię jeszcze bardziej naturalna: r.iacier.i:e ~X oraz ~x· są unitarne i dlatego zachowują normę w przestrzeni V. yll .
208
ytl
9.3. Algebra liniowa
:.s. I Transformata
Fouriera i periodyczność
Pokaże111y
teraz, jak silnym narzędziem \V uzyskiwa niu inforn1acji o periodyczności jest transforn1ata Fouriera. Niech f: G ---> C będzie dego g E G. Wtedy
funkcją
Ił
J (g;) =
o okresie p E G, tzn. f(g + p) = f(g) dla
k aż
Il
~ °L x7(gk)f(gk) = ~ "L x7(gk + P - p)*f (gk + p) k= I
k=I li
I
~
~
= x i (- p)-;_r,: L., x7(gk + p)f(gk + p) = x7C- p)f (g;), k= I
a to oznacza, iż J(g;) = O, j eśli tylko xi(- p) = X;(-p)- 1x;(p)rf !. Przykład -
!
9.2.7. W grupie Ł11 "',;Up -
(x) = e- - n
f
powyższe
równanie przyj1nuje postać
(x),
f
co oznacza, że (x) = O, jeżeli tylko e - ~'.'' rf 1, a więc dokładnie wtedy, gdy xp nie jest podzielne przez n. Jeżeli także nwd(p, 11) = l, to - xp jest podzielne przez n wtedy i tylko \vtedy, gdy x jest podzielne przez n.
2
i:] Algebra liniowa i.l. IWiadomości wstępne Przestrzeń
\vektorowa nad ciałem liczb zespolonych jest to grupa abelowa (Z\vyklc addytywna), w której określone jest mnożenie przez skalar, będące od\VZOrowaniem V. Działanie to oznaczamy zwykle przez (c, x) ....... ex. Wymaga się, aby spełn ione były następujące aksjomaty przestrzeni \vektorowcj: 1. c i (c2x) = (c1c2)x,
„
2. (c , + c2 ) X = C1X+ C2X, 3. c(x r + x2) = ex , + cx2, 4. lx=x,
dla wszystkich c, c 1, c2 E
209
9. Dodatek B. Podstawy matematyczne Przykład
9.3.1. Niech V= C", czyli V jest zbiorem uporządkowanych 11-tek liczb zespolonych. Zbiór C", \V którym zdefinio\vane jest dodawanie (xi, ... ,x„) + ()11, . .. , y„) = (x1
+ )'1, ... , x„ + y„),
elen1ent neutralny (0, ... , 0) oraz element ochvrotny (x1, .. „x„) ,_. ( - x1, ... , - x„) jest \V OCZ)'\viśeie grupą abelową. Jak la\\vo spra\vdzić, wraz z n1nożenie1n przez skalar c(x1, . .. , x„) = (cx1, . .. , ex„),
zbiór ten \\vorzy przestrzeń \vektorową. Przykład
9.3.2. Zbiór fu nkcji x: N ---> C, dla których szereg
CC
L lx(n)l
2
n=I
jest zb ieżny, także tworzy przestrzeń 'ń1ektoro\vą nad C . Dodawanie i n1noże nie p rzez skalar są ponownie zdefi nio\vane punktO'ń10: dla funkcji x i y, (x + y)(n) = x(n) + y(11) oraz (cx)(n) = cx(n). Dla uproszczenia będzien1y pisać x„ = x(n). Aby pokazać, że suma elementó\v z przestrzeni także należy do oo
przestrzeni, musi1ny udowod n ić, że ze zbieżności szeregów co
2
2
11=1
2
u= I
'XI
L ly„1 wynika zbieżność szeregu L lx„ + y„1
L lx„ 1 oraz
.
W tym celu dla każdego
n::l
skladnika skorzystamy z oszacowania
lx+ Yl2 = lxl2 + 2Re(x*y) + IYl2
::;;;
lxl 2 + 2lxlIYI + IYl2 ::;;; 2lxl 2 + 2lyl2 .
Przestrzeń
\Vektorowa omawiana w tym przykladzie oznaczana jest przez l.q(C ). Zau\vażmy, że występująca w defin icji dziedzina funkcji x może być zastąpiona
do\volnym zbiorem przeliczalnyn1; gdyby N zastąpić zb iorem skoń czonym {I , ... , n}, warunek zbieżności nie byłby konieczny i otrzymal ibyśrny przestrzeń wektorową
C".
Definicja 9.3.1. Liniową kombinacj i} \vektoró\v naZ)'\van1y sko r1czoną sumę C1X1 + ... + c„x„ . Zbiór wektorów jest liniowo niezależny, jeżeli z równości
c1x1 + ... +c11 x11 =O wynika, że n ieza leżny,
= ... = c = O dla
x 1, ••• , x„ E S. Zbiór, który nie jest liniowo naz)'\vamy zbiorem liniowo zal eżnym.
c1
11
9.3. Algebra liniowa
Definicja 9.3.2. Dla dowo lnego zbioru S C V, L(S) jest zbiorem \vszystk ich liniowych kombinacji wektorów zawartych w S. Z definicji zbiór l(S) jest przestrzen ią wektorową zawartą w V. Mówimy, że L(S) jest generowane przez S, a także L(S) nalY\vamy po,vloką liniową S. Do,vód
poniższego
len1atu pozostawiarny jako ćwiczenie.
Lemat 9 .3 .1 . Zbiór S C V jest liniowo zależny wtedy i tylko wtedy, gdy istnieje \vektor x E S, który niożna przedstawić jako linową kombinację wektorów ze zbioru S \ {x}. Z powyższego len1atu 'vynika, że zbiór liniowo za l eżny zawiera e lementy „niepotrzebne" w tym sensie, że nie są one konieczne przy tworzeniu komb inacj i liniO\vych. Dlatego też, jeśli x E S można przedstawić jako liniową kombinację \vektoró\v ze zbioru S \ {x}, to \V oczyv1isty sposób L(S \ {x}) L(S) (por. zadanie 1.).
=
Definicja 9 .3 .3 . Zbiór B c V jest bazą przestrzeni V, jeżeli V= l(B) i B jest liniowo nieza leżny. Można pokazać, że
wszystk ie bazy danej przestrzeni są zbiorami o takiej san1ej mocy (patrz zadanie 2.), co uzasadnia następującą definicję: Definicja 9.3.4. Wyn1 iare111 przestrzeni wektoro\vej V nalY\van1y nioc bazy V i oznaczamy din1(\/).
( l , O„ . „ 0), e2 = (0, 1, ... , 0), ... , e„ = (0, O, . .. , I) tworZ
Przykład 9.3.4.
e; E
~(
Podobnie jak \V poprzednim przez
przykładzie może1ny zdefini ować
I jeśli i= n, e;(n) = { O . ·1 · . ..:. JeS I I r li,
dla każdego i E N. Jasne jest, że zbiór [ = { e1, e2, e3, ... } jest linicl\vo niezal eżny, jednak w sensie definicji 9.3 .3 nie jest on bazą ~(
jeżeli
Przykład 9.3.5. RoZ\vażmy 11-\vy111iarową p rzestrze ń we ktorową
IV jest pod-
vV= {(c1 , ... , C - 1,0) E
jest oczy\viście podprzestrzenią
21:1
9. Dodatek B. Podstawy matematyczne Przykład
9.3.6. Niech
W= {x E L:?(C) : x11 I Ojedynie dla skończenie wielu n E N}. Łal\vo się przekonać, że
W jest
podprzestrzenią
L:i(C), a zbiór E z przykładu
9.3.4 jest bazą W.
9.3.2. I Iloczyn wewnętrzny Naturalnym sposobem wprowadzenia geometrii do zespolonej przestrzeni \vcktorowej V (p rzestrze ni \vektorowej nad C) jest zdefinio,vanic iloczynu wewnętrznego.
Definicja 9 .3.6. Iloczynem wewnętrtnym (iloczynem skalarnym) w przestrzeni V nalY'va1ny odwzorowanie V x V-> C, (x, y) .._, (xly) spełniające dla wszystkich c E C oraz x, y, z E V następujące \varunki 1. (x ly) = (ylx)•,
2. (xlx) ;<: O oraz (xlx) =O wtedy i tylko wtedy, gdy x = O, 3. (xlc1y + c2z) =ci (xly) + c2(xjz). Symbolem * oznaczamy sprzężen ie zespolone. Zauważmy, że z aksjomatu 1. wynika, że iloczyn \vewnętrzny (x jx) zawsze jest rzeCZ)l\Visty, a więc aksjomat 2. in a sens. Z aksjomatów "I. i 3. wynika, że (c1 x1 + c2x2 lx) = cj(xd x) + c2(x2lx). Przestrzeń wektorową, \V której został zdcfi niO\vany iloczyn we\vnętrzny, zywamy także przestrzenią z iloczynen1 \Ve\mętrznym.
na-
Przykład
9.3.7. Łanvo spra,vdzi ć dla \vektorów x = (x 1, • •• ,x11 ) oraz y = (y1, . . . , Y11) należi1cych do C", że wyrażenie (xly) = xTy1 + . .. + x;,y,.
definiuje iloczyn wewnętrzny. Iloczyn można określić wzorem
wewnętrzny
\vektorów x, y E L:i(
oo
L.:x;,y",
(9.19)
11= 1
ponieważ
szereg (9.19) jest zbieżny. Jest tak, gdyż
~1
~1
l'1
L.:x:.y" ~ L
lx:.Y11I
~
L ~(lx111
2
2
+ ly,.1 ),
11=./1.'
oo
a szeregi
L 11=
212
I
oo
jx,.12 oraz
L IY111 11;; 1
2
są zbieżne z definicji przestrzeni L:i(
9.3. Algebra li niowa
Definicja 9.3.7. Wektory x i y nazywan1y ortogonalny111i, j eżeli (xly) =O. Dwa podzbiory S1 C V i S2 C V są wzajemnie ortogonalne, jeżeli wszystkie wektory x 1 E S1 i x 2 E S2 są ortogonalne. Zbiór S C V jest ortogonalny, jeże li dowolne wektory x1 E S i x2 E S, x1°" X2 , są ortogonalne. Zbiór ortogonalny, która nie zawiera wektora zerowego Ojest zawsze liniowo niezależny: j eśli założy1ny, że Sjest takim zbiorem, a
c1 x1+ ... + c„x„ =O jest li n iową kombi n acją wektoró\v z S, to c;(x;lx;) = (x;lc;x;) = (x;IO) =O, z czego \vyn ika, że c; = O, gdyż x; °" O. Przykład
9.3.8. Niech W C V będzie
podprzestrzenią
W.L = {x E V: (xly) = 0 dla każdego y E także
jest
podprzestrzen ią
V. Wtedy
W}
V, tzw. dopełnieniem ortogonalnym W.
Lemat 9 .3 .2 (Nierówność Cauchy'ego-Schwartza). Dla dowolnych wektoró\v x, y E V
l(xly)l2 ~ (xlx)(yJy}. Do,vód. Jeśli y = O, (xJO) = (xJO+ O) = (xlO) + (xlO), a zatem (xlO) =O i teza jest spełniona (zachodzi równość). Dla y °" O defin iujemy .A = -
~~:;~ . Wtedy
z 2. aksjomatu iloczynu wcwn9trzncgo mamy
O ~ (x + .Aylx + .Ay) = (xlx) + .A(xly) + .A• (ylx) + J.Al 2 (yly}, co
można także zapisać
O ~ (xJx) -
jako
i;:;~ (xJy).
Proste przekształcen ie daje szukaną
n ieró\vność.
o
Definicja 9.3.8. Normą w przestrzeni wektorowej nazywamy odwzorowanie V -> JR, x ,_. l!xll spełniające dla \vszystkich \Vektoró\v x,y E V oraz c E
l!xll ~ Ooraz l!xll = O wtedy i tylko wtedy, gdy x = O, 2. l!cxll = lei · l!xl!, 3. l!x + YI! ~ l!xll + llYll 1.
Przcstrzcń \vcktorowa, \V której określono normę, nazywa się przestrzenią unormowaną. Każdy iloczyn wewnętrzny wyznacza normę:
li X li = v'(XjX),
9. Dodatek B. Podstawy matematyczne
tak więc przestrzeń z iloczynen1 we\vnętrznyn1 jest zawsze przest rzenią unormowaną. Sprawdźmy, czy J(XjX} jest normą : waru nki 1. i 2. S
:( llx ll + 21(xly}I + llYll
„
2
:(
2
llxll + 2 llxll · ll Yll + ll Yll
2
2
= Cllxll + ll YI D .
Za pornocą norn1y
niożna
\V przestrzen i V zdefinio\vać odległość:
d(x, y) = llx - Yll · fun kcja d: V x V -> JR spelnia aksjornaty 1netryki: Dla \vszystkich x, y, z E V Łatwo sprawdzić, że
1. d(x, y) = d(y, x) ;;: O,
2. d(x, y) = Owtedy i tylko wtedy, gdy x = y, 3. d(x, z) ::;; d(x, y) + d(y, z). W przestrzeniach unormowanych, z iloczynen1 wewnętrznyn1 , równość
będących jednocześnie
llx + Yll 2 + llx - Yll 2 = 2(llxll 2 + ll Yll 2), nazywana war unhlem (patrz zadanie 5.).
równoległoboku,
przestrzeniami (9.20)
jest spełniona dla wszystkich x, y E V
Definicja 9.3.9. Niech V będzie przestrzenią unorn1owaną. Jeżel i dla każde go ciągu \vektorów x1, X2 , ..., takiego że łirn
llx111
-
x„11 =O,
111. 11-00
istnieje wektor x łin1
E V, spełniający
warunek
ll xm - xll =O,
111 - 0 0
to n1ówin1y, Następuj ąca
iż przest rzeń
definicja
niezwykle ważną
V jest zupełna.
przestrzeni wektorowych odgrywających ro l ę w fizyce kwantowej i obliczeniach k\vantowych: określa klasę
Defin icja 9.3.1 O. Przestrzeń wektorową z iloczynen1 wewnętrznyn1 V nazywan1y przestrzenią Hilberta, jeżel i V jest zupełna ze względu na normę wyznaczoną przez iloczyn we\vnętrzny.
214
9.4. Teoria liczb Przykład
9.3.9. Przestrzenie IC" i L?,(IC) są przestrzeniami Hilberta, nato1niast nie jest przestrzenią Hilberta podprzestrzeń W z przykładu 9.3.4 (por. zadanie 6.). Definicja 9.3.11. Przestrzeń wektorowa V jest sumą prostą podprzestrzeni W , i W2, co oznaczan1y V= W1 $ W2, jeżeli V jest sumą prostą podgrup W1 i W2. Następny
temat pokazuje, że przestrzenie H ilberta mają
„rozsądną " stru kturę.
Lemat 9.3 .3. Jeżeli podprzestrzeń W przestrze ni Hilberta V także jest przestrzen ią Hilberta, to V= W $ w.i (patrz przykład 9.3.8). Definicja 9.3.12. N iech V i W będą zespolonyn1 i przestrzeniami wektorowymi. Mówimy, że odwzoro,vanie f: V - t W jest hornornorfizrucm przestrzeni wektorowych, jeżeli
dla \vszystkich x, y E V oraz c 1, c2 E ( . Ho1no n1o rfizn1y przestrzeni wektorowych nazY'vane są także odwzorowaniami liniowymi lub opera toran1i.
I
9.4. Teoria liczb 9.4.1. I Algorytm Euklidesa Zwróćrny uwagę, że do\vód len1atu 9.1.5 zawiera rekurencyjną metodę poZ\valającą na wyznaczenie naj\viększego wspólnego dzielnika (nwd) dwóch liczb
naturalnych: nwd(x - y, y) jeżeli x nwd(x,y) =
nwd(x,y - x) jeżeli x
{ x
jeżeli
> y, < y,
x = y.
Metoda ta zawsze daje poprawny 'vynik, jednak jest nialo efektywna. dowo obliczenie nwd(x, 1) przebiega następująco: n\vd(x, I)
=n'ń'd(x -
I, I) =n wd(x - 2, 1)
Przykła
= = n\vd( l , 1) = 1, „
.
a zatem do otrzymania wyniku potrzeba aż x rekurencyjnych \yY\volań. Biorąc pod uwagę, że w reprezentacji dziesiętnej długość x wynosi f (x) = L1og 10 xj , widzimy, że czas obl iczeń jest proporcjo nal ny do l 01Cx>, tzn. złożoność czasowa tego algorytmu względern f (x) jest wykład n icza. Bardziej wydajny sposób obliczania !l\vd oparty jest na algo1111nie Euklidesa. Główna idea tego algorytmu zawarta jest w następującyn1 łe1nacie: Lemat 9.4.1. Dla danych liczb natu ralnych x > y istnieją \vyznaczone jednoznacznie liczby całkowite d i r, takie że x = dy+ r, gdzie O ~ r < y. L iczby y
215
9 . Dodatek B. Podstawy matematyczne
i d n1ożna znaleźć, wykonując e(x) 2 ele1nentarnych operacji arytmetycznych (n1nożen ie, dodawanie i odejmowanie dwóch cyfr). Algorytn1 Euklidesa polega na wielokrotnym użyciu jąc dane x > y znajduje1ny ko lejne reprezentacje
powyższego
lernatu: ma-
X= d1 y + ri, y = d2r1 + r2, r1 = dv·2 + r3,
(9.21)
r„_2 = d„r„_ 1 + r„,
(9.23)
= d„+11·,, .
(9.24)
l'n- 1
(9.22)
Procedura ta zatrzymuje się dla r„+1 = O, gdyż r 1, r2 , • • . jest malejącym cią giem liczb nieujen1nych. Twierdzirny, że największyn1 wspó lny1n dzie lnikie1n liczb x i y jest r,„ ostatnia niezerowa reszta w tej procedurze. Po pief\vsze, z (9.24) '''Ynika, że r11 jest dzielnikiem r„_1, naton1iast z (9.23), iż r„ jest także dzielnikiem r„_z, Kontynuując, widzi1ny, że r„ dzieli wszystkie liczby r; oraz x i y . A zaten1 r„ jest wspólny1n dzielnikiem x i y. Zalóżn1y teraz, że istnieje inna liczba s, będąca dzielnikiem x i y. Równanie (9.21) oznacza, że sjest dzielnikiem r 1, (9.22) - że jest dzielnikien1 r2 itd. Na końcu otrzymujemy wniose k, że s jest również dzielnikiem r„. Oznacza to jednak, że r„ jest największyn1 \vspólnyrn dziel nik iern liczb x i y . Jak szybki jest ten algorytm? Ponieważ każda reszta r; < x, wiemy, że obliczenia dla każdej iteracji mogą być wykonane w czasie proporcjonalny111 do f (x) 2 . Stąd "''YStarczy pol iczyć, ile iteracji niusimy \vykonać, zanim otrzymamy r„+1 =O. Wykonanie pojedynczej iteracji daje równanie
r;- 2 = d;r;- r + r;, gdzie O ~ r; dzić, że r;- 2
x Jeśl i
< r;- 1, czyli nian1y r; = r ;- 2 - d;r;_ 1 < r;_2 - d;r;. Łat\vo spraw-
> (1 + d;)r;
2r;. A zate1n
> y > r, > 2r3 > 4r5 > ... > 2' r2;+1 · n. jest nieparzyste, to x n- 2
x > 2 -i- „„_, > 2 Wyn ika stad, n
~
że
2 < 1og,o (f(x) + 2
n-1 i
n
> 2 --i
r,„ a zatem
I
r„ ~ 2 --r . D la n parzystego mamy
nierówność
f.(x) = llog ioxJ
11 - I
it - 2
x > 2 -r jest zawsze
> log 10 x -
I
>
I) + 2 = O(f (n )). Wnioskujemy
11 ;
2
spełniona.
logro 2 - 1 i dalej
więc, że
dla liczb x
>y
rnożna obliczyć nwd(x, y), wykonując 0(f (x) 3) elementarnych działań arytmetycznych.
9.4. Teoria liczb
9.4.2. J Ułamki łańcuchowe PrLykłacl
9.4.1. Zastosujmy algorytm Euklidesa do pary (263, 189):
263 = I · 189 + 74. 189=2·74+41, 74 = I · 41 + 33, 4 1 = 1 . 33 + 8. 33 = 4. 8 + 1. Obliczenia kończyn1y w następny1n kroku, zn ajdując nwd(263, 189) = I. Dzieląc każde z po\vyższyeh równań, 01rzyn1l1je111y 263
74 1 1119= +189' 189
41
74
33
74 = 2 + 74'
4T = I + 41' 41 8 33 = I + 33' 33
I
s=4+sZau,vaż1ny, że ulamek \\'YStępujący po prawej stronie jest odwrotnością ułam ka znajdującego się po lewej stronie następnego ró\vnan ia. Stąd, \rykonując
kolejne podstawienia, otrzymujemy 263
I
189 = l + - - -- , - -
(9.25)
2 + - - - , .,- -
l+ - - 1l+
I
4+ 8 Wyrażenie
(9.25) jest przykładem skończonego ułan1ka ł a ńcucho,vcgo. W ten sposób można oczywiście rozwinąć każd<1 doda tnią liczbę \ryn1ienu1 \V postaci nieskracalnej (\'. = e ~ I. q Innc wartości o można przedstawić jednoznacznie w postaci o = ao + /3, gdzie ao E Z, a /3 E [O. l). Jeżeli /3 1 O, to możemy także napisać I
n= ao + a,•
gdzie
217
9. Dodatek B. Podstawy matematyczne Stosując
rekurencyjnie po\vyższą procedurę do a 1, otrzyrnujcmy
a =ao+ - - - - - 1 a, + - - --,...--
rozwinięcie
(9.26)
a, + - - -1''' + -
gdzie a0 E Z, natomiast a 1, a2, . .. są liczbami naturalnymi. Jeżeli a jest liczbą nie\V)'mierną, to ciąg ao, a 1, a 2, ... jest nicskof1czony (w przeciwnym przypadku lt byłoby liczbą \vyn1ier11ą). Głównie ze względów typograficznych \V)'rażenie (9.26) zapisujemy \V 1vygodniejszej postaci a 0 E Z, a; E N dla i ~ I
(9.27)
i niówirny, że (9.27) jest przedsta1vieniem liczby a 'v postaci ul:unka łańcu chowego. Z konstrukcji ułamkó\v łańcucho1vych \V)'Dika, że każda liczba nie1vymierna posiada jednoznaczne roZ1vinięcie na nieskończony ułamek łańcu cho1vy (9.27). Z drugiej strony, wszystkie liczby wymierne r można przedstawić w postaci skończonych ułamków łańcucho1vych
ao E Z, a; E N dla i
r = [ao,a1, ... ,a„]
~ 11.
(9.28)
Rozwinięcia
te może111y znaleźć za pomoc11 algorytmu Euklidesa, jednak reprezentacja (9.28) nigdy nie jest jednoznaczna, co pokazuje następujący lemat. Jeżeli liczba r ma rozwinięcie (9.28) o długości nieparzystej, także roZ1vinięcie (9.28) o długości parzystej i vice versa.
Lemat 9.4.2.
to
posiada ona Dowód. Teza \vynika 1vynika wprost z równości [ao,01, ... ,a„_1,a„ ] = [ao,a1, ... ,a„
1
+ ..!..].
"·
Jeżeli
a„ ;;::: 2, to [ao. a 1•••• , a„J = [ao, a 1 , ••• , a„ - I, I]. Jeżeli a„ = I, to [ao,ai. ... ,a„_„ 11 = [ao.ai. ... ,a,,_2,a„ 1 +I]. O
Przykład
9.4.2.
Rozwinięcie
263 189 = I +
(9.25)
I
I+
[
4+ -I
'
I
I+ 8
218
I
2+
I
I+
I
=I+
[
2+
można zapisać dwojako:
[
l+ 4+
I I 7+ -[
9.4. Teoria liczb
co ilustruje, \V jaki sposób można wydłużyć bądź skrócić o jeden każdy skoń czony ułamek łańcuchowy. Można jednak pokazać, że wymaganie, aby skoflczony ułamek łańcuchowy kończył się liczbą a„ > l, powoduje, iż rozwinięcie jest jednoznaczne. I
(9.29)
trakto\vany jako u łan1ek taflcucho\vy, przedstawia liczb<( n ie\vyn1ierną. Innyn1i sło\vy nie wien1y jeszcze, czy dla każdego ciągu (9.29) istnieje granica
(9.30)
łirn [ao, a 1, a2, . . . , a„]. 11 - 00
Rozwiązanie
tego
probłe1nu
podan1y nieco dalej.
Niech (a;) będzie ciągien1 typu (9.29). Liczbę ~: = [ao, . .. , a„] nazywan1y n-tym reduktem ciągu (a;). Prosty rachunek pokazuje, że Po
ąo =
ao
T·
p, a0a, + I - = -- ,
q,
a,
I
p,
=
q,
a11(a, + - ) + l
a,
I
a,+-
a,p, +Po a,q, + ąo
Kontynuując
zauważa1ny, że p 11 i C/11 są wielon1ianami wzgl9dcm ao, a 1, •• • a„. Ponieważ jesteśn1y teraz za interesowani wielomianami p 11 i q11 , więc liczby a; będzien1y traktowa li jako nieokreślone, tzn. będziemy zakładać,
obliczenia,
że
nie przyjn1ują o ne żadnych konkretnych wartości całkowitych. Po obliczeniu ki lku pierwszych p„ i q11 łatwo dostrzec, że istn ieją wzory rekurencyjne na wielon1 iany p„ i q„. Lemat 9.4.3. Dla każdego n
Pn =
G11/J11- I
+ Pn- 2'
=
Cl11Cf11- I
+ C/11- 2 ·
(/11
~
„
2
(9.3]) (9.32)
Dowód. Dowód przez indukcję wzgl ęden1 11. Jak \Vidziel iśn1y wcześniej , dla n= 2 równania (9.31) i (9.32) są spełn i one. Zakładamy więc, że są one prawdziwe dla liczb {2, . .. , n}. Wtedy
219
9. Dodatek B. Podstawy matematyczne
-p„,, = (ao, ... a,, _1,a,,,ct„+1 J = [ao, ... a,,_1 ,a„ + - I ] qn.1
(lr.ł- 1
(a„+ .:., ) p„_, +Pn-Z
-
(t1„+ .:.• ) q._,+ q._,
1+ P11-2) + />,. _, - a„.,(a,,J>na~ 1 (a.q._, + q. _ + q„_, 2)
a zatem \VZOry rekurencyjne (9.31) i (9.32) są prawdziwe dla Jeżeli a,, a2,
każdego n~
2. o
... są liczbami naturalnymi, to z (9.32) wynika, że q" ;;:, q„_, + q„_z.
Można także udO\vodnić
indukcyjnie, że q11 ;;:, F11 , gdzie F„ jest n-tyrn wyrazen1 ciągu Fibonacciegos. W dalszym ciągu przez p 11 i ą„ będziemy oznaczać także p11 i q" określone przez {ao,a1, .. . ,a„}; znaczenie p„ i q„ będzie wynikało z kontekstu. Stosuj ąc
wzór rekurencyjny, latwo
1nożna do\vieść następujący
Lemat 9.4.4. Dla każdego n~ 1, p"q„_, - p„_,q„ = (-1)11 -
1
len1at:
•
Z le1natu 9.4.3 \vynika, że redukty p. zawsze są w postaci nieskracalnej: jeże
q„ lid dzieli jednocześn ie p11 i q,„ to d dzieli także 1. Lernat 9.4.4 ma jeszcze cie-
kawsze konsek\vcncje:
p„q„ _1 -
P11- I
mnożąc
q„ = ( - 1)11-I
obustronnie ró\vnanic
(9.33)
przez a„ oraz stosując ponownie wzory rekurencyjne (9.31) i (9.32), widzimy, że p„q„_2 - P11-2ą„ = (- 1)"a„
dla
każdego n ~
Pn
(9.34)
2. Ró\vnania (9.33) i (9.34) możemy przepisać \V postaci
p„ I_ (-1)•-I
-q. - -q,_, - q,q,_,
(9.35)
oraz
p,_, (- l)'a, -Cfn - -q,_, = --q,q,_,
Pn
s
220
Ciąg
(9.36)
Fibonacciego F„ zdefiniowany jest przez Fo= Fi = l i F11 = F11 _ , + F11 - 2.
9.4. Teoria liczb
Z równania (9.35) rnamy
co
łącznie
z (9.36) dowodzi słuszności
następuj ących nierówności:
/>21t- I /) 'lit ·J -q'lff- 2 < -Plr: < < . (jin qv, I 4 2'f- 3
P 2t1- 2
(9.37)
Widzimy więc, że ciąg reduktów o indeksach parzystych jest ściśle rosnący; jest on jed nocześnie ograniczony przez malejący ciąg reduktów o indeksach nieparzystych. Z (9.35) oraz faktu, że q„ dąży do n ieskończo ności (q„ ~ F„) \yYciągamy \\'niosek, że obydwa ciągi dążą do granicy o:. Zatem każdy ciąg (9.29) reprezentuje l iczbę niewymierną o:. Ponadto I
(9.38)
< -:; ' q~ granica a
co wynika z (9.35) oraz obsenvacji, kolejnyn1i reduktami.
że
Przykład 9.4.3. Ki lka początkowych łańcuchowy wygląda następuj ąco:
wyrazÓ\V
71'
leży
między
dwoma
liczby 7r na
ułamek
zawsze
rozwi nięcia
= (3, 7, 15, l, 292, l , l, ... ].
Ponieważ C/4 = 113, a qs = 292 · C/4 + q3 = 33 102, więc ułamek~'. bardzo dobryn1 przybliżen iem liczby 7r Z (9.38) mamy
355
I
113 -
71'
~ 113 . 33102 =
i;;
= jest przy stosunkowo rnalyrn mianowniku.
o. 000000267342 . .. .
Rzeczy\viście,
i~~
-
7r
=O, 000000266764 „ „
a więc oszacowanie uzyskane za pomocą (9.38) Uwaga 9.4.1. Z nierówności (9.38) wynika, duktów
p,
~
że
także
jest dość dokładne.
dla liczby niewymiernej a z re-
możemy uzyskać nieskończenie wiele \vymiernych przybliżeń E, q
takich że nwd(p, q) = I oraz I < ,. q
(9.39)
221
9. Dodatek B. Podstawy matematyczne
Wynik ten jest istotny z punktu widzenia teorii liczb, gdyż liczby wymierne mają jedynie skończoną liczbę przybliżeń (9.39), takich że nwd(p, q) = I. Jest tak,
ponieważ przy Cl' = ~s i s > O, dla q ~ s i !!.q ;ć ~s , mamy _ ps - qr
qs Dla O < q niających
>-
7
>-
~
qs
< s oczywiście
(9.39), takich że
~
r/ ·
7
istnieje tylko skoń czona liczba przybl iżeń !!. spełq nwd(p, q) = I.
Podsumo,vując: cechą 'vyróżniającą liczby nie,vym ierne jest posiadanie nieskończenie wielu przybliżeń wymiernych określonych przez (9.38). Dla liczb 'vy1niernych rozwinięcie na ulan1ek lańcuchO\vy daje skończoną liczbę przybli-
żeń wyn1iernych '"'postaci
(9.39). Z drugiej strony, wkrótce pokażemy (twier-
dzenie 9.4.3), że \vystarczająco dobre cucho,vych.
przybliżenia są
redukta1n i uła1nkó\v
łań
Można na~'et udo,vodnić, że redukty uła1nków lańcuchowych, będących rozwinięciem liczby o:, są „najlepszymi" ~'Ymiernyrni przybliżeniami a. Sens określ enia „najlepszy" \vyjaśnia następujące twierdzenie, którego dowód
1nożna znaleźć w pracy
(44):
Twierdzenie 9 .4. 1 . Niech p. będzie redukten1 rozwinięcia liczby
q.
n1ek łańcuchowy. Jeżeli O < q p„ q„
dla n
Cl'
na uła
< q„ i q!!. ;ć p„ , to q„
-o:< !!. - o: q
~
2.
Aby pokazać, że wystarczająco dobre przybliżenia są reduktami ułamków łań cuchowych, 1nusin1y najpie rw udowodnić twierdzenie po1nocnicze. Niech et = la0 ,a,,a2 , .. . ) będzie roz,vinięeien1 liczby et na ułan1ek łai1cuchowy. Oznaczając 0'11+1 = [a„+1.a11+2•...], n1ożcmy formalnie zapisać
a: = [a 0 , a,, c12, . . . , a„, a ,,+1]. Po,vyższe \vyrażenie n1oże
nie być ułamkien1 ła ńeucho,vyn1 vv taki1n sensie, że o:„ ~ I nie n1usi być liczb
(9.40) gdzie p„q„_ 1 - p„_, q„ = ( - I )11 -
1
•
Podobnie możemy wn ioskować, że j eżeli ja-
kaś reprezentacja w „wysta rezająey111 stopniu" przypon1ina (9.40), top. o raz q.
222
9.4. Teoria liczb
p._,
są reduktami roZ\vinięcia liczby a na ułamek łańcuchowy. Wyrażając to q. I w sposób bardziej ścisly, otrzymujemy: Twierdze nie 9.4.2 . Niech P, Q, P' i Q' b<;dą liczban1i calkowityn1i, takimi że Q > Q' >O oraz PQ' - QP' = ± 1. Jeżeli także et'~ I i o.'P+P' a'Q + Q"
n= ~~=
P' = P·-• P = p. to Q' - oraz Q -
q„
ą. I
są
. . . 11cz · by a na u ł
ChO\yY. Dowód. Liczbę ~ możerny przedstawić \V postaci skończonego ularnka lal1cuchowego: p -Q = [ ao.ar •.... an ]. = -p. q. .
(9.41)
Korzystając z lematu 9.4.2, możemy ustalić 11 jako rzystą i bez utraty ogólności założyć, że
liczb<; parzystą bądź niepa-
PQ' - QP' = (-1 )" - 1•
(9.42)
Z lematu 9.4.4 \vyn ika, że O\vd(p11 , q11 ) = I oraz nwd(P, Q) = I. Po n ieważ Q i ą11 są tego sarnego znaku (Qjest dodatnie z założenia), uwzględniając (9.41), n1amy P = p" i Q = q11 • A zatem, wobec lematu 9.4.4, równanie (9.42) może rny zapisać \V postaci
p„(/ - q„P' = ( -1)"- 1 =p11q11-I -p„_1q„, lub też 1 P11(Q1 - (/11 - 1) = ą11(P
równ ież, że
Wiemy
-
(9.43)
/>11- 1).
nwd(p11 ,q„) = I , a
wiąc
z (9.43) \vynika,
że
q„ dzieli
Q' - (/>O. U\vzględniając dodatkO\VO nierówność q„ 1 - Q' <
IQ' -
< ą,,,
co jest spełnion e tylko wtedy, gdy Q'
=C/11 - I· Z (9.43) rnamy także P' =/111
I·
Stąd
o. =
p„a ' + p„_, ą.a
,
+ q._,
,
223
9. Dodatek B. Podstawy matematyczne
co
możemy zapisać,
jak w dowodzie lematu 9.4.3: (9.44)
et = [ao, a1, ... , a,,, o'].
Ponieważ
~ 1, \vnioskujen1y, iż istnieje rozwinięcie na ułamek łańcuchowy o/ = [a„+1. a„+2 • ...), takie że a„+1 ~ 1. O
Teraz
a'
niożemy podsumować
ten
rozdział następującym
twierdzeniem:
Twierdzenie 9.4.3. Jeżeli
O
Dowód. Z założenia
eq -
A u
Niech
~
oraz a = ± 1, takie że
(f!L„ .
• -
p.
istnieją O < 8 < ~
-
q-
= [ao, a1 , . . . , a„] będzie roZ\vinięcien1 liczby
eq na ułan1ek tańcucho-
wy. Na niocy lematu 9.4.2 możemy założyć, że a= ( - 1)"-
o
I
P11 I l/1t- I q~ I
_
1
•
Definiuje1ny
Q
= -q- -Q---,-. ' q„
li
gdzie p„ = q„
e oraz p„_, Cf
są odpowiednio ostatnim i przedostatnim recluktem
(/11- I
rozwinięcia liczby ~ . Stąd
oraz ( - l )11 -
I
~ = p„ - a =
q,
q„
( ;-1)"-' · q,(a q„ + q,_,)
Za tern
a' = -1 0
-
q,_, > 2 - I = q.
!.
z t\vierclzenia 9.4.2 wynika, że p„q. _, I
cia liczby a na ułamek
224
e
i Pn = S
łańcuchowy.
o
9.5. Entropia Shannona i informacja
I
9.5. Entropia Shannona i informacja Celem tego rozdziału jest przedsta\vienie ('v oparciu o pracę [20)) podstawo· \vych pojęć teorii infonnacji. Rozpoczniemy otl informacji reprezentowanej przez cyfry dwójkowe - hity.
9.5.1. I Entropia Za pomocą jednego bitu możemy reprezento,vać dwie różne konfiguracje, gdyż bit przyjmuje wartości O łub l. Dysponując dwoma bitami, mamy możliwość opisu czterech różnych stanów, trzy bity dają osiem różnych konfiguracji itd. Opie-rając się na tej obserwacji, n1ówimy, że elementarna entropia binarna zbioru 11·clcmentowego równa jest log2 11. Jest to przybliżona n1iara długości łaflcucha bitó\v potrzebnego do oznaczenia wszystkich elen1entów tego 7.bioru.
Uwaga 9.5.1. Roz\vażmy problem \vyboru pojedynczego elementu spośród danych 11 elementów. Dla każdego elementu pra\vdopodobieńst\vo 'vyboru \VY· nosi !li . Elementarna entropia binarna log2 11 jest zatem miarą początkowej nieokreśloności \V bitach; aby określić 'vynik musimy uzyskać log2 11 bitów inforrnacji. Innymi slo,vy, do określenia 'vyniku potrzebujemy łańcucha binarnego o długości log2 11. Wykorzystując
trzy symbole, powiedzielibyśn1y, że elementarna nieokreśloność trójkowa zbioru 11-elementowego wynosi log3 11. Aby ujednolicić zapis, definiujerny elementarni} entropię zbioru 11-elemento\vcgo jako alfabet
zawi erający
H(11) = Klog 11,
stalą, a log oznacza logarytm naturalny. Wybierając K = 10~ 2 , otrzym ujen1y infon11ację dwójko\vą, K = Io~ 3 daje inforn1ację trójkową itd. gdzie K jest
Jeżeli jednak odpowiedni rozkład prawdopodobiel1st\va nie jest jednostajny, to średnia informacja, jakiej potrzebujemy do określenia \vyniku, jest mniejsza niż K log11. Na przykład, jeżeli wiemy z góry, że pe,vien element nigdy nie jest \vybicrany, to stwierdzamy, że informacja potrzebna do określenia 'vyniku, tzn. początko,va nieokreśloność \vyniku, równa jest co najwyżej K log(n - I). W jaki sposób poradzić sobie ze zbioren1 11-ele111ento\vy1n, któ· rego clen1enty 111ogą być \vybranc ze znanyn1i prawdopodobieństwam i p;? Zalóż1ny, że
I-krotnie wybieramy element ze zbioru n-eler11entowcgo i każdy z elen1entów może być wybrany z jednako\vym pra\vdopodobieńst\ve111. Doświadczenie to możemy także interpretować jako określanie łańcucha o dłu gości I nad 11-litero,vym alfabetem. Istnieje 111 takich lańcuchó,v, przy czym każdy z nich ma taką samą szansę być lańcuche1n wyniko,vym, gdyż \vszystkie 225
9. Dodatek B. Podstawy matematyczne
litery występują na określonych miejscach z jednakowyn1 prawdopodobień stwem. Stąd elementarna entropia zbioru łańcuchów ró\vna jest H(11 1) = K log n1 = l · K log n. = l · H(n),
tzn. elen1entarna entropia łańcuchów o długości I równa jest I razy elernentarna entropia pojedynczej litery. W p rzypad ku niejednostaj nych rozkładów prawdopodobieńsl\va postępujemy w podobny sposób. Przypuśćmy, że wybieramy I elementów z 11-elementowego zbioru o rozkła dzie pra\vdopodobieńsl\va p 1, •• • ,p„. Jeżeli I jest dostatecznie d u że, i-ta litera powinna występować w każdym łańcuchu \V przybl iżen iu k; = p;I razy. Zajmijmy się uproszczonym przypadkiem, gdy każde k; = p;l jest całkowite. Prosty rachunek pokazuje, że istnieje dokładnie /!
k,I · ... · k. ! łańcuchów,
w których i-ta litera \vystępuje k; = p;l razy. Co \Vi ęcej , przy I zm ierzaj ącyn1 do n ieskończon ości , rozkład takich łańcuchó\v dąży do rozkładu jednostajnego. Elementarna entropia zbioru takich łańcuchów równa jest Kl og k,! . _n .. k. ! = K(log/! - logk1 ! -
logk„ !).
„. -
logk! = klogk - k+ O(logk)) oraz I= k 1 + .. . + k„ możemy obliczyć średni
H(p 1,
•••
z
równości
,p„) =
+·K(l log I -
l + O(log /) -
11
=K
f
1:(k; log k; - k; + O(log k;)))
Il
j ( ~ k; log I + O(log/) - ~ k; log k; + O(log I)) 11
(log
11
(log I) .
k; log k; +O I) = -K """' = - K """' L.., 7 L.., P; logp; +O - 7 1 1 i= I
Przy l
->
i= I
oo ostatni wyraz dąży do O, co sugeruje
następuj ącą definicję:
Defi nicja 9.5.1. Przypuśćmy, że prawdopodobieństwa wystąpienia poszczególnych elen1entów zbioru 11-elen1ento\vego równe są p 1, •• • ,p„. Entropię Shannona rozkładu Pr, ... ,p„ definiujemy jako H(p 1 , ••• , p„) = - K(p 1 logp 1 + ... + p„ Iogp„).
Uwaga 9.5.2. Ponie\vaż lirn p logp =O, więc przyjmujemy O · log O= O. p ~O
W oczywisty sposób H(p i, ... ,p„) ;;:, O.
226
9.5. Entropia Shannona i informacja
po\vyŻszej definicj i przyjąć K = 10~ 2 , to otrzyman1y binarną entropię Shannona. W szczególnym przypadku, gdy p; = ~11 dla każUwaga 9.5.3.
Jeżeli
\V
dego i, dostajemy H(n) = - Kn · .!. log .!. = Klogn, czyli ponownie Il
elementarną, którą
teraz możemy
11
entropię
także nary\vać entropią jednostajną .
Uwaga 9.5.4. Przypon1nijmy, że elen1entarna entropia binarna określa, ile bitów infonnacji nlusimy uzyskać, aby wskazać elen1ent w zbiorze 11.-elementowym z jednostajnym rozkładem prawdopodobieńst\va. Innymi słowy jest ona rniarą nieokreśloności wyniku w bitach. Z drugiej strony binarna entropia Shan nona jest m i arą średniej nieokreśloności \v bitach dla zbioru z rozkładem prawdopodobicńst\va P1, . .. , p„. Ponieważ
logarytm jest funkcją \vklęsłą9 , lat\vo można pokazać, że dla dO\\'OI• nego rozkładu p1 , ... ,p" spełniona jest nierówność P1 log"x1 + .. . + p„ Iogx" ~ log(/J1X1 + .. . + P11X11) . Stąd
H(pi, ... •/)11) =Pl logp; + . . . + P11 logp~ 1 1 ~ log(p1p; + . .. + P11P~ ) =log n.
1
1
Zau\vażmy, że
entropia Shannona H(p 1, • • • , p11 ) osi<1ga powyższe górne ogra-
„
niczenie dla p 1 = ... = p„ = .!. . Ponadto entropia Shan nona posiada
następu-
jącc własności:
l. H(p1, . .. ,p11) jest symetryczną funkcją ciągłą, . . . 2H( . . -I , . .. , -I ) Jest n1euje1n n ą Il
3.
Jeżeli
11
rosnącą
(p 1„ .. ,p 11 ) i (q1, ... , q,,,)
fun k' . . qą z1111enneJ n,
są rozkładami prawdopodobieństwa,
to
H(p1 „ .. ,P11) + P11H(q1 „ .. , ą111) = H(p1 , · · · , P11- 1. P11ą1. · · · .p11q,,,). Definicja entropii Shannona stanie się jeszcze bardziej naturalna, gdy pokażen1y, że t\vierdzenie odwrotne jest także pra\vdziwe: Twierdzenie 9.5.1. Jeżeli H(p 1, ... ,p11 ) spełnia \varunki 1- 3, to H(JJ1, ...• P11) = - K(p1 łogp1 + ... + P11 logp11 ) dla pewnej dodatniej stałej K. 9
Funkcja rzeczywista f jest wklęsła na przedziale /, jeżel i jej wykres znajduje sir; nad ci~ciwą łączącą dowolne dwa punkty j{x1) if(x2), x 1, x2 E /. Fonnalnie funkcja wklę sła musi spełniać warunek j(>.x 1 +(I - >.)x2) ;;o >.j(x1) +(I - >.}/(x2) dla AE [O, I) ix1,x2E l.
227
9. Dodatek B. Podstawy matematyczne
Dowód. Najpierw dowiedziemy wyniku pomocniczego: jeżeli f jest rosnącą. nieujcn111ą fu n kcją określoną na liczbach naturalnych, taką żef(.s"') = 11if{s), to fl.s) = Klogs dla pewnej dodatniej stałej K. Wyb ierzn1y do\volną liczbę naturalną n i ustaln1y 111, takie że sm ~ 2" < s111 +1 . Wtedy ~ & log2 '' '== log s
<
111 11
+ !.
(9.45)
11
Ponie\vaż f jest funkcją rosnącą, \vięc marny także f(s 111 ) ~ f(2") z czego wynika, że ~ & /(2) 11 "'
f(s)
<
Ili 11
< f(s
+!
111
1
+ ),
(9.46)
11 •
Na podstawie nierówności (9.45) i (9.46)
możerny napisać
/(2)
log2 1 ~ f(s) - logs Il
Liczbę n możerny ustalić dowolnie dużą, musi więczachodzićf(s) = ro~~ log s = "' K logs. Stała K =ro~~ jest dodatnia, gdyżf(l) = /(lo) = 0/(1) =O, zaśfjest funkcją rosnącą.
Dla dowolnej liczby naturalnej n definiujerny f(n) = H( ! , ... , ! ). Pokażen1y, Il
że f(sm)
1
Jl
= nif(s). Z symetrii funkcji H oraz warunku 3. rnarny I
I
I
I
I
1
H(, . .. , -s"' ) = H( -s , ... , -s )+s · -s H( , , ... , ,), s"' .! "'.\m-
co oznacza, że f(s"') = f(s) + f(s 111 - 1). Ró\vność f(s"') = 1nf(s) n1ożna teraz udowodnić indukcyjnie. Ponieważ f jest funkcją rosnącą i nieuje1nną (\varunek 2.), \vięc widzin1y, że.f(s) = Klogs dla pewnej dodatniej stalej K. Niech p 1, . •• , p11 będą I iczbami \vymiernyrni spełn iającyn1i wa runek Pl + .. . + p„ = I. Zakladan1y, że p; = ~ , gdzie N= 1n1 + ... + 1n11 •
1
Z warunku 3. dostajen1y I 1 1 1 l H(N'. ··,N)= H(p1 · 1111 - , ... ,/J1 · -111, ,p2 · -111 , „
I
· „ · · „ · · „p11 · -11111 )
1111
ltlr. li
= H(p i, ... ,p") +
L i= l
228
1
I
p;H(-Ili ; , „ „ -111; ).
9.5. Entropia Shannona i informacja Stąd li
H(JJ 1, . .. ,p„ ) = -
L
1 I I p;H( - „ . „ - ) + H(N' /Il;
/Il i
I
„
„ N)
i=I
li
=
-K( LP; log111; - log N) 1= I
li
=
-K ~p; logn1; (
li
~p; log N)
li
= - K LP; logp;, i:J
a to pokazuje, że t\vierdzenic jest prawdziwe dla pra\vdopodobieńst\v będą cych liczbami wymiernymi. Ponieważ H jest funkcją ciągłą, więc wynik ten można w prosty sposób rozszerzyć na liczby rzecZ)'\viste. O
9.5.2. I tnformacja Od tej pory w wyrażen iu na entropię będzien1y zaniedbywać st alą K. Niech X= {x 1, • •• , x„} będzi e zb iorem 11-elementowym, a p(x 1) , ••• ,p(x11 ) niech będą pra\vdopodobieństwami wystąpien ia odpowiednich elementÓ\V. Podobnie niech Y będ zie zbiorem 1n-elen1entowy1n z rozkładen1 pra\vdopodobicństwa p(>•1), ... , p(ym). Zbiory takie będzie1ny identyfikować z dyskretnyn1i z111icnnyn1i losowy1ni: traktujen1y X j ako zmienną mogącą przyjmować n niożli\vych \vartości x 1, •• . ,x,„ każdą z prawdopodobieńst\ve1n p(x;). Entropia łączna zbiorów (zm iennych loso\vych) X i Y jest zdefiniowana jako entropia zbioru X x Y, gdzie odpowiedni rozkład pra\vdopodobieństwa jest łącznym rozkładen1
p(x;, )'j):
Ił
1-T(X, Y) = -
111
L LP(x;,)'.i) logp(x;,)'j). i =I
j= I
Entropia warunkowa X, j eżeli wiadomo, że Y przyjmuje wartość y;, jest zdefiniowana przez H(Xlyj) = - L
"
P(x;jyj) logp(x;jyj),
i= I
czyli powstaje przez zan1ianę rozkładu p(x;) na warunko\vy rozkład prawdopodobieńst\va p(x;jyj).
Entropia warunkowa X pod waru nkiem Y jest zdefi niowa na jako oczekiwana
wartość
229
9. Dodatek B. Podstawy matematyczne Ili
H(XIY) = LP(yj )H(Xlyj ). j =I
Korzystając stępujący
z wklęsłości funkcji logarytmicznej, lemat:
Lemat 9.5.1. H(XI Y)
ni ożn a łal\vo udo,vodn ić
na-
~ H(X).
Uwaga 9.5.5. Powyższy len1 at jest dość naturalny: stwierdza o n, wiedzy o Y nie rnoże Z\viększyć n ieokreśl oności X.
że
uzyska nie
Entro pie l
Lemat 9.5.2. H(XIY) = H(X, Y) - H(Y). Te raz możemy j uż zdcfinio,vać infonnację X przy znanym Y:
Definicja 9.5.2. /(XIY) = l-l (X) - 1-l(XIY). Defin icja 9.5.2 wyraża natura lny pogląd, że wiedza, jaką m oże111y uzyskać o X, poznając wartości Y, jest ró\vna niepe\vności co do X 111inus niepewność X pod \Varunkie111, że zna n1y Y. Zgodnie z lematem 9.5.l , mamy /(XIY) ~ O oraz, w trywialny sposób, /(Xll') ~ H(X). Na zakończen ie wyn1 ienin1y niektóre wlasności e ntropii i informacji. Dowody poniższych lemató\v pozostawian1y jako ćwiczen ie .
Lemat 9 .5.3 . H (X, Y)
~
H(X) + H(Y) .
Lemat 9.5.4 . Inormacja jest syn1etryczna: / (XI Y) = /(YIX). Powyższy
nazwę
wzaj e1nna inforrnacja X i Y. Dla sformuło,van i a następnego le n1 atu 111usin1y wprowadzić dodatkową tenn inologię. Niech X i Y będą zmiennymi loso\vy111i. Mówirny, że X zależy (\v sposób losowy) od Y, jeżeli istnieją prawdopodobieósl\va \Va runko,ve, takie że lemat uzasadni a
Ili
p (x;) = LP(x; IYi )P(yj ). j=I
Lemat 9.5.5. Niech X, Y, Z będą zn1iennyn1i losowymi, ta kimi że X za leży od Y, a Y za leży od Z. Jeżeli zn1 ien na X jest waru nkowo niezależn a od Z, to ICZIX) ~ !CZI Y) . 230
9.5. Entropia Shannona i informacja
.5.3. J Ograniczenie Holevo
1
Niech p E L(H„) będzie stanen1 (lub macierzą gęstości) 11-\vyn1iarowego układu kwantowego. Reprezentacja spektraln a p ina postać (patrz podrozdzia ł 8.4.1) P = >. d x1 )(xd + ... + >-11 lx11)(x11I,
gdzie liczby
>.; spełniają warunki >.; ) Ooraz
>., + . . . + >.11 = 1. Entropia von Neu manna stanu p jest zdefiniowana jako S(p) = - T r(p log p).
Zgodn ie z (8.19)
wyrażen ie
p logp j est określone przez
p log p = >.1 log >. d x1 ) (x il + ... + >.„ tog >.„ lx11) (x„ I, skąd
S(p) = - Tr(plogp) = - (>.1 Jog>.1 + ... + >.11 łog>.11).
Oznacza to, że entropia von Neun1anna układu kwantowego p E L(H11) jest równa entropii Shannona rozkładu (>. 1, ... , >.11 ) . Uwaga 9.5.6. Entropia von Neumanna stanu czystego jest zawsze równa O, co 1nożna łatwo pokazać z definicji. Ograniczenie Holevo jest górnyn1 ograniczeniem na dostępną informację \V układach kwanto\vych. Aby sformułować twierdzenie Holevo załóżrny, że istnieje układ wyt\varzający stany kwantowe p 1, • •• , p11 E L(H„) z prawdopodobieństwam i p 1, .. . ,p11 • Niech X będzie z1nienną losową, określ ającą, który ze stanó\v p; został \vytworzony, tzn. X przyjmuje \vartość i \Vtcdy i tylko wtedy, gdy \yYtworzonyn1 stanem byt p;. Niech Y będzie obse1wablą \V H11 • Pra\vdziwe jest następuj ące t\vicrdzenie: Twierdzenie 9.5.2 (Og raniczenie l(XjY)
~
li
S(
~p;p;
)
Hołevo,
[47]).
li
-
~p;S(p;).
Uwaga 9.5.7. Wyrażenie „Y jest obsenvablą w H11" rozumiemy nastcypująco: Istnieje zbiór {E 1, .. . , Em} wzajemnie ortogonalnych podprzestrzeni H„, takich że H„ = E 1 $ . .. EV E111 (patrz definicja 8.3.1) i każda podprzestrzel1 E; posiada etykietę i. Wtedy Y jest zmienną loSO\Vą przyjn1ującą \vartość i wtedy i tylko \Vtcdy, gdy obserwabta { E 1, ... , Em} przyjn1uje \vartość i. Powyższe t\vierdzn ie jest spełni one także wtedy, gdy Y jest dodatnią miarą o wartościach operatoro\vych, a nie tylko Z\yYkłą obserwablą
Uwaga 9.5.8.
w rozun1ieniu definicji 8.3.1.
„
9. Dodatek 8. Podstawy matematyczne
9.6. j Zadania 1. Udowodnij, że zbiór S C V jest liniowo zależny wtedy i tylko wtedy, gdy dla pe\vnego x E S, x E L(S \ {x} ).
2 . Pokaż, że jeżeli B i B' są bazami przestrzeni H,„ to musi zachodzić
IBI = IB'I. 3 . (a) Niech
n~
2 o raz x 1, x 2 E H„.
Pokaż, że można \vybrać
y E H„ w ta-
ki sposób, aby L(x,, y) = L(x1> x2) i (x, IY) =O. (b) Uogólnij pu nkt (a) \ V taki sposób, aby otrzyn1 ać n1etodę znajdo,van ia ortonormalnej bazy przestrzeni H„ (n1etoda ta nazY'va się or togonalizacją Gran1a-Schn1idta). 4 . Udowodn ij ,
że funkcja f: N
->
C zdefin io\vana przezf(n) =
.!.11 należy do
Lż(C), jed nak nie da się przedstawić jako linio\va kon1binacja e len1entó\v
ze zbioru E = { e 1, ~, . .. } . 5. Udowodn ij \varunek wnętrznym równanie 2
równoległoboku :
2
2
llx + Yll + llx - Yll = 2(1ixll + llYll
2
w przestrzeni V z iloczynem we-
)
jest spełnione dla wszystkich x, y E V. 6. Pokaż, że podprzestrzeń W przestrzeni Lż(C) generowana przez wektory { e 1, e 2, .•. } nie jest przestrzen ią Hilberta (por. przykład 9.3.4). 7. Udo\vodn ij le rnat 9.4.l.
8. Udowodn ij lemat 9.4.4. 9. Udo,vodn ij len1aty 9.5.3 i 9.5.4.
1 O. Korzystając z \vłasn ości funkcj i loga1y tn1icznej, udowod nij le n1at 9.5.5.
Bibliografia
10
[1] M. AgaT\val, N. Kayal, N. Saxena, PRJMES is in P Dostępny \V forn1ie elektronicznej pod adresem: http://www.cse.iitk.ac.in/prima lity.pdf. (2] A. Amba in is, A 11ote on qua11tun1 black-box coniplexity of aln1os1 all Boolean fi1nctions , Infonnation Processing Lette rs 71, 5- 7 (1999). Dostępny \V forn1ie elektronicznej pod adrese1n : quant-ph/981 1080. 11
[3] A. Ambai nis, Polynon1ial degree vs. quantu111 que1y cornplexity. Dostępny \V
fonnie ele ktronicznej pod adresem: quant·ph/0305028.
(4 J E. Bach, J. Shall it, Co1np11tational number rheo1y, MIT Press (1996).
[5] A. Barenco, C. H. Bennett, R. Cleve, D. P. DiVincenzo, N. Margolus, P. Shor, T. Sleator, J. Sn101in, H. Weinfurter, Elen-1enta1y gares for quantum con1putatio11 , Physical Review A 52:5, 3457-3467 (1995). Dostępny w formie elektronicznej pod adresen1: quant-ph/9503016. [6) R . Beals, H. Buhrman, R. C leve, M. Mosca, R. de Wolf, Quan111rn /ower bou11ds by polynonzials, Proceedi ngs of the 39th Annual IEEE Sy111posium on Foundations of Con1puter Science - FOCS, 352- 361 ( 1998). Dostępny w fonn ie elektronicznej pod adrese1n: quant·ph/9802049. [7) P. A. Benioff, Quantu111 n-1echanica/ Ha111iltonian models of discrete pro· cesses that erase their ow11 histories: application to Ti1ring 1nachines, Internationa l Journal of Theoretical P hysics 21 :3/4, 177-202 (1982).
[8] C. H. Bennett, Logical reversibility of co111putatio11, IBM Journa l of Research and Developn1ent 17, 525-532 (1973).
(9] C. H. Bennett, Ti1ne/space 11r1de-ojfs for reve1~·ible computation, SIAM Jou rna l of Computing 18, 766- 776 ("1989). [10) C. H. Bennett, E. Bernstein, G. Brassard, U. V. Vazirani, Stre11g1hs and weak11esses of qua11tu111 co1np11tatio11, SIAM Journal of Computing 26:5, l510- l 523 (1997). Dostępny \V fonn ic elektronicznej pod ad resem: quant-ph/9701001. dodaLkOWi! literaturą w jezyku polsk im polecamy książ~9 autorstwa K. Giara i M. Kamińskiego pt. Wprowadzenie do algOl)'ln1ów kwa111oivych, Akademicka Oficyna Wydawnicza EX IT, 2003 - przyp. red. · " Kod „quant-ph/981 1080" oznacza dokument http://xxx.Janl.gov/abs/quant-ph/9811080 w bibliotece preprintów w Los Alamos. •O Jako
Biblio rafia
[ 11) C. H. Bennett, G. Brassard, C. Crepeau, R. Jozsa, A. Peres, W. K. Wootters, Telepo1ti11g an 1111k11ow11 qua11t11n1 state via dual classical and Ei11s1ei11-Podolky-Rose11 cl1a1111els, Physical Revie\v Letters 70, 1895-1899 ( 1993). (l 2] C. H. Bennett, S. J. Wiesner, Comm11nica1io11 via one- and twoparticle operators 011 Ei11stei11-Podolsky-Rose11 states, Physical Review Letters 69 (20): 2881-2884 (1992). [13j E. Bernstein, U. Vazirani, Q11ant11n1 co111plexity theo1y, SlAM Journal of Computing 26:5, 1411- 1473 (1997). (14] A. Berthiaume, G. Brassard, Oracle q11a11111111 co111p11ti11g, Proceedings of the Workshop on Physics and Computation - PhysComp'92, IEEE Press. 195-192 (1992). [15J D. Boschi, S. Branca, F. De Martini, L. Hardy, S. Popescu, Expc1in1e11tol realization ofteleporting an unknown pure q11a11t11ni state via dual classiccil and Einstein-Podolsky-Rosen channels, Physical Review Letters 80:6, 1121-1125 (1998). Dostępny \V formie elektronicznej pod adresem: quant-ph/9710013. (16) D. Bou\vmeestcr, J.-W. Pan, K. Mattle, M. Eibl, H. Weinfurter, A. Zeilinger, fuperin1e11tal qua11t11m teleponation, Nature 390, 575- 579 (1997). [ 17) M. Boyer, G. Brassard, P. Hs!lyer, A. Tapp, 7ight bo1111d 011 q11an111111 searc:fli11g, Fourth Workshop on Physics and Con1putation - PhysComp'96, pod redakcj
Biblio rafia
(23) P. Busch, P. J. Lahti, P. Mittelstacdt, The quantun1 theory of1neasure1nent, Springer-Verlag, 1991. (24) A. R. Calderbank, P. W. Shor, Good quanttun error-correcting codes exist, Physical Review A 54, l 098-1105 (1996). Dostępny w form ie elektronicznej pod adresem: quant-ph/9512032. [25] M. -D. Choi, Co1npletely positive linear rnaps on co1nplex rnatrices, Linear Algebra and its Applications 10, 285- 290 (1975). (26) I. L. Chuang, L. M. K. Vandersypen, X. Zhou, D. W. Leung, S. Lloyd, Expe1irnental realizatio11 of a quantuni algorit/1111, Nature 393, 143- 146 (1998). Dostępny w formie elektronicznej poci adrcsern: quant-ph/9801037. [27] J. I. Cirac, P. Zoller, Quantum con1putations with cold trapped ions, Physical Revie\V Letters 74:20, 4091-4094 (1995). (28) H. Cohen, A course in conrputational algebraic number theory, G raduale Texts in Mathematics 138, Springer (1993), wydanie czwarte 2000. [29) W. van Dam, Two classical queries ve1:~us one quantu1n que1y. Dostępny w forn1ie elektronicznej poci
Biblio rafia
[38) R. P. Feynman, Simulating physics with co1nputers, International Journal of Theoretical Physics 21:6/7, 467-488 (1982). [39) A. Furusawa, J. L. Sorensen, S. L. Braunstein, C. A. Fuchs, H. J. Kim ble, E. S. Polzik, Uncondirional quanrun1 teleportation, Science 282, 706- 709 (1998). [40] D. Gottesn1ann, The 1-leisenberg Representation of Quantun1 Con1puters. Dostępny w formie elektronicznej pod adresern: quant-ph/9807006. [41 J L. K. G rover, A fast quantun1-mechanical algoritl11n for data base search, Proceedings of the 28th Annual ACM Symposiu1n on the Theory of Computing - STOC, 212-219 (1996). Dostępny \V formie elektronicznej poci adresem: quant-ph/9605043. (42) L. K. Grover, T. Rudolph, flow significant are the known collision and elenient distinctness quanti11n algorithms? Dostępny w form ie elektronicznej pod adresem: quant-ph/0306017. (43) J. Gruska, Quantun1 Co1nputing, McGraw-Hill (1999). [44] G. H. Hardy, E. M. Wright, An introduction to the the01)' ofnumbers, wydanie czwarte zmienione, Clarendon Press, Oxford (1971). (45] M. Hirvensalo, On quanturn co1nputation, Ph. Lic. Thesis, Univcrsity of Turku, 1997. [46] M. Hirvensalo, The re11ersibility in quantu1n co1nputation theo1y, Proceedings of the 3rd International Conference Developrnents in Language Theory - DLT'97, pod redakcją : S. Bozapalidisa, Aristotle University of Thessaloniki, 203- 210 (1997). r47] A. S. Holevo, Sraristical Proble1ns in Quantum Physics, Procccdings of the Second Japan-USSR Symposiun1 on Probability Theory, pod redakcją: G. Mu rayan1y, J. V. Prokhorova, Springer, 104- 109 (1973). (48] R. Jozsa, A stronger no-cloning rheoreni. Dostępny w form ie elektronicznej pod adresen1: quant-ph/0204153. (491 L. K. Hua, lnlroduction to 11u111ber theo1y, Springer-Yerlag, 1982. [50) A. Y. Kitaev, Quanturn computation: algoritluns and e1ror co1rection, Russian Mathernatical surveys 52:1991 (1997). (51) E. Knill, R. Laflan1111e, R. Martinez, C.-H. Tseng, An algorithniic bench111ark for quantun1 infonnarion processing, Nature 404: 368- 370 (2000). (52) R. Landauer, lrreversibilily and heat generation in the co111puti11g process, IBM Journal of Research and Development 5, 183- I91 (1961). (53] M. Y. Lecerf, Recursive insolubilite de l'equation generale de diagonalisation de deiir n1011omo1phisn1es de n1onoi'des libres rpx = t/Jx, Con1ptes Rendus de I' Acade111ie des Scicnccs 257, 2940-2943 (1963). 236
Biblio rafia
l54] M. Li, J. Tromp, P. Vitanyi, Reversible sitnulation of irreversible co1nputatio11, Physica D 120:1/2, 168-176 (1998). Dostępny \V formie elektronicznej pod adresem: quant-ph/9703009. (55] S. Lloyd, A pote11tially realizable q11<111tun1 co111p11ter, Science 261, 1569- 1571 (1993). r56) H. Maassen. J. 13. M. Uffink, Generalized entropie 1111cenainry relations, Physical Rcvie\v Lettcrs 60: 12, 1103-1106 (1988). [57) F. J. MacWilliams, N. J. A. Sloane, The 1heo1y of e1ror-co1recting codes, North-I-lollancl ( 1981). [58] G. L. Miller, Rie11u11111's hypothesis and tests for primality, Journal of Computer and Systen1 Sciences 13, 300-317 ( 1976). [59) M. Mosca, A. Ekert, The hidden subgroup proble1n and eigenvalue estin1atio11 011 a qua11t11111 computer, Quantum Computing and Quantu1n Communications, Proceedings of the lst NASA International Conference, Lecture Notes in Co111puter Science 1509, 174-188, Springer (1998). Dostępny w forn1ie elektronicznej pod adrese1n: quant-ph/9903071. [60] A. J. Menczes, P. C. van Oorschot, S. A. Vanstone, Ha11dbook of applied Cl)ptography, CRC Press Series on Discrete and Mathematics and Its Applications, CRC Press (1977). [61 ) J. von Neu n1ann, Marhen1atical fou11datio11s ofquan/11111111echa11ics, Princeton University Press, tlu1naczenie z języka nien1icckiego R. T Beyer (1955). (62] M. A. Nielsen, I. L. Chuang, Qua11tu111 Con1putatio11 and Qua11t11111 !11for111atio11, Ca111bridgc University Press (2000). (63] M. Oza\va, Quant11111 Turing 111achines: loca/ rra11si1io11s, preparation, tneas11re111e11t, and hal1i11g prob/e111, Quantum Communication, Computing, and Measurement 2, pod redakcj
Biblio rafia
[69] M. B. Plenio, P. L. Knight, Realistic /ower bounds for the factorization time of large numbers on a quantu111 co1nputer, Physical Review A 53:5, 2986-2990 (1996). Dostępny w forn1ie elektronicznej pod adresen1: quant-ph/9512001. (70] E. L. Post, The two-va/ued iterative syste1ns of111athematica/ logic, Princeton University Press (1941 ). [71] E. L. Post, A variant of a recursively unsolvable problem, Bulletin of the Arnerican Mathematical Society 52, 264-268 (1946). [72] J. Preskill, Robust solutions to hard proble1ns, Nature 39·1, 631- 632 (1998). [73] M. Riesz, Sur fes mcirima des fonnes bilineaires et sur les fonctionn.elles /ineaires, Acta Mathen1atica 49, 465-497 (1926). [74] Y. Roghozin, On the notion of universality and s1nall universa/ 7ining 1nachines, Thcorctical Cornputcr Science 168, 215-240 (1996). (75] S. M. Ross, lntroduction to probabi/ity nzodels, wydanie czwarte, Academic Press (1985). (76] J. B. Rosser, L. Schoenfeld, Approximate for111ulas for so1ne functions of prilne nu111bers, Illinois Journal of Mathematics 6:1, 64-94 (1962). [77] W. Rudi n, Analiza funkcjonalna, PWN (2001). [78) K. Ruohonen, Reve1:5ible 1nachines and Post's correspondence proble111 for biprejix 1no1phisn1s, EIK- Journal of Information Processing and Cybernetics 21: 12, 579-595 (1985). [79] A. Salornaa, Public-key cryptography, Texts in Theoretical Cornputer Science - An EATCS Series, \vydanie drugie, Springer (1996). (80] Y. Shi, Both Toffoli and controlled-NOT need little help ro do universa/ quantu1n co1nputatio11, Quantum Inforn1ation and Coinputation 3:1 , 84-92 (2003). Dostępny w formie elektronicznej pod adresem: quant-ph/0205115. [81 J P. W. Shor, Algorithn1s for quantum co1nputation: discrete log and factoring, Proceedings of the 35th annual IEEE Syn1posium on Foundations of Con1puter Science - FOCS, 20-22 (1994). [82] P. W. Shor, Sche111e for reducing decoherence in quantum co1np11ter 111emo1y, Physical Review A 52:4, 2493-2496 (1995). (83] U. Schoning, A Probabilistic algorith111 for k -SAT based 011 li111ited /ocal search and resta1t, Algorith rnica 32, 615-623 (2002). [84] D. R. Simon, On the power of quantu1n computation, Procecdings of the 35th Annual IEEE Symposium on Foundations of Computer Science FOCS, 116- 123 (1994). 238
Bibliografia
[85) D. R. Stinson, C1)'ptography - Theo1)' and practice, CRC Press Series on Discrete Mathematics and lts Applications, CRC Press, Boca Ratan ( 1995). [86] W Tittel, J. Brendel, H. Zbinden, N. Gisin, Violation of Be{{ inequalities by photons 111ore than 10 kn1 apan, Physical Revie\V Letters 81:·17, 3563-3566 (1998). Dostępny w formie elektronicznej pod adresem: quant·ph/9806043. [87) T. Toffoli, Bico111i1111ous extensions of invertible co111bina1orial f1111crions, Mathen1atical Systen1s Thcory 14, 13- 23 (I 981 ). [88) B. L. van der Waerden, Sources of qua11t11111 mechanics, North-Holland (1967). [89) C. P. Willian1s, S. H. Clearwater, Explorations in quantt11n co111puting, Springer (1998). (90] C. P. Williams, S. H. Cleanvater, Ulti111ate zero and one. Co111p11ting ar the qua11111111 frontier, Springer (2000). [91] W K. Wootters, W. H. Zurek, A single quantum cannot be cloned, Nature 299. 802-803 (1982). (92] A. Chi-Chih Yao, Qua111u111 circuit co111plexity, Proceedings of the 34th Annual IEEE Symposiurn on Foundations of Con1puter Science FOCS, 352-36 1 ('1993).
Indeks
BPP · 47-50, 52 UQP • 52 EQP· 52 NP· 47, 52 NQP· 52 p. 45, 50 R · 44-45 RE·44 RP· 47-48, 50, 52 ZPP· 47, 49- 50, 52
A algorytm · 44 - Euklidesa • 215 - Las Vegas· 49 - wyszukiwania G rovcra · 99, J15 alfabet · 42 - binarny· 55 Ambainis A. • 132 amplituda prawdopodobieństwa · 19, 24,
136, 150
bramka odwracalna · 57 - sterowanej negacji · 30 Brassard G. · 116 Braunste in S. L. · 34, 189 Buhrman H. · '119-120 Busch P. • '169
c charakter · 201 - trywialny · 202 Chuang I.· 8 cialo doskonale czarne • 133 Cleve R. · 119- 120
D Davisson C. 1. · 134 de Broglie L. · 135 de Wolf R . • 119- 120 degeneracja · 144 Deutsch D. • 13, 54, 157 Dirac P. • 135 dopclnicnie ortogonalne· 138, 213
B baza· 211 - naturalna · 211 - obl iczeniowa · 24 Beals R. · 119-120 Benioff P. • I 3 Bennett C. • 53 Bernstein E. · 13, 55 binarna bramka kwantowa • 29 bit kwantowy· 20, 24 Bohr N.· 134 Born M. · 135 Boyer M. · 116
240
E efekt · 169 - fotoelektryczny· 134 Ei nstein A.· 134 element - jednostkowy · 192 - kierunkowy · 98 - neutralny· 192 - odwrotny · 192 - przeciwny · 192 eliminacja Gaussa · 98
entropia · 225 - Shannona·l57,225,227 - warunkowa · 229 - von Neumanna · 231 epimorfizm· 200 ewolucja czHsowa • 178 - - kwantowa · 151
F Feynman R. · 13, 32, 54 fizyka kwantowa · 8 foton · 134 Frćchcł M . · 162 fu nkcja cza rnej skrzynki · I 00- 102 - Eulera rp • 197 - falowa · 19 - przejścia • 42 - wklęsla · 227 funkcjonal • 162
G Ga li le usz · 133 Ocrmcr L. H. · 134 Grovcr L. · 99, 106-107, 119 grupa, aksjomaty • 192 - cykliczna · 202 - dualna • 202 - ilorazowa • 195 - liniowa • 193 Oruska J. • 8
~
prosty · 200, 202 - tensorowy · 22, 30 - wa~tw • 196 - wewnętrzny · 204, 212 indeks· 194 informacja · 10, 225 - kwantowa · 8 interferencja • 27 - konstruktywna· 27, 136 - destruktywna · 27, 136 inwersja względem średniej · 110
J jądro·
199
Jordan P. • 135 Jozsa R. · 8, 34, 188
K kanał
- klasyczny · 36 - kwantowy • 36 klonowm1 ie · 34 kodowan ie supcrgęstc · 40 komu tator · 156 kombinacja - liniowa · 210 - wypukła· 163 kon1puter kwan1owy · 11 konfiguracja · 43, 51 krok obliczeniowy· 43 kubit · 24, 151
L H Heisenberg W.· 135 Ilerłz · 134 homomorfizm bijekływny · 200 - grup· 199 - injektywny • 199 - surjektywny · 199 l l~yer P.· 1 1 6
I iloczyn charak1erów • 201 - Kroneckera · 30
Landauer R. · 53 Lecerf Y. · 53 liczby - Fibonacciego • 220 - naturalne· 192 liniowa zależność · 210 litera · 42 literal · 99 logaryt m dyskretny · 96 ł
lai1cuch Markowa · 18
241
M Maassen H. · 157 macierz - gęstości · 162 - gcneruj<1ca · 91 - l!adamarda · 66 - l ladamarda-Walsha • 26. 66 - Markowa · 18 - obrotu · 149 - permutacji · 60 - przesunięcia fazowego · l-ł9 - sprzężona · 20 - unitarna · 20 - wierszowo zredukowana • 98 Markow A. · l8 maszyna Turinga · 8, 42. 44 - deterministyczna · 42 - kwantowa · 5 1 - Monte Carlo · 49 - niedeterministyczna · 48 - probabiIistyczna · 45 - uniwersalna · 54 - wielota!\mowa · 50 Maxwell J. C. · 134 n1etryka · 214 miara - operatorowa · 156 - spektralna · 155 mnożenie przez skalar · 209 monomorfizm • 200 Mosca M. · 119-120
- kwantowe · 9 - odrzucające · 43 - zatrzymujące się · 43 obraz · 199 - Heisenberga · 178 - Schrodingera · 178 obserwabla · 15, 155, 164 obse!'vacja • 11, 24, 34 obwód · 42 - kwantowy • 60 - logiczny· 44, 55 - odwracalny· 57 oczyszczanie · 177 odległość · 214 odwzorowanie - całkowicie dodatnie · 178-179 - liniowe · 215 ograniczenie Holevo · 231 okres · 209 operacje elementarne na wierszach · 98 operator· 138, 215 - dodatni · 140 - gęs10!\ci · 163 - Hamiltona · 148, 153 - identycznościowy • 145 - samosprzężony • 135, 139, 143 - sprzężony · I 39 - unitarny · 139 - zapytania, zn1odyfikowany · 107 or1ogonalizacja Grama-Schmidta · 232 ortogonalność · 213
p N następnik
· 43 Newton 1. · 133 Nielsen M. • 8 nierozstrzygalność·
45 nie równość Cauchy'cgo-Schwartza · 213 norma · 138, 204. 213
o obliczenia • 43 - akceptujące · 43 - jednostajne · 42
para EPR · 29 Pati A. K. • 34, 189 Paturi R. · 127 Pauli W. · 135 Planck M. · 133 podgrupa • 193 - normalna · I94 - trywialna • 194 - ukryta · 89 podprzcs1rzeó • 211 pomiar· 34 - Neumanna-LUdersa · 34 Post E. · 53, 56
powłoka
lin iowa· 21 1 Presk i łl J. · 14 problem - decyzyjny · 44 - rekurencyj nie rozwiązal ny· 44 - wyszukiwania· 99 protokół z wiedz< ! zerową · 99 przestrzeń
-
dualna · 162 fazowa · 15 Hilberta · 19, 23-24, 28, 32, J37, 214 konfiguracyjna · 46 stanów · 19 unormowana · 213 wektorowa · 209 - aksjomaty · 209 - z iloczynem wewnętrznyn1 · 212 - zupełna · 137, 214 przystawan ie moduło · 195
R Rayleigh J. · 133 redu kt · 219 rejestr !-·wantowy · 28, 32, 151 relacje ortogonalności · 206 reprezentacja - Krausa · 180 - macierzowa · 143 - spektra lna · 144, 146, 148 Riesz f · 162 Riesz M. · 159 rozk ład
- prawtlopotlobieństwa · 157 - Schmidta · 175 rozstrzygal ność · 44 równanie Sch rodingera · 153, 164 Rudolph T · 119 Ruohonen K. · 53 rząd ·
196 rzu t· l 40, 20 1
s Schonig U. · 100 Shannon C. · 14
Shor P. · 14, 54 Simon D. · 89, 97 słowo · 42 Solovay- Kitacv · 6 1 srała
- Boltzmanna · 53 - Eulera • 85 - Plancka · 133 stan · l 1, 15, 1.9, 24, 28, 150, 163 - bazowy · l i, 19, 24, 150 - czysty · 16, 163 - mieszany· 16, 163 - rozkładalny · 23, 28, 31, 151 - równoważny · 150 - sph1tany · 23, 28, 15 I Stone M. · 152 suma prosta · 202, 215 supcropcrator · 179 superpozycja · 11, 19, 52, 150
ś ślad
· 139
T 'fi1pp A .· 116 teleportacja · 36-38 teoria - gru p· 192 - względności · 10 teza - Churcha-Turinga · 44 Toffoli T · 59 tożsamo~ć
- Bezout · 197 - Parsevala · 63, 207 - polaryzacyjna· 141 transformata dyskretna · 206 - Fouriera · 63- 64, 71, 201, 206-209 - Hadamarda · 66, 207 - Hadamarda-\Valsha · 38, 65-66, 207 - kwantowa · 63-64 - odwrotna • 208
243
„
transformata, rozkład · 65 - szybka · 72 - \Valsha · 66, 207 transwcrsala · 9 ł twierdzenie - chińskie o resztach · ł 98 - Eulera • 199 - Fermata, małe · 199 - Głcasona · 166 - Lagrange'a · 194 - o nieklonowaniu · 33, 188
u Uffink .I. · 157 układ kwantowy - otwarty · 179 - zamknięty · ł 79 układy złożone · 150 ułamek łańcuchowy · 2 I 7 unitarność · 140
- własny · 138 - stanu · 15, 135 wewnętrzne stany sterowania · 42 widmo · 144 Wien W.· 133 \Voouers W. K. · 33 wymiar · 211 wzmacn ianie amplitudy · 107
V van Dan1 W. · 132 Vazirani U. · 55
y Yao A. · 61 Young · 134
z
zalożenie
w waga Ilamminga · 125 wariancja • 156 warstwa · 193 wartość oczekiwana · 155 warunek równoległoboku · 214 wektor bra · 162 - ket · 162
Simona • 89
zasada nieoznaczoności · 157 - - entropowa • I58 - nieusuwalności · 34, 188-189 - przyczynowości · 151, 178 tlnżen ie · 42 złożoność czasowa · 45 zmiana fazy · 28 zmienna losowa · 229 Zurck W. I I. · 33