Daniel Lidar, Viterbiho profesor inženýrství na USC a ředitel USC Center for Quantum Information Science & Technology, a hlavní autor Dr. Bibek Pokharel, výzkumný vědec z IBM Quantum, se v nedávné době významně zasloužili o velký pokrok v oblasti kvantové výpočetní techniky. Předmětem jejich úspěchu se stal algoritmus, který postupně pilovali. Dnes tento algoritmus zvládne zpracovávat až 26 bitů dlouhé řetězce, což je výrazně více než bylo v dřívějších dobách možné. Specialita algoritmu spočívá jeho schopnosti efektivně potlačovat chyby, které se obvykle objevují při takto náročných výpočtech.
Pro porozumění, co tento pokrok v oblasti řešení problémů 26bitových dlouhých řetězců znamená, je důležité porozumět, co to vůbec bit je a jak funguje. Bit je v počítačové vědě základní jednotka informace a může nabývat jedné ze dvou hodnot: 0 nebo 1. Bitový řetězec je pak sekvence těchto bitů.
Když mluvíme o 26bitovém řetězci, mluvíme o řetězci, který obsahuje 26 bitů. Počet různých kombinací, které takový řetězec může mít, je 2 na 26, což je přibližně 67 milionů různých kombinací, kterých se dá dosáhnout.
Kvantové počítače: Slib a výzva
Cílem kvantových počítačů je řešit velmi komplexní a na výpočetní techniku obtížné úlohy. Kvantové počítače jsou nicméně náchylné k chybám či tzv. „šumu“. Šumem se v kontextu kvantových technologií myslí chyby a nedokonalosti v těchto systémech. Hlavní výzvou podle Lidara je se tomuto šumu vyvarovat, neboť se jedná o hlavní problém, který znatelně ovlivňuje celkový chod systému a jeho spolehlivost.
Tento stav náchylnosti současných kvantových technologií k šumu se nazývá „NISQ“ (Noisy Intermediate-Scale Quantum) éra, termín je převzatý z architektury RISC, která se zaměřuje na minimalizaci instrukcí pro procesor s cílem navýšení rychlosti a efektivnosti s jakou instrukce procesor zpracovává. Architekturu RISC si lze představit jako uklízeče, který Vám uklidí ze stolu, vypne notifikace na telefonu, odstraní všechny potencionální distrakce a nechá Vám na pracovním místě jen to, co je pro Vaší práci opravdu nezbytné. Je tedy zcela jasné, že chceme-li navýšit efektivitu a spolehlivost kvantových počítačů, musíme nejdříve odstranit šum.
Testování výkonnosti: Hledání bitových řetězců
Čím více neznámých proměnných problém má, tím je obvykle pro počítač obtížnější jej vyřešit. Vědci mohou hodnotit výkon počítače tím, že s ním hrají určitý typ „hry“, aby viděli, jak rychle algoritmus dokáže uhodnout skrytou informaci. Můžete si to představit, jako když Vám někdo dá hádanku, čím je hádanka snadnější, tím rychleji ji uhádnete, naopak čím bude hádanka delší a složitější, tím Vám její rozluštění dá více zabrat. Ve své studii nahradili výzkumníci slova bitovými řetězci. Klasický počítač by v průměru potřeboval přibližně 33 milionů pokusů k správné identifikaci 26bitového řetězce. Naproti tomu dokonale fungující kvantový počítač, prezentující odhady v kvantové superpozici, by mohl identifikovat správnou odpověď jen v jednom pokusu. Kvantová superpozice je termín pro „mezistav“. Zatímco běžné počítače využívají klasické bity, kvantové počítače využívají tzv. „qubity“, tedy bity, které mohou dosáhnout stavu 0, stavu 1 anebo stavu, který je mezi 0 a 1 – tomu se říká kvantová superpozice. Analogicky to lze vyjádřit na případu, kdy můžete buď trpět absolutní slepotou, anebo vidět normálně. V případě kvantové superpozice byste mohli být něco mezi – částečně byste byli slepí, ale částečně byste pořád viděli.
Zvládání šumu: Dynamické oddělení
Lidar a Pokharel dosáhli své kvantové rychlosti pomocí techniky pro potlačení šumu, která figuruje pod názvem: „dynamické oddělení“. Lidar s Pokharelem strávili rok experimentováním, přičemž Pokharel pracoval jako doktorand pod vedením Lidara na USC. U počáteční aplikace dynamického oddělení se ukázalo, že spíše výkon snižuje, než navyšuje. Nicméně po četných vylepšeních, která byla provedena, kvantový algoritmus konečně fungoval tak, jak bylo původně zamýšleno. Času potřebného pro vyřešení výpočetního problému v porovnání s klasickým počítačem bylo potřeba čím dál tím méně, přičemž kvantová převaha se stávala stále zřetelnější, jak problémy vzrůstali na obtížnosti.
Kvantové vs. klasické počítače
Kvantové počítače představují novou éru technologie, využívají ke svému provozu velmi efektivní principy kvantové fyziky jako je superpozice či kvantová propletenost, což jim umožňuje zpracovávat a porovnávat obrovské množství možných řešení simultánně (najednou). Jejich potenciál tak spíše spočívá v řešení velmi složitých komplexních výpočtů, které však nejsou běžným předmětem klasických počítačů, kterém Vám sedí doma na stolu. Ačkoli zde může vyvstat názor, že kvantové počítače jsou obecně lepší než ty klasické, a zanedlouho je bude každý mít ve svém pokojíku, spíše tomu tak nebude
Pro běžné úlohy a výpočty, které nevyžadují kvantovou rychlost, zůstávají klasické počítače stále nepostradatelné – klasické počítače tu tak pořád budou s námi. Nehledě na tom, že taková enormní výpočetní síla by Vám stejně k ničemu nebyla, nejste-li lukrativní jedinec, nejspíše byste se při snaze koupit takový počítač ani nedoplatili – a to ani nemluvím o astronomických cenách za elektřinu, které by Vám pak pravidelně byli účtovány.
Kvantové počítače se spíše dotknou vědecké technologické sféry, kde budou využívány pro trénování velkých generativních AI modelů, pohánění serverů velkých korporací, výpočtu pohybů částic či vesmírných fyzikálních zákonů, apod.
Kvantové počítače a AI: Vítejte v budoucnosti
Kvantové počítače a umělá inteligence (AI) jsou dvě z nejvíce disruptivních technologií dnešní doby, které mohou zásadně transformovat naši společnost. Tyto dvě oblasti se mohou navzájem výrazně obohacovat a doplňovat.
Na jedné straně máme kvantové počítače, které jsou schopny zvládnout výpočetní úlohy, jež jsou pro tradiční počítače prakticky nedosažitelné. Kvantové počítače využívají unikátní principy kvantové fyziky k mnohem rychlejšímu a efektivnějšímu provádění výpočtů. To zahrnuje komplexní simulace, faktorizaci velkých čísel, a hledání optimálních řešení v obrovských prostorech možností.
Na druhé straně máme umělou inteligenci, technologii, která se učí a vyvíjí tak, aby mohla řešit problémy, kde je běžně potřeba lidská inteligence, a přizpůsobovat se novým situacím. Umělá inteligence je výjimečná svou schopností učit se z velkého množství dat, velmi přesně predikovat výsledky a automatizovat složité či repetitivní úlohy.
Spojení kvantových počítačů a umělé inteligence by mohlo otevřít nové možnosti v obou těchto oblastech. Kvantové počítače mohou poskytnout umělé inteligenci obrovský nárůst v rychlosti a výpočetní síle, díky čemuž se znatelně urychlí procesy učení a trénování AI algoritmů. Díky tomu bychom byli schopní prozkoumávat nové, doposud nedosažitelné oblasti v oblasti vědy a techniky. Naopak, umělá inteligence může přispět svou „inteligencí“ při vývoji efektivnějších kvantových algoritmů a optimalizaci kvantových systémů.
V praxi by spojení kvantových počítačů a AI mohlo vést k výrazným inovacím v oblastech, jako je předpověď počasí, lékařský výzkum, finanční prognostiky, vytváření 3D digitálního světa, precizní předpověď vývoje globálního klimatu apod.
Kvantové počítače představují nejen revoluční průlom v oboru vědy a techniky, ale také zcela novou dimenzi pro zpracování obrovských objemů dat. Spolu s umělou inteligencí mohou mít kvantové počítače neuvěřitelný potenciál zrychlit a optimalizovat řešení složitých problémů v mnoha odvětvích, od medicíny až po finance. I přes všechny výzvy, jako je například kvantový šum, neustálá práce odborníků v těchto oblastech nám pomáhají tyto problémy překonat.