Horyzont dawnego - i dalej...
Technologia

Horyzont dawnego - i dalej...

Z jednej strony powinny pomóc nam pokonać raka, dokładnie przewidzieć pogodę i opanować syntezę jądrową. Z drugiej strony istnieje obawa, że ​​spowodują one globalną zagładę lub zniewolą ludzkość. W tej chwili jednak komputerowe potwory nadal nie są w stanie stworzyć jednocześnie wielkiego dobra i wielkiego zła.

W latach 60. moc miały najwydajniejsze komputery megaflopy (miliony operacji zmiennoprzecinkowych na sekundę). Pierwszy komputer z mocą obliczeniową powyżej 1 GFLOPS (gigaflopy) było Kredka 2, wyprodukowany przez Cray Research w 1985 roku. Pierwszy model z mocą obliczeniową powyżej 1 TFLOPS (teraflops) był Czerwony ASCI, stworzony przez firmę Intel w 1997 r. Osiągnięta moc 1 PFLOPS (petaflops) Roadrunner, wydany przez IBM w 2008 roku.

Aktualny rekord mocy obliczeniowej należy do chińskiego Sunway TaihuLight i wynosi 9 PFLOPS.

Choć jak widać, najpotężniejsze maszyny nie osiągają jeszcze setek petaflopów, coraz częściej systemy eksaskalowew którym należy wziąć pod uwagę moc eksaflopsach (EFLOPS), tj. około 1018 operacji na sekundę. Projekty tego typu są jednak dopiero na etapie projektów o różnym stopniu opracowania.

OBNIŻKI (, operacje zmiennoprzecinkowe na sekundę) to jednostka mocy obliczeniowej używana głównie w zastosowaniach naukowych. Jest bardziej wszechstronna niż dotychczas stosowana jednostka MIPS, czyli liczba instrukcji procesora na sekundę. Flops nie jest jednostką SI, ale można go interpretować jako jednostkę 1/s.

Na raka potrzebna jest eksaskala

Exaflop, czyli tysiąc petaflopów, to więcej niż wszystkie XNUMX najlepszych superkomputerów razem wziętych. Naukowcy mają nadzieję, że nowa generacja maszyn o takiej mocy przyniesie przełomy w różnych dziedzinach.

Eksaskalowa moc obliczeniowa w połączeniu z szybko rozwijającymi się technologiami uczenia maszynowego powinna pomóc m.in. złamać kod raka. Ilość danych, którymi muszą dysponować lekarze, aby diagnozować i leczyć nowotwory, jest tak ogromna, że ​​zwykłym komputerom trudno jest sobie z tym poradzić. Podczas typowej biopsji pojedynczego guza dokonuje się ponad 8 milionów pomiarów, podczas których lekarze analizują zachowanie guza, jego reakcję na leczenie farmakologiczne i wpływ na organizm pacjenta. To prawdziwy ocean danych.

powiedział Rick Stevens z Laboratorium Argonne Departamentu Energii Stanów Zjednoczonych (DOE). -

Naukowcy pracują nad połączeniem badań medycznych z mocą obliczeniową System sieci neuronowej CANDLE (). Dzięki temu jesteśmy w stanie przewidzieć i opracować plan leczenia dostosowany do indywidualnych potrzeb każdego pacjenta. Pomoże to naukowcom zrozumieć molekularne podstawy kluczowych interakcji białek, opracować modele predykcyjne reakcji na lek i zaproponować optymalne strategie leczenia. Argonne wierzy, że systemy eksaskalowe będą w stanie uruchomić aplikację CANDLE od 50 do 100 razy szybciej niż najpotężniejsze znane dziś supermaszyny.

Dlatego z niecierpliwością czekamy na pojawienie się superkomputerów eksaskalowych. Pierwsze wersje niekoniecznie pojawią się jednak w Stanach Zjednoczonych. Oczywiście USA biorą udział w wyścigu o ich utworzenie, a samorząd lokalny w projekcie tzw Aurora współpracuje z firmami AMD, IBM, Intel i Nvidia, starając się wyprzedzić zagranicznych konkurentów. Jednak nie oczekuje się, że nastąpi to przed 2021 r. Tymczasem w styczniu 2017 roku chińscy eksperci ogłosili powstanie eksaskalowego prototypu. W pełni funkcjonującym modelem tego rodzaju jednostki obliczeniowej jest − Tianhe-3 - jest jednak mało prawdopodobne, że będzie gotowy w ciągu najbliższych kilku lat.

Chińczycy trzymają się mocno

Faktem jest, że od 2013 roku chińskie rozwiązania znajdują się na szczycie listy najpotężniejszych komputerów na świecie. Dominował przez kilka lat Tianhe-2a teraz palma należy do wspomnianych Sunway TaihuLight. Uważa się, że te dwie najpotężniejsze maszyny w Państwie Środka są znacznie potężniejsze niż wszystkie dwadzieścia jeden superkomputerów w Departamencie Energii Stanów Zjednoczonych.

Amerykańscy naukowcy oczywiście chcą odzyskać pozycję lidera, którą zajęli pięć lat temu i pracują nad systemem, który im to umożliwi. Jest budowany w Oak Ridge National Laboratory w Tennessee. Szczyt (2), superkomputer, który ma zostać uruchomiony jeszcze w tym roku. To przewyższa moc Sunway TaihuLight. Zostanie wykorzystany do testowania i opracowywania nowych, mocniejszych i lżejszych materiałów, do modelowania wnętrza Ziemi za pomocą fal akustycznych oraz do wspierania projektów astrofizycznych badających pochodzenie wszechświata.

2. Plan przestrzenny superkomputera Summit

We wspomnianym Narodowym Laboratorium Argonne naukowcy planują wkrótce zbudować jeszcze szybsze urządzenie. Znany do tej pory A21Oczekuje się, że wydajność osiągnie 200 petaflopów.

Japonia także bierze udział w wyścigu superkomputerów. Choć ostatnio został on nieco przyćmiony przez rywalizację amerykańsko-chińską, to właśnie ten kraj planuje wystartować Układ ABC (), oferując 130 petaflopów mocy. Japończycy mają nadzieję, że taki superkomputer uda się wykorzystać do rozwoju AI (sztucznej inteligencji) czy głębokiego uczenia się.

Tymczasem Parlament Europejski właśnie podjął decyzję o budowie unijnego superkomputera za miliard euro. Ten obliczeniowy potwór rozpocznie pracę dla ośrodków badawczych naszego kontynentu na przełomie 2022 i 2023 roku. Samochód zostanie zbudowany w środku Projekt EuroGPKa jego budowę sfinansują państwa członkowskie – więc i Polska będzie uczestniczyć w tym przedsięwzięciu. Jego przewidywana moc jest powszechnie określana jako „pre-exascale”.

Póki co, według rankingu z 2017 roku, na pięćset najszybszych superkomputerów na świecie, Chiny mają 202 takie maszyny (40%), a Ameryka kontroluje 144 (29%).

Chiny wykorzystują także 35% światowej mocy obliczeniowej w porównaniu z 30% w USA. Kolejne kraje z największą liczbą superkomputerów na liście to Japonia (35 systemów), Niemcy (20), Francja (18) i Wielka Brytania (15). Warto dodać, że niezależnie od kraju pochodzenia, wszystkie pięćset najpotężniejszych superkomputerów korzysta z różnych wersji Linuksa…

Sami go zaprojektują

Superkomputery są już cennym narzędziem wspierającym przemysł naukowo-techniczny. Umożliwiają naukowcom i inżynierom dokonywanie stałego postępu (a czasem nawet ogromnych skoków naprzód) w takich dziedzinach, jak biologia, prognozowanie pogody i klimatu, astrofizyka i broń nuklearna.

Reszta zależy od ich mocy. W ciągu najbliższych dziesięcioleci wykorzystanie superkomputerów może znacząco zmienić sytuację gospodarczą, militarną i geopolityczną tych krajów, które mają dostęp do tego typu najnowocześniejszej infrastruktury.

Postęp w tej kwestii jest tak szybki, że projektowanie nowych generacji mikroprocesorów stało się już zbyt skomplikowane nawet dla licznych zasobów ludzkich. Z tego powodu zaawansowane oprogramowanie komputerowe i superkomputery coraz częściej odgrywają wiodącą rolę w rozwoju komputerów, także tych z przedrostkiem „super”.

3. Japoński superkomputer

Firmy farmaceutyczne już niedługo będą mogły w pełni funkcjonować dzięki supermocom obliczeniowym przetwarzanie ogromnej liczby ludzkich genomów, zwierzęta i rośliny, które pomogą stworzyć nowe leki i metody leczenia różnych chorób.

To kolejny powód (właściwie jeden z głównych), dla którego rządy tak dużo inwestują w rozwój superkomputerów. Bardziej wydajne pojazdy pomogą przyszłym dowódcom wojskowym opracować jasne strategie walki w każdym środowisku bojowym, umożliwią rozwój skuteczniejszych systemów uzbrojenia, a także wesprą organy ścigania i agencje wywiadowcze w identyfikowaniu z wyprzedzeniem potencjalnych zagrożeń.

Za mało mocy, żeby symulować mózg

Nowe superkomputery powinny pomóc w rozszyfrowaniu naturalnego superkomputera, który znamy od dawna – ludzkiego mózgu.

Międzynarodowy zespół naukowców opracował niedawno algorytm, który stanowi nowy, ważny krok w kierunku modelowania połączeń neuronowych w mózgu. Nowy Algorytm NIE, opisany w ogólnodostępnym artykule opublikowanym w Frontiers in Neuroinformatics, ma symulować 100 miliardów wzajemnie połączonych neuronów ludzkiego mózgu w superkomputerach. W prace zaangażowani byli naukowcy z niemieckiego ośrodka badawczego Jülich, Norweskiego Uniwersytetu Przyrodniczego, Uniwersytetu w Aachen, japońskiego Instytutu RIKEN oraz Królewskiego Instytutu Technologicznego KTH w Sztokholmie.

Od 2014 r. superkomputery RIKEN i JUQUEEN w Centrum Superkomputerowym w Jülich w Niemczech przeprowadzają symulacje sieci neuronowych na dużą skalę, symulując połączenia około 1% neuronów w ludzkim mózgu. Dlaczego tylko tak wielu? Czy superkomputery mogą symulować cały mózg?

Wyjaśnia Susanna Kunkel ze szwedzkiej firmy KTH.

Podczas symulacji potencjał czynnościowy neuronu (krótkie impulsy elektryczne) powinien zostać wysłany do około 100 osób. małe komputery zwane węzłami, każdy wyposażony w pewną liczbę procesorów wykonujących rzeczywiste obliczenia. Każdy węzeł sprawdza, który z tych impulsów należy do neuronów wirtualnych istniejących w tym węźle.

4. Modelowanie połączeń neuronowych w mózgu, tj. jesteśmy dopiero na początku naszej podróży (1%)

Oczywiście ilość pamięci komputera wymagana przez procesory na te dodatkowe bity na neuron wzrasta wraz z rozmiarem sieci neuronowej. Wymagałoby to wyjścia poza 1% symulacji całego ludzkiego mózgu (4). sto razy więcej pamięci niż to, co jest dostępne we wszystkich dzisiejszych superkomputerach. Dlatego też o uzyskaniu symulacji całego mózgu można byłoby mówić jedynie w kontekście przyszłych superkomputerów eksaskalowych. Tutaj musi zadziałać algorytm NEST nowej generacji.

TOP 5 superkomputerów na świecie

1. Światło Sunway Taihu – Superkomputer 93 PFLOPS uruchomiony w 2016 roku w Wuxi w Chinach. Od czerwca 2016 r. znajduje się na szczycie listy TOP500 superkomputerów o największej mocy obliczeniowej na świecie.

2. Tianhe-2 (Droga Mleczna-2) to superkomputer o mocy obliczeniowej 33,86 PFLOPS zbudowany przez firmę NUDT () w Chinach. Od czerwca 2013 r

do czerwca 2016 r. był to najszybszy superkomputer na świecie.

3. Piz Daint - projekt opracowany przez Craya, zainstalowany w Szwajcarskim Narodowym Centrum Superkomputerowym (). Został niedawno zmodernizowany - akceleratory Nvidia Tesla K20X zostały wymienione na nowe, Tesla P100, co umożliwiło zwiększenie mocy obliczeniowej z 2017 do 9,8 PFLOPS latem 19,6 roku.

4. Gyokou to superkomputer opracowany przez ExaScaler i PEZY Computing. Znajduje się w Japońskiej Agencji ds. Nauki i Technologii Morskiej (JAMSTEC) Instytutu Nauk o Ziemi w Jokohamie; na tym samym piętrze co symulator Ziemi. Moc: 19,14 PFLOP.

5. Tytan to superkomputer 17,59 PFLOPS wyprodukowany przez firmę Cray Inc. i uruchomiony w październiku 2012 roku w Oak Ridge National Laboratory w Stanach Zjednoczonych. Od listopada 2012 do czerwca 2013 Titan był najszybszym superkomputerem na świecie. Obecnie zajmuje piąte miejsce, ale nadal jest najszybszym superkomputerem w USA.

Walczą także o dominację w technologii kwantowej

IBM wierzy, że w ciągu najbliższych pięciu lat to nie superkomputery oparte na tradycyjnych krzemowych chipach, ale . Według badaczy firmy branża dopiero zaczyna rozumieć, w jaki sposób można wykorzystać komputery kwantowe. Oczekuje się, że w ciągu zaledwie pięciu lat inżynierowie odkryją pierwsze główne zastosowania tych maszyn.

Komputery kwantowe korzystają z jednostki obliczeniowej zwanej łokieć. Konwencjonalne półprzewodniki reprezentują informację w postaci sekwencji 1 i 0, ale kubity wykazują właściwości kwantowe i mogą jednocześnie wykonywać obliczenia jako 1 i 0. Oznacza to, że dwa kubity mogą jednocześnie reprezentować sekwencje 1-0, 1-1, 0-1. ., 0-0. Moc obliczeniowa rośnie wykładniczo z każdym kubitem, więc teoretycznie komputer kwantowy posiadający zaledwie 50 kubitów mógłby mieć większą moc obliczeniową niż najpotężniejsze superkomputery na świecie.

D-Wave Systems już sprzedaje komputer kwantowy, którego podobno są 2 sztuki. kubity. Jednakże Kopie D-Wave(5) są kontrowersyjne. Chociaż niektórzy badacze dobrze je wykorzystali, nadal nie przewyższyły one klasycznych komputerów i są przydatne tylko w przypadku niektórych klas problemów optymalizacyjnych.

5. Komputery kwantowe D-Wave

Kilka miesięcy temu laboratorium Quantum AI Lab firmy Google zademonstrowało nowy 72-kubitowy procesor kwantowy o nazwie szyszki włosowe (6). Wkrótce może osiągnąć „supremację kwantową”, przewyższającą klasyczny superkomputer, przynajmniej jeśli chodzi o rozwiązywanie niektórych problemów. Gdy procesor kwantowy wykazuje wystarczająco niski poziom błędów podczas działania, może być bardziej wydajny niż klasyczny superkomputer w przypadku dobrze zdefiniowanych zadań informatycznych.

6. Procesor kwantowy Bristlecone 72-kubitowy

Następny w kolejce był procesor Google, bo w styczniu np. Intel ogłosił własny 49-kubitowy układ kwantowy, a wcześniej wersję 50-kubitową zaprezentował IBM. układ Intela, Loihijest innowacyjny także pod innym względem. Jest to pierwszy „neuromorficzny” układ scalony zaprojektowany tak, aby naśladować sposób, w jaki ludzki mózg uczy się i rozumie. Jest „w pełni funkcjonalny” i będzie dostępny dla partnerów badawczych jeszcze w tym roku.

To jednak dopiero początek, bo żeby móc stawić czoła krzemowym potworom, potrzeba z miliony kubitów. Zespół naukowców z Holenderskiej Politechniki w Delft ma nadzieję, że sposobem na osiągnięcie takiej skali będzie zastosowanie krzemu w komputerach kwantowych, gdyż jego członkowie znaleźli rozwiązanie polegające na wykorzystaniu krzemu do stworzenia programowalnego procesora kwantowego.

W swoim badaniu opublikowanym w czasopiśmie Nature holenderski zespół kontrolował spin pojedynczego elektronu za pomocą energii mikrofalowej. W krzemie elektron wirowałby w górę i w dół w tym samym czasie, skutecznie utrzymując go na miejscu. Gdy udało się to osiągnąć, zespół połączył ze sobą dwa elektrony i zaprogramował je tak, aby uruchamiały algorytmy kwantowe.

Udało się stworzyć na bazie krzemu dwubitowy procesor kwantowy.

Wyjaśnił to BBC dr Tom Watson, jeden z autorów badania. Jeśli Watsonowi i jego zespołowi uda się połączyć jeszcze więcej elektronów, może to doprowadzić do powstania procesory kubitoweprzybliży nas to o krok do komputerów kwantowych przyszłości.

- Ktokolwiek zbuduje w pełni działający komputer kwantowy, będzie rządził światem Manas Mukherjee z Narodowego Uniwersytetu w Singapurze i główny badacz w Narodowym Centrum Technologii Kwantowej powiedział niedawno w wywiadzie. Wyścig pomiędzy największymi firmami technologicznymi i laboratoriami badawczymi skupia się obecnie na tzw supremacja kwantowa, czyli punkt, w którym komputer kwantowy może wykonywać obliczenia wykraczające poza możliwości oferowane przez najbardziej zaawansowane komputery.

Podane przykłady osiągnięć Google, IBM i Intela wskazują, że w tym obszarze dominują firmy ze Stanów Zjednoczonych (a więc i państwa). Jednak niedawno chińska witryna Alibaba Cloud wypuściła platformę przetwarzania w chmurze opartą na 11-kubitowym procesorze, która umożliwia naukowcom testowanie nowych algorytmów kwantowych. Oznacza to, że Chiny również nie zasypują popiołem gruszek w dziedzinie kwantowych bloków obliczeniowych.

Jednak wysiłki zmierzające do zbudowania superkomputerów kwantowych nie tylko budzą entuzjazm dla nowych możliwości, ale także budzą kontrowersje.

Kilka miesięcy temu podczas Międzynarodowej Konferencji na temat Technologii Kwantowych w Moskwie Aleksander Lwowski (7) z Rosyjskiego Centrum Kwantowego, który jest także profesorem fizyki na Uniwersytecie w Calgary w Kanadzie, powiedział, że komputery kwantowe narzędzie zagładybez tworzenia.

7. Profesor Aleksander Lwowski

Co on miał na myśli? Przede wszystkim bezpieczeństwo cyfrowe. Obecnie wszystkie wrażliwe informacje cyfrowe przesyłane przez Internet są szyfrowane w celu ochrony prywatności zainteresowanych stron. Widzieliśmy już przypadki, w których hakerom udało się przechwycić te dane, łamiąc szyfrowanie.

Zdaniem Lwowa pojawienie się komputera kwantowego tylko ułatwi cyberprzestępcom zadanie. Żadne ze znanych dziś narzędzi szyfrujących nie jest w stanie uchronić się przed mocą obliczeniową prawdziwego komputera kwantowego.

Dokumentacja medyczna, informacje finansowe, a nawet tajemnice rządów i organizacji wojskowych byłyby łatwo dostępne, co oznaczałoby, jak zauważa Lwowski, że nowa technologia mogłaby zagrozić całemu porządkowi światowemu. Inni eksperci uważają, że obawy Rosjan są bezpodstawne, gdyż stworzenie prawdziwego superkomputera kwantowego umożliwi także zainicjować kryptografię kwantową, uważany jest za niezniszczalny.

Inne podejście

Oprócz tradycyjnej technologii komputerowej i rozwoju systemów kwantowych, różne ośrodki pracują nad innymi metodami budowy superkomputerów przyszłości.

Amerykańska agencja DARPA finansuje sześć ośrodków alternatywnych rozwiązań w zakresie projektowania komputerów. Architekturę stosowaną we współczesnych maszynach nazywa się umownie architektura von Neumannaoch, on ma już siedemdziesiąt lat. Wsparcie obronne dla naukowców uniwersyteckich ma na celu opracowanie mądrzejszego niż kiedykolwiek wcześniej podejścia do przetwarzania dużych ilości danych.

Buforowanie i przetwarzanie równoległe Oto kilka przykładów nowych technik, nad którymi pracują te zespoły. Inny ADA (), co pozwala uprościć tworzenie aplikacji poprzez konwersję komponentów procesora i pamięci wraz z modułami w jeden zespół, zamiast borykać się z problemami ich połączenia na płycie głównej.

W zeszłym roku zespół naukowców z Wielkiej Brytanii i Rosji z powodzeniem wykazał, że ten typ "Magiczny Pył"z których się składają światło i materia - ostatecznie przewyższający „wydajnością” nawet najpotężniejsze superkomputery.

Naukowcy z brytyjskich uniwersytetów w Cambridge, Southampton i Cardiff oraz rosyjskiego Instytutu Skołkowo wykorzystali cząstki kwantowe zwane polarytonuco można zdefiniować jako coś pomiędzy światłem a materią. To zupełnie nowe podejście do informatyki. Według naukowców może on stanowić podstawę nowego typu komputera, zdolnego do rozwiązywania obecnie trudnych zagadnień - z różnych dziedzin, takich jak biologia, finanse czy podróże kosmiczne. Wyniki badania opublikowano w czasopiśmie Nature Materials.

Pamiętaj, że dzisiejsze superkomputery radzą sobie tylko z niewielkim procentem problemów. Nawet hipotetyczny komputer kwantowy, jeśli w końcu zostanie zbudowany, zapewni w najlepszym razie kwadratowe przyspieszenie w rozwiązywaniu najbardziej złożonych problemów. Tymczasem polarytony tworzące „czarowny pył” powstają poprzez aktywację warstw atomów galu, arsenu, indu i aluminium za pomocą wiązek lasera.

Elektrony w tych warstwach absorbują i emitują światło o określonej barwie. Polarytony są dziesięć tysięcy razy lżejsze od elektronów i mogą osiągnąć gęstość wystarczającą do powstania nowego stanu materii zwanego Kondensat Bosego-Einsteina (8). Znajdujące się w nim fazy kwantowe polarytonów są zsynchronizowane i tworzą pojedynczy makroskopowy obiekt kwantowy, który można wykryć za pomocą pomiarów fotoluminescencji.

8. Wykres przedstawiający kondensat Bosego-Einsteina

Okazuje się, że w tym konkretnym stanie kondensat polarytonowy może rozwiązać problem optymalizacji, o którym wspominaliśmy przy opisie komputerów kwantowych, znacznie wydajniej niż procesory oparte na kubitach. Autorzy badań brytyjsko-rosyjskich wykazali, że w miarę kondensacji polarytonów ich fazy kwantowe układają się w konfiguracji odpowiadającej absolutnemu minimum funkcji zespolonej.

„Jesteśmy na początku badania potencjału wykresów polarytonowych w rozwiązywaniu złożonych problemów” – pisze współautor Nature Materials, prof. Pavlos Lagoudakis, kierownik Laboratorium Fotoniki Hybrydowej na Uniwersytecie w Southampton. „Obecnie skalujemy nasze urządzenie do setek węzłów, testując podstawową moc obliczeniową”.

W tych eksperymentach ze świata subtelnych faz kwantowych światła i materii nawet procesory kwantowe wydają się w jakiś sposób niezgrabne i mocno powiązane z rzeczywistością. Jak widać, naukowcy nie tylko pracują nad superkomputerami jutra i samochodami pojutrze, ale już planują, co stanie się pojutrze.

W tym momencie dotarcie do eksaskali będzie nie lada wyzwaniem, wtedy pomyślisz o kolejnych kamieniach milowych na skali flopa (9). Jak można się domyślić, samo dodanie procesorów i pamięci do miksu nie wystarczy. Jeśli wierzyć naukowcom, osiągnięcie tak dużej mocy obliczeniowej pozwoli nam rozwiązać znane nam megaproblemy, takie jak rozszyfrowanie nowotworów czy analiza danych astronomicznych.

9. Przyszłość superkomputerów

Połącz pytanie z odpowiedzią

Co dalej?

Cóż, w przypadku komputerów kwantowych pojawiają się pytania, do czego powinny być używane. Jak mówi stare powiedzenie, komputery rozwiązują problemy, które bez nich nie istniałyby. Więc prawdopodobnie powinniśmy najpierw zbudować te futurystyczne supermaszyny. Wtedy problemy pojawią się same.

W jakich obszarach mogą przydać się komputery kwantowe?

Sztuczna inteligencja. AI () działa na zasadzie uczenia się poprzez doświadczenie, które w miarę otrzymywania informacji zwrotnej staje się coraz dokładniejsze, aż program komputerowy stanie się „inteligentny”. Informacje zwrotne opierają się na obliczeniach prawdopodobieństwa szeregu możliwych opcji. Wiemy już, że na przykład Lockheed Martin planuje wykorzystać swój komputer kwantowy D-Wave do testowania oprogramowania autopilota, które jest obecnie zbyt skomplikowane dla klasycznych komputerów, a Google wykorzystuje komputer kwantowy do opracowania oprogramowania potrafiącego odróżnić samochody od punktów orientacyjnych.

Modelowanie molekularne. Dzięki komputerom kwantowym możliwe będzie dokładne symulowanie oddziaływań molekularnych, znajdowanie optymalnych konfiguracji reakcji chemicznych. Chemia kwantowa jest tak złożona, że ​​nowoczesne komputery cyfrowe mogą analizować jedynie najprostsze cząsteczki. Reakcje chemiczne mają charakter kwantowy, ponieważ tworzą silnie splątane stany kwantowe, które nakładają się na siebie, dlatego w pełni rozwinięte komputery kwantowe z łatwością będą w stanie ocenić nawet najbardziej złożone procesy. Google już pracuje w tej dziedzinie – przeprowadził symulację cząsteczki wodoru. Rezultatem będą bardziej wydajne produkty, od paneli słonecznych po leki.

Kryptografia. Dzisiejsze systemy bezpieczeństwa zależą od wydajnej generacji pierwotnej. Można to osiągnąć za pomocą komputerów cyfrowych, wyszukując każdy możliwy czynnik, ale ogromna ilość wymaganego czasu sprawia, że ​​„łamanie kodu” jest drogie i niepraktyczne. Tymczasem komputery kwantowe mogą to robić wykładniczo wydajniej niż maszyny cyfrowe, co oznacza, że ​​dzisiejsze metody bezpieczeństwa wkrótce staną się przestarzałe. Istnieją również obiecujące metody szyfrowania kwantowego, które są opracowywane w celu wykorzystania jednokierunkowego charakteru splątania kwantowego. W kilku krajach zademonstrowano już sieci obejmujące całe miasta, a chińscy naukowcy ogłosili niedawno, że pomyślnie wysłali splątane fotony z orbitującego satelity „kwantowego” do trzech oddzielnych stacji bazowych z powrotem na Ziemię.

Modelowanie finansowe. Współczesne rynki to jedne z najbardziej złożonych systemów, jakie istnieją. Choć opracowano naukową i matematyczną aparaturę do ich opisu i kontroli, skuteczność takich działań jest w dalszym ciągu w dużej mierze niewystarczająca ze względu na zasadnicze różnice dyscyplin naukowych: nie ma kontrolowanego środowiska, w którym można przeprowadzać eksperymenty. Aby rozwiązać ten problem, inwestorzy i analitycy zwrócili się w stronę obliczeń kwantowych. Jedną z bezpośrednich korzyści jest to, że wrodzona losowość komputerów kwantowych jest zgodna ze stochastyczną naturą rynków finansowych. Inwestorzy często chcą ocenić rozkład wyników w bardzo dużej liczbie losowo wygenerowanych scenariuszy.

Prognoza pogody. Główny ekonomista NOAA Rodney F. Weiher stwierdza, że ​​pogoda ma bezpośredni lub pośredni wpływ na prawie 30% amerykańskiego PKB (6 bilionów dolarów). do produkcji żywności, transportu i handlu detalicznego. Zatem umiejętność lepszego przewidywania aury byłaby bardzo przydatna w wielu obszarach, nie mówiąc już o dłuższym czasie dostępnym na ochronę przed klęskami żywiołowymi. Brytyjskie krajowe biuro pogodowe, Met Office, rozpoczęło już inwestowanie w tego typu innowacje, aby zaspokoić potrzeby w zakresie zasilania i skalowalności, z którymi będzie musiało sobie poradzić od 2020 r., a także opublikowało raport na temat własnych potrzeb w zakresie obliczeń eksaskalowych.

Fizyka cząsteczek. Modele fizyki cząstek stałych są często niezwykle złożonymi, skomplikowanymi rozwiązaniami, które wymagają dużo czasu obliczeniowego na symulacje numeryczne. To czyni je idealnymi do obliczeń kwantowych, a naukowcy już to wykorzystali. Naukowcy z Uniwersytetu w Innsbrucku i Instytutu Optyki Kwantowej i Informacji Kwantowej (IQOQI) niedawno wykorzystali programowalny system kwantowy do przeprowadzenia tej symulacji. Według publikacji w Nature, grupa użyła prostej wersji komputera kwantowego, w którym jony wykonywały operacje logiczne, podstawowe kroki każdego obliczenia komputerowego. Symulacja wykazała pełną zgodność z rzeczywistymi eksperymentami opisywanej fizyki. mówi fizyk teoretyczny Peter Zoller. - 

Dodaj komentarz