Wojna algorytmów
Technologia

Wojna algorytmów

Jeśli chodzi o wykorzystanie sztucznej inteligencji w wojsku, pojawia się koszmar science fiction, buntownicza i zabójcza sztuczna inteligencja, która powstaje przeciwko ludzkości, aby ją zniszczyć. Niestety, obawy personelu wojskowego i przywódców, że „wróg nas dogoni”, są równie silne przy opracowywaniu algorytmów prowadzenia wojny.

Wojna algorytmicznaktóre zdaniem wielu mogłoby zasadniczo zmienić oblicze pola bitwy, jakie znamy, głównie dlatego, że działania wojenne stałyby się szybsze i znacznie przewyższałyby ludzkie zdolności decyzyjne. Amerykański generał Jacka Shanahana (1), szef amerykańskiego Joint Center for Artificial Intelligence, podkreśla jednak, że zanim wprowadzimy sztuczną inteligencję do arsenałów, musimy zadbać o to, aby systemy te nadal znajdowały się pod kontrolą człowieka i nie zaczęły samodzielnie prowadzić wojen.

„Jeśli wróg będzie miał maszyny i algorytmy, przegramy ten konflikt”.

Zdolność do prowadzenia pojazdu wojna algorytmiczna opiera się na wykorzystaniu osiągnięć technologii komputerowej w trzech głównych obszarach. Pierwszy dziesięcioleci wykładniczego wzrostu mocy obliczeniowejpozwoliło to na znaczną poprawę wydajności uczenia maszynowego. Drugi szybki wzrost zasobów „Big Data” odnosi się do ogromnych, zazwyczaj zautomatyzowanych, zarządzanych i generowanych w sposób ciągły zestawów danych odpowiednich do uczenia maszynowego. Trzeci dotyczy szybki rozwój technologii przetwarzania w chmurze, dzięki któremu komputery mogą łatwo uzyskać dostęp do zasobów danych i przetwarzać je w celu rozwiązania problemów.

Algorytm wojnyzgodnie z definicją ekspertów, należy ją najpierw wyrazić za pomocą kod komputerowy. Po drugie, musi być efektem platformy zdolnej zarówno do gromadzenia informacji, jak i dokonywania wyborów, podejmowania decyzji, które przynajmniej w teorii nie wymagają ludzka interwencja. Po trzecie, co wydaje się oczywiste, ale niekoniecznie takie jest, gdyż dopiero w akcji staje się jasne, czy sprzęt przeznaczony do czegoś innego może przydać się na wojnie i odwrotnie, musi być w stanie pracować w danych warunkach. konflikt zbrojny.

Analiza powyższych obszarów i ich interakcji pokazuje, że wojna algorytmiczna nie jest to odrębna technologia jak np. broń energetyczna lub rakiety hipersoniczne. Jego konsekwencje są szeroko zakrojone i stopniowo stają się wszechobecne w działaniach wojennych. Po raz pierwszy pojazdy wojskowe stają się inteligentne, co potencjalnie sprawia, że ​​siły obronne, które je rozmieszczają, stają się bardziej wydajne i skuteczne. Takie inteligentne maszyny mają wyraźne ograniczenia, które należy dobrze zrozumieć.

„” Shanahan powiedziała jesienią ubiegłego roku w wywiadzie dla byłego dyrektora generalnego Google Erica Schmidta i wiceprezesa Google ds. spraw globalnych Kenta Walkera. „”.

Projekt raportu Rady Bezpieczeństwa Narodowego Stanów Zjednoczonych na temat sztucznej inteligencji wspomina Chiny ponad 50 razy, podkreślając zadeklarowany przez chińskich przywódców cel, jakim jest osiągnięcie pozycji światowego lidera w dziedzinie sztucznej inteligencji do 2030 r. (Zobacz też: ).

Te słowa padły w Waszyngtonie na specjalnej konferencji, która odbyła się po przedstawieniu Kongresowi przez wspomniane Shanahan Center swojego wstępnego raportu, przygotowanego we współpracy z uznanymi ekspertami w dziedzinie sztucznej inteligencji, w tym dyrektorem ds. badań Microsoft Ericem Horwitzem, dyrektorem generalnym AWS Andym Jassą i Google Główny badacz chmury, Andrew Moore. Raport końcowy zostanie opublikowany w październiku 2020 r.

Pracownicy Google protestują

Kilka lat temu w sprawę zaangażował się Pentagon. wojna algorytmiczna oraz szereg projektów związanych ze sztuczną inteligencją w ramach projektu Maven, opartych na współpracy z firmami technologicznymi, w tym Google i startupami takimi jak Clarifai. Dotyczyło to głównie pracy nad sztuczna inteligencjaw celu ułatwienia identyfikacji obiektów na.

Kiedy wiosną 2018 roku wyszło na jaw zaangażowanie Google w projekt, tysiące pracowników giganta z Mountain View podpisało się pod listem otwartym, w którym protestują przeciwko udziałowi firmy w operacjach wojskowych. Po miesiącach niepokojów pracowniczych Google przyjął własny zestaw zasad AIco obejmuje zakaz uczestniczenia w wydarzeniach.

Google zobowiązał się także do zakończenia kontraktu Project Maven do końca 2019 roku. Odejście Google nie zakończyło Projektu Maven. Został przejęty przez Palantir Petera Thiela. Siły Powietrzne Stanów Zjednoczonych i korpus piechoty morskiej planują wykorzystanie dedykowanych bezzałogowych statków powietrznych, takich jak Global Hawk, w ramach projektu Maven, z których każdy powinien wizualnie monitorować obszar do 100 kilometrów kwadratowych.

Na podstawie tego, co działo się wokół Projektu Maven, stało się jasne, że armia amerykańska pilnie potrzebuje własnej chmury. To właśnie powiedział Shanahan podczas konferencji. Było to widoczne, gdy nagrania wideo i aktualizacje systemu musiały być transportowane ciężarówkami do instalacji wojskowych rozproszonych po całym terenie. W budynku ujednolicone przetwarzanie w chmurze, która pomoże rozwiązać tego typu problemy, w ramach ujednoliconego projektu infrastruktury IT dla armii Jedi, Microsoft, Amazon, Oracle i IBM. Google nie jest spowodowane swoimi kodeksami etycznymi.

Z wypowiedzi Shanahana jasno wynika, że ​​wielka rewolucja AI w wojsku dopiero się zaczyna. A rola jego centrum w siłach zbrojnych USA rośnie. Widać to wyraźnie w proponowanym budżecie JAIC. W 2019 roku było to niecałe 90 milionów dolarów. Już w 2020 roku oczekuje się, że osiągnie ona 414 milionów dolarów, czyli około 10 procent szacowanego na 4 miliardy dolarów budżetu Pentagonu na sztuczną inteligencję.

Maszyna rozpoznaje poddanego żołnierza

Siły zbrojne USA są już wyposażone w systemy takie jak Phalanx (2), który jest rodzajem autonomicznej broni używanej na okrętach Marynarki Wojennej USA do atakowania nadlatujących rakiet. Po wykryciu rakiety włącza się ona automatycznie i niszczy wszystko na swojej drodze. Ford powiedział, że może zaatakować czterema lub pięcioma rakietami w ciągu pół sekundy bez konieczności przechodzenia i oglądania każdego celu.

Innym przykładem jest półautonomiczny Harpia (3), dostępny na rynku system bezzałogowy. Harpia służy do niszczenia radarów wroga. Na przykład w 2003 r., kiedy Stany Zjednoczone zaatakowały Irak, który posiadał systemy przechwytywania radarów samolotów, izraelskie drony pomogły je znaleźć i zniszczyć, dzięki czemu Amerykanie mogli bezpiecznie wlecieć w iracką przestrzeń powietrzną.

3. Wystrzelenie drona IAI Harpia

Innym znanym przykładem broni autonomicznej jest Koreański system Samsung SGR-1, znajdujący się w strefie zdemilitaryzowanej pomiędzy Koreą Północną i Południową, przeznaczony do identyfikacji i ostrzału intruzów w odległości do czterech kilometrów. Zgodnie z opisem system „potrafi rozróżnić osobę, która się podda, od osoby, która się nie podda” na podstawie ułożenia jej rąk lub rozpoznania położenia broni w dłoniach.

4. Demonstracja wykrycia poddającego się żołnierza przez system Samsung SGR-1

Amerykanie boją się pozostać w tyle

Obecnie co najmniej 30 krajów na całym świecie korzysta z broni automatycznej o różnym stopniu rozwoju i wykorzystania sztucznej inteligencji. Chiny, Rosja i Stany Zjednoczone postrzegają sztuczną inteligencję jako niezbędny element budowania swojej przyszłej pozycji w świecie. „Kto wygra wyścig AI, będzie rządził światem” – powiedział studentom prezydent Rosji Władimir Putin w sierpniu 2017 r. Prezydent Chińskiej Republiki Ludowej Xi Jinping nie wypowiadał się w mediach tak drastycznie, ale to on jest głównym motorem dyrektywy wzywającej Chiny do osiągnięcia dominującej siły w AI do 2030 roku.

W Stanach Zjednoczonych rosną obawy związane z „efektem Sputnika”, który pokazał, że Stany Zjednoczone są żałośnie źle przygotowane, aby sprostać nowym wyzwaniom stawianym przez sztuczną inteligencję. A to może być niebezpieczne dla świata choćby dlatego, że państwo zagrożone dominacją może chcieć w inny sposób wyeliminować przewagę strategiczną wroga, czyli poprzez wojnę.

Choć pierwotnym celem projektu Maven była pomoc w odnalezieniu islamskich bojowników ISIS, jego znaczenie dla dalszego rozwoju wojskowych systemów sztucznej inteligencji jest ogromne. Wojna elektroniczna, oparta na rejestratorach, monitorach i czujnikach (w tym mobilnych, latających), wiąże się z ogromną liczbą heterogenicznych strumieni danych, które można efektywnie wykorzystać jedynie przy pomocy algorytmów AI.

Stało się hybrydowym polem bitwy wojskowa wersja IoT, bogate w informacje krytyczne do oceny taktycznych i strategicznych zagrożeń i szans. Możliwość zarządzania tymi danymi w czasie rzeczywistym ma ogromne zalety, ale brak wyciągania wniosków z tych informacji może oznaczać katastrofę. Możliwość szybkiego przetwarzania przepływów informacji z wielu platform w wielu domenach zapewnia dwie główne zalety militarne: prędkość i osiągalność. Sztuczna inteligencja pozwala w czasie rzeczywistym analizować dynamiczne warunki pola walki i wyprowadzać uderzenia szybko i optymalnie, minimalizując jednocześnie ryzyko dla własnych sił.

To nowe pole bitwy jest również wszechobecne i... Sztuczna inteligencja leży u podstaw tak zwanego roju dronów, któremu w ostatnich latach poświęcono wiele uwagi. Przy pomocy wszechobecnych czujników nie tylko umożliwia bezzałogowym statkom powietrznym poruszanie się po wrogim terenie, ale docelowo może pozwolić na tworzenie złożonych formacji różnych typów bezzałogowych statków powietrznych działających w wielu obszarach, z dodatkowym uzbrojeniem pozwalającym na natychmiastowe stosowanie wyrafinowanych taktyk bojowych dostosowując się do wroga. manewry, aby wykorzystać możliwości na polu bitwy i zakomunikować zmieniające się warunki.

Postępy w zakresie namierzania i nawigacji wspomaganej sztuczną inteligencją poprawiają również perspektywy skuteczności szerokiej gamy taktycznych i strategicznych systemów obrony, zwłaszcza obrony przeciwrakietowej, poprzez udoskonalanie metod wykrywania, śledzenia i identyfikacji celów.

stale zwiększa moc narzędzi symulacyjnych i gier wykorzystywanych w badaniach nad bronią nuklearną i konwencjonalną. Masowe modelowanie i symulacja będą niezbędne do opracowania wszechstronnego, wielodomenowego systemu systemów docelowych na potrzeby dowodzenia i kontroli bojowej oraz złożonych misji. Sztuczna inteligencja wzbogaca także interakcje z wieloma uczestnikami (5). Sztuczna inteligencja pozwala graczom dodawać i zmieniać zmienne gry, aby zbadać, jak warunki dynamiczne (broń, udział sojuszników, dodatkowe wojska itp.) mogą wpływać na wydajność i podejmowanie decyzji.

Dla wojska identyfikacja obiektów jest naturalnym punktem wyjścia dla sztucznej inteligencji. Po pierwsze, konieczna jest wszechstronna i szybka analiza rosnącej liczby obrazów i informacji zebranych z satelitów i dronów, aby znaleźć cele wojskowe, takie jak rakiety, ruchy wojsk i inne dane wywiadowcze. Obecnie pole bitwy obejmuje wszystkie krajobrazy – morze, ląd, powietrze, przestrzeń kosmiczną i cyberprzestrzeń – w skali globalnej.

CyberprzestrzeńJako domena z natury cyfrowa, w naturalny sposób nadaje się do zastosowań AI. Z drugiej strony sztuczna inteligencja może pomóc w wyszukiwaniu i atakowaniu poszczególnych węzłów sieci lub poszczególnych kont w celu gromadzenia, zakłócania lub dezinformacji. Cyberataki na infrastrukturę wewnętrzną i sieci dowodzenia mogą mieć katastrofalne skutki. Po stronie obronności sztuczna inteligencja może pomóc w wykrywaniu takich włamań i znajdowaniu niszczycielskich anomalii w cywilnych i wojskowych systemach operacyjnych.

Oczekiwana i niebezpieczna prędkość

Jednak szybkie podejmowanie decyzji i szybka realizacja mogą nie służyć Ci dobrze. w celu skutecznego zarządzania kryzysowego. Zalety sztucznej inteligencji i systemów autonomicznych na polu walki mogą nie dać czasu na dyplomację, która – jak wiemy z historii – często sprawdzała się w zapobieganiu kryzysom lub zarządzaniu nimi. W praktyce spowolnienie, zatrzymanie się i poświęcenie czasu na negocjacje mogą okazać się kluczem do zwycięstwa lub przynajmniej zapobiegnięcia katastrofie, zwłaszcza gdy w grę wchodzi broń nuklearna.

Decyzji dotyczących wojny i pokoju nie można pozostawiać analizom predykcyjnym. Istnieją zasadnicze różnice w sposobie wykorzystywania danych do celów naukowych, gospodarczych, logistycznych i prognostycznych. ludzkie zachowanie.

Niektórzy mogą postrzegać sztuczną inteligencję jako siłę osłabiającą wzajemną wrażliwość strategiczną i tym samym zwiększającą ryzyko wojny. Przypadkowe lub celowe uszkodzenie danych może spowodować, że systemy sztucznej inteligencji wykonają niezamierzone działania, takie jak błędna identyfikacja i dążenie do niewłaściwych celów. Postulowana w rozwoju algorytmów wojennych szybkość działania może oznaczać przedwczesną lub nawet niepotrzebną eskalację, utrudniającą racjonalne zarządzanie kryzysem. Z drugiej strony algorytmy również nie będą czekać i wyjaśniać, bo od nich też oczekuje się szybkości.

Niepokojący aspekt funkcjonowanie algorytmów sztucznej inteligencji również zaprezentowany przez nas niedawno w MT. Nawet eksperci nie wiedzą dokładnie, w jaki sposób sztuczna inteligencja generuje rezultaty, które widzimy.

W przypadku algorytmów wojny nie możemy sobie pozwolić na taką nieznajomość natury i tego, jak ona ją „myśli”. Nie chcemy obudzić się w środku nocy od błysków nuklearnych, bo „nasza” lub „ich” sztuczna inteligencja zdecydowała, że ​​czas ostatecznie rozstrzygnąć spór.

Dodaj komentarz