Duch zabójcy maszyn trwa. W co wierzy prezydent Putin?
Technologia

Duch zabójcy maszyn trwa. W co wierzy prezydent Putin?

Zwolennicy robotów wojskowych (1) twierdzą, że zautomatyzowana broń zapewnia więcej możliwości ochrony ludzkiego życia. Maszyny są w stanie podejść bliżej wroga niż żołnierze i prawidłowo ocenić zagrożenie. A emocje czasem paraliżują możliwość podejmowania właściwych decyzji.

Wielu zwolenników zabójczych robotów jest przekonanych, że dzięki nim wojny będą mniej krwawe, bo zginie mniej żołnierzy. Zauważają, że roboty, choć nie czują litości, są odporne na negatywne ludzkie emocje, takie jak panika, złość i zemsta, które często prowadzą do zbrodni wojennych.

Obrońcy praw człowieka używają również argumentu, że wojsko doprowadziło do ogromnej redukcji ofiar wśród ludności cywilnej w ciągu ostatniego półwiecza, a robotyzacja armii pozwala na stworzenie mechanizmu ściślejszego egzekwowania prawa wojennego. Twierdzą, że maszyny staną się etyczne, gdy zostaną wyposażone w oprogramowanie, które zmusi je do przestrzegania praw wojny.

Oczywiście ogromna liczba osób, w tym bardzo znanych, od lat nie podziela tej opinii. W kwietniu 2013 roku ruszyła międzynarodowa kampania pod hasłem (2). W jej ramach organizacje pozarządowe domagają się całkowitego zakazu używania broni autonomicznej. Eksperci z wielu krajów po raz pierwszy zasiedli do dyskusji na ten temat na Konferencji ONZ ds. Rozbrojenia w Genewie w maju 2014 roku. Raport opublikowany kilka miesięcy później przez Human Rights Watch i naukowców z Uniwersytetu Harvarda stwierdził, że autonomiczne byłyby zbyt niebezpieczne - same wybrały sobie cele i zabijały ludzi. Jednocześnie nie bardzo wiadomo, kto powinien ponosić odpowiedzialność.

2. Demonstracja w ramach akcji „Stop zabójczym robotom”

Co potrafi rój małych dronów

Spory wokół robotów-zabójców (ROU) trwają od lat i nie cichną. Ostatnie miesiące przyniosły nowe próby powstrzymania robotów wojskowych oraz falę doniesień o nowych projektach tego typu, z których część przechodzi nawet testy w rzeczywistych warunkach bojowych.

W listopadzie 2017 r. Wyświetlono wideo śmiercionośne roje mini-dronów ., w przerażającej akcji. Widzowie przekonali się, że nie potrzebujemy już ciężkich machin wojennych, czołgów czy rakiet rzucanych przez Predatorów, by masowo zabijać z użyciem karabinów maszynowych. Główny dyrektor Stuart Russell, profesor sztucznej inteligencji w Berkeley, mówi:

-

Ostatnia wiosna pięćdziesięciu profesorów Wiodące światowe uniwersytety podpisały apel do Koreańskiego Instytutu Zaawansowanej Nauki i Technologii (KAIST) i jego partnera Hanwha Systems. ogłosili, że nie będą współpracować z uczelnią i przyjmować gości KAIST. Powodem była budowa „autonomicznej broni” prowadzona przez obie instytucje. KAIST zaprzeczył doniesieniom mediów.

Wkrótce potem w USA więcej niż 3 pracowników Google protestowali przeciwko pracy firmy dla wojska. Obawiali się, że Google współpracuje z rządowym projektem o kryptonimie Maven, którego celem jest wykorzystanie sztucznej inteligencji do rozpoznawania obiektów i twarzy w filmach z wojskowych dronów. Zarząd firmy mówi, że celem Mavena jest ratowanie życia i ratowanie ludzi przed żmudną pracą, a nie agresją. Protestujących to nie przekonało.

Następną częścią bitwy była deklaracja eksperci od sztucznej inteligencji, w tym pracuje nad projektem Google i Elona Muska. Obiecują, że nie będą rozwijać robotów. Wzywają również rządy do wzmożenia wysiłków na rzecz uregulowania i ograniczenia tej broni.

Oświadczenie mówi po części, że „decyzja o odebraniu ludzkiego życia nigdy nie powinna być podejmowana przez maszynę”. Chociaż armie świata są wyposażone w wiele urządzeń automatycznych, czasem o dużym stopniu autonomii, wielu ekspertów obawia się, że w przyszłości technologia ta może stać się całkowicie autonomiczna, umożliwiając zabijanie bez udziału ludzkiego operatora i dowódcy.

Eksperci ostrzegają również, że autonomiczne maszyny do zabijania mogą być jeszcze bardziej niebezpieczne niż „broń nuklearna, chemiczna i biologiczna”, ponieważ mogą łatwo wymknąć się spod kontroli. W sumie w lipcu ubiegłego roku list pod patronatem Instytutu Przyszłości Życia (FGI) podpisało 170 organizacji i 2464 osoby. W pierwszych miesiącach 2019 roku grupa naukowców medycznych powiązanych z FLI ponownie wezwała do wydania nowego listu zakazującego opracowywania broni kontrolowanej przez sztuczną inteligencję (AI).

Ubiegłoroczne sierpniowe spotkanie ONZ w Gniewie w sprawie ewentualnego uregulowania prawnego wojskowych „robotów-zabójców” zakończyło się sukcesem… maszyn. Grupa państw, w tym Stany Zjednoczone, Rosja i Izrael, zablokowała dalsze prace nad wprowadzeniem międzynarodowego zakazu tej broni (projekt Konwencji o zakazie lub ograniczeniu użycia niektórych rodzajów broni konwencjonalnej, CCW). To nie przypadek, że kraje te znane są z prac nad zaawansowanymi systemami broni autonomicznej i zrobotyzowanej.

Rosja stawia na roboty bojowe

Często cytuje się słowa prezydenta Władimira Putina o wojskowych systemach sztucznej inteligencji i robotach bojowych:

-.

otwarcie mówi o rozwoju broni autonomicznej. Szef Sztabu Generalnego sił zbrojnych, generał Walerij Gierasimow, powiedział niedawno wojskowej agencji informacyjnej Interfax-AVN, że wykorzystanie robotów będzie jedną z głównych cech przyszłych wojen. Dodał, że Rosja próbuje w pełni zautomatyzować pole bitwy. Podobne komentarze wygłosili wicepremier Dmitrij Rogozin i minister obrony Siergiej Szojgu. Przewodniczący Komisji Rady Federacji ds. Obrony i Bezpieczeństwa Wiktor Bondariew powiedział, że Rosja dąży do rozwoju technologie rojupozwoliłoby to sieciom dronów funkcjonować jako pojedyncza jednostka.

Nie jest to zaskakujące, jeśli pamiętamy, że pierwsze teleczołgi powstały w Związku Radzieckim w latach 30. Były używane na początku II wojny światowej. Dzisiaj tworzy także Rosja roboty czołgowe stawać się coraz bardziej samodzielnym.

Państwo Putina niedawno wysłało swoich do Syrii Bezzałogowy pojazd bojowy Uran-9 (3). urządzenie traciło kontakt z naziemnymi punktami kontrolnymi, miało problemy z układem zawieszenia, a jego uzbrojenie nie działało idealnie i nie trafiało w ruchome cele. Nie brzmi to zbyt poważnie, ale wielu uważa syryjskie wytarcie za dobry test bojowy, który pozwoli Rosjanom udoskonalić maszynę.

Roskosmos zatwierdził wstępny plan wysłania dwóch robotów na Międzynarodową Stację Kosmiczną do sierpnia tego roku. Fedor (4) w Unii bezzałogowej. Nie jak obciążenie, ale. Podobnie jak w filmie RoboCop, Fedor dzierży broń i demonstruje śmiertelną celność podczas ćwiczeń strzeleckich.

Pytanie brzmi, dlaczego robot w kosmosie miałby być uzbrojony? Istnieją podejrzenia, że ​​sprawa nie dotyczy tylko zastosowań naziemnych. Tymczasem na Ziemi rosyjski producent broni Kałasznikow pokazał wizualizację niewolnik Igorekco choć wywołało sporo śmiechu, sygnalizuje, że firma poważnie pracuje nad autonomicznymi pojazdami bojowymi. W lipcu 2018 roku Kałasznikow ogłosił, że buduje broń, której używa do podejmowania decyzji „strzelać lub nie strzelać”.

Do tej informacji należy dodać informacje, że rosyjski rusznikarz Digtyarev opracował mały autonomiczny czołg Nerecht który może samodzielnie poruszać się cicho w kierunku celu, a następnie eksplodować z potężną siłą, niszcząc inne lub całe budynki. I Czołg T14 Armata , duma rosyjskich sił zbrojnych, został zaprojektowany z myślą o ewentualnym zdalnym sterowaniu i bezzałogowej jeździe. Sputnik twierdzi, że rosyjscy inżynierowie wojskowi pracują nad tym, aby T-14 był w pełni autonomicznym pojazdem opancerzonym.

Dyrektywa w sprawie sprzeciwu

Sama armia USA narzuciła dość wyraźne ograniczenie poziomu autonomii swojej broni. W 2012 roku Departament Obrony USA wydał dyrektywę 3000.09, która stanowi, że ludzie powinni mieć prawo sprzeciwu wobec działań uzbrojonych robotów. (choć mogą być pewne wyjątki). Dyrektywa ta pozostaje w mocy. Obecna polityka Pentagonu polega na tym, że czynnikiem decydującym o użyciu broni zawsze powinien być człowiek i taki osąd powinien być. przestrzega praw wojennych.

Chociaż Amerykanie od dziesięcioleci używają latających, Predatorów, Reaperów i wielu innych supermaszyn, nie były one i nie są modelami autonomicznymi. Są sterowane przez operatorów zdalnie, czasem z odległości kilku tysięcy kilometrów. Gorąca dyskusja na temat autonomii maszyn tego typu rozpoczęła się wraz z premierą prototypu. drona X-47B (5), który nie tylko latał samodzielnie, ale mógł również startować z lotniskowca, lądować na nim i tankować w powietrzu. Znaczenie ma również strzelanie lub bombardowanie bez interwencji człowieka. Jednak projekt jest nadal w fazie testów i recenzji.

5. Testy bezzałogowego X-47B na amerykańskim lotniskowcu

W 2003 roku Departament Obrony rozpoczął eksperymenty z małym robotem przypominającym czołg. SZPIECZE wyposażone w karabin maszynowy. W 2007 został wysłany do Iraku. jednak program zakończył się po tym, jak robot zaczął zachowywać się chaotycznie, nieobliczalnie poruszając karabinem. W rezultacie wojsko USA na wiele lat porzuciło badania nad uzbrojonymi robotami naziemnymi.

Jednocześnie US Army zwiększyła wydatki na operacje z 20 mln dolarów w 2014 roku do 156 mln dolarów w 2018 roku. W 2019 roku budżet ten skoczył już do 327 milionów dolarów. Jest to skumulowany wzrost o 1823% w ciągu zaledwie kilku lat. Eksperci twierdzą, że już w 2025 roku wojsko USA może mieć pole bitwy więcej żołnierzy-robotów niż ludzi.

Ostatnio sporo kontrowersji wywołała i zapowiedziała armia amerykańska Projekt ATLAS () - automatyczne. W mediach zostało to odebrane jako naruszenie wspomnianej Dyrektywy 3000.09. Wojsko USA zaprzecza jednak i zapewnia, że ​​wykluczenie osoby z cyklu decyzyjnego nie wchodzi w grę.

Sztuczna inteligencja rozpoznaje rekiny i cywilów

Jednak obrońcy autonomicznej broni mają nowe argumenty. prof. Ronald Arkin, robotyk z Georgia Institute of Technology, stwierdza to w swoich publikacjach We współczesnej wojnie inteligentna broń jest niezbędna, aby uniknąć ofiar wśród ludności cywilnej, ponieważ techniki uczenia maszynowego mogą skutecznie pomóc w rozróżnieniu walczących i cywilów oraz ważnych i nieważnych celów.

Przykładem takich umiejętności AI jest patrolowanie australijskich plaż. drony Little Ripperwyposażony w system SharkSpotter opracowany przez University of Technology Sydney. Ten system automatycznie skanuje wodę w poszukiwaniu rekinów i ostrzega operatora, gdy widzi coś niebezpiecznego. (6) Może identyfikować ludzi, delfiny, łodzie, deski surfingowe i przedmioty w wodzie, aby odróżnić je od rekinów. Może wykrywać i identyfikować około szesnastu różnych gatunków z dużą dokładnością.

6. Rekiny rozpoznane w systemie SharkSpotter

Te zaawansowane metody uczenia maszynowego zwiększają dokładność rozpoznania lotniczego o ponad 90%. Dla porównania, człowiek-operator w podobnej sytuacji dokładnie rozpoznaje 20-30% obiektów na zdjęciach lotniczych. Ponadto identyfikacja jest nadal weryfikowana przez człowieka przed uruchomieniem alarmu.

Na polu bitwy operator, widząc obraz na ekranie, z trudem jest w stanie określić, czy ludzie na ziemi to bojownicy z AK-47 w dłoniach, czy np. rolnicy ze szczupakami. Arkin zauważa, że ​​ludzie mają tendencję do „widzenia tego, co chcą widzieć”, zwłaszcza w stresujących sytuacjach. Efekt ten przyczynił się do przypadkowego zestrzelenia irańskiego samolotu przez USS Vincennes w 1987 roku. Oczywiście, jego zdaniem, broń sterowana przez sztuczną inteligencję byłaby lepsza niż obecne „inteligentne bomby”, które tak naprawdę nie są świadome. W sierpniu ubiegłego roku saudyjska rakieta naprowadzana laserowo uderzyła w autobus pełen uczniów w Jemenie, zabijając czterdzieścioro dzieci.

„Jeśli autobus szkolny jest odpowiednio oznakowany, jego identyfikacja w systemie autonomicznym może być stosunkowo łatwa”, argumentuje Arkin w Popular Mechanics.

Jednak te argumenty nie wydają się przekonywać działaczy przeciwko automatycznym zabójcom. Oprócz zagrożenia ze strony zabójczych robotów należy wziąć pod uwagę jeszcze jedną ważną okoliczność. Nawet „dobry” i „uważny” system może zostać zhakowany i przejęty przez bardzo złych ludzi. Wtedy tracą na sile wszelkie argumenty w obronie sprzętu wojskowego.

Dodaj komentarz