Powiedz kociakowi, co myślisz w środku - efekt czarnej skrzynki
Technologia

Powiedz kociakowi, co myślisz w środku - efekt czarnej skrzynki

Fakt, że zaawansowane algorytmy sztucznej inteligencji są jak czarna skrzynka (1), która wyrzuca wynik, nie ujawniając, w jaki sposób do niego doszedł, jednych denerwuje, a innych denerwuje.

W 2015 roku zespół badawczy szpitala Mount Sinai w Nowym Jorku został poproszony o wykorzystanie tej metody do analizy dużej bazy danych lokalnych pacjentów (2). Ten ogromny zbiór zawiera ocean informacji o pacjentach, począwszy od wyników badań, zaleceń lekarskich itp.

Naukowcy nazwali opracowany w trakcie prac program analityczny. Przeszkolono go na danych od ok. 700 tys. osób. u ludzi, a testowany w nowych rejestrach okazał się niezwykle skuteczny w przewidywaniu chorób. Bez pomocy ludzkich ekspertów odkrył w dokumentacji szpitalnej prawidłowości wskazujące, który pacjent jest na drodze do choroby takiej jak rak wątroby. Zdaniem ekspertów skuteczność prognostyczna i diagnostyczna systemu była znacznie wyższa niż innych znanych metod.

2. System sztucznej inteligencji medycznej oparty na bazach danych pacjentów

Jednocześnie badacze zauważyli, że działa to w tajemniczy sposób. Okazało się np., że idealnie nadaje się do rozpoznawanie zaburzeń psychicznychtakich jak schizofrenia, co jest niezwykle trudne dla lekarzy. Było to zaskakujące, zwłaszcza że nikt nie miał pojęcia, jak system AI tak dobrze radził sobie z rozpoznawaniem chorób psychicznych wyłącznie na podstawie dokumentacji medycznej pacjenta. Tak, eksperci byli bardzo zadowoleni z pomocy tak sprawnego diagnosty maszynowego, ale byliby znacznie bardziej usatysfakcjonowani, gdyby zrozumieli, w jaki sposób sztuczna inteligencja doszła do swoich wniosków.

Warstwy sztucznych neuronów

Od samego początku, czyli od momentu, w którym poznano koncepcję sztucznej inteligencji, istniały dwa punkty widzenia na AI. Pierwsza sugerowała, że ​​najrozsądniej byłoby zbudować maszyny, które rozumują według znanych zasad i ludzkiej logiki, czyniąc ich wewnętrzne działanie przejrzystym dla wszystkich. Inni wierzyli, że inteligencja pojawiłaby się łatwiej, gdyby maszyny uczyły się poprzez obserwację i wielokrotne eksperymenty.

To drugie oznacza odwrócenie typowego programowania komputerowego. Zamiast programista pisać polecenia w celu rozwiązania problemu, program generuje własny algorytm na podstawie przykładowych danych i pożądanego wyniku. Techniki uczenia maszynowego, które później przekształciły się w najpotężniejsze znane dzisiaj systemy sztucznej inteligencji, właśnie zeszły na prostą maszyna sama się programuje.

Podejście to pozostawało na marginesie badań nad sztuczną inteligencją w latach 60. i 70. XX wieku. Dopiero na początku poprzedniej dekady, po kilku innowacyjnych zmianach i udoskonaleniach, „Głębokie” sieci neuronowe zaczął wykazywać radykalną poprawę możliwości zautomatyzowanej percepcji. 

Głębokie uczenie maszynowe dało komputerom niezwykłe możliwości, takie jak zdolność rozpoznawania wypowiadanych słów niemal tak dokładnie jak człowiek. Jest to zbyt złożona umiejętność, aby programować ją z wyprzedzeniem. Maszyna musi mieć możliwość stworzenia własnego „programu” wg szkolenia na ogromnych zbiorach danych.

Głębokie uczenie zrewolucjonizowało także komputerowe rozpoznawanie obrazów i znacznie poprawiło jakość tłumaczenia maszynowego. Dziś jest używany do podejmowania wszelkiego rodzaju kluczowych decyzji w medycynie, finansach, produkcji i nie tylko.

Jednak z tym wszystkim nie można po prostu zajrzeć do głębokiej sieci neuronowej, aby zobaczyć, jak ona działa „pod maską”. Procesy rozumowania sieciowego są osadzone w zachowaniu tysięcy symulowanych neuronów, zorganizowanych w dziesiątki, a nawet setki misternie połączonych warstw..

Każdy z neuronów w pierwszej warstwie odbiera sygnał wejściowy, taki jak intensywność piksela na obrazie, a następnie wykonuje obliczenia przed wypuszczeniem sygnału wyjściowego. Są one przesyłane w złożonej sieci do neuronów kolejnej warstwy – i tak dalej, aż do końcowego sygnału wyjściowego. Ponadto istnieje proces znany jako dostosowywanie obliczeń wykonywanych przez poszczególne neurony, tak aby sieć ucząca generowała pożądany wynik.

W często cytowanym przykładzie dotyczącym rozpoznawania obrazu psa niższe warstwy sztucznej inteligencji analizują proste cechy, takie jak kontur lub kolor. Wyżsi zajmują się bardziej złożonymi problemami, takimi jak futro czy oczy. Dopiero górna warstwa łączy to wszystko w całość, identyfikując pełny zestaw informacji jako pies.

To samo podejście można zastosować do innych typów danych wejściowych, które umożliwiają maszynie samouczenie się: na przykład dźwięków tworzących słowa w mowie, liter i słów tworzących zdania w tekście pisanym lub na przykład kierownicy. ruchy niezbędne do sterowania pojazdem.

Maszynie niczego nie brakuje

Podjęto próbę wyjaśnienia, co dokładnie dzieje się w takich układach. W 2015 roku badacze Google zmodyfikowali algorytm rozpoznawania obrazów oparty na głębokim uczeniu się, tak aby zamiast widzieć obiekty na zdjęciach, je generował lub modyfikował. Uruchamiając algorytm wstecz, chcieli odkryć cechy, których program używa do rozpoznawania na przykład ptaka lub budynku.

Znane publicznie pod tytułem, eksperymenty te dały zdumiewające obrazy (3) groteskowych, dziwacznych zwierząt, krajobrazów i postaci. Chociaż ujawnili niektóre sekrety percepcji maszynowej, takie jak fakt, że pewne wzorce są zapętlone i powtarzane w kółko, pokazali także, jak głębokie uczenie maszynowe różni się od ludzkiej percepcji – na przykład w tym sensie, że rozszerza się i powiela artefakty, które ignorujemy w naszej percepcji bez zastanowienia. .

3. Obraz stworzony w projekcie

By the way, z drugiej strony eksperymenty te odsłoniły tajemnicę naszych własnych mechanizmów poznawczych. Być może to właśnie w naszym postrzeganiu istnieją różne niezrozumiałe elementy, które sprawiają, że od razu coś rozumiemy i ignorujemy, podczas gdy maszyna cierpliwie powtarza swoje iteracje na „nieistotnych” obiektach.

Aby „zrozumieć” maszynę, przeprowadzono inne testy i badania. Jasona Yosińskiego stworzył narzędzie, które działa jak sonda wbita w mózg, celując w dowolny sztuczny neuron i szukając obrazu, który najsilniej go aktywuje. W ostatnim eksperymencie abstrakcyjne obrazy pojawiły się w wyniku „szpiegowania” sieci na gorącym uczynku, co sprawiło, że procesy zachodzące w systemie stały się jeszcze bardziej tajemnicze.

Jednak dla wielu naukowców takie badania są nieporozumieniem, gdyż ich zdaniem, aby zrozumieć system, rozpoznać wzorce i mechanizmy wyższego rzędu przy podejmowaniu złożonych decyzji, wszystkie interakcje obliczeniowe wewnątrz głębokiej sieci neuronowej. To gigantyczny labirynt funkcji matematycznych i zmiennych. W tej chwili jest to dla nas niezrozumiałe.

Komputer nie uruchamia się? Dlaczego?

Dlaczego ważne jest zrozumienie mechanizmów decyzyjnych zaawansowanych systemów sztucznej inteligencji? Modele matematyczne są już wykorzystywane do określenia, którzy więźniowie mogą zostać zwolnieni warunkowo, którym można przyznać zaliczenie, a którzy mogą znaleźć pracę. Każdy zainteresowany chciałby wiedzieć, dlaczego podjęto taką, a nie inną decyzję, jakie były jej przyczyny i mechanizm.

przyznał w kwietniu 2017 r. w MIT Technology Review. Tommy Jaakkola, profesor na MIT, który pracuje nad aplikacjami do uczenia maszynowego. -.

Istnieje nawet prawne i polityczne stanowisko, że zdolność do analizowania i rozumienia mechanizmów podejmowania decyzji w systemach AI jest podstawowym prawem człowieka.

Od 2018 r. w UE trwają prace nad nałożeniem na firmy obowiązku udzielania klientom wyjaśnień dotyczących decyzji podejmowanych przez zautomatyzowane systemy. Okazuje się, że czasami nie jest to możliwe nawet w przypadku systemów, które wydają się stosunkowo proste, takich jak aplikacje i strony internetowe, które korzystają z zaawansowanej wiedzy naukowej, aby wyświetlać reklamy lub polecać utwory.

Komputery obsługujące te usługi programują się same i robią to w sposób, którego nie jesteśmy w stanie zrozumieć... Nawet inżynierowie tworzący te aplikacje nie są w stanie w pełni wyjaśnić, jak to działa.

Dodaj komentarz