Lethal Autonomous Weapons Systems

We wczorajszej Gazecie Wyborczej wydrukowano na drugiej stronie dziennika artykuł Jacka Krywko p.t. Robot zabójca nie czuje nienawiści (31.07.2015), którego fragmenty zamieszczam w P.S.

Cały tekst jest pod: wyborcza.pl/1,75968,18462164,robot-zabojca-nie-czuje-nienawisci.html

W obrębie niniejszego forum wielokrotnie dyskutowano o sztucznej inteligencji. Tak więc.. my tutaj sobie ..gadu..gadu.. a w międzyczasie inni dostrzegli bardzo realny, wyłaniający się problem. Stawiam pytanie, czy środowisko ludzi nauki, także w Polsce powinno zabierać na ten temat głos, czy raczej jedynie przypatrywać się rozwojowi wydarzeń.. Coś mi się wydaje, że protesty nie pomogą ! Nawiasem mówiąc jest to też przyczynek do głosów w sprawie literatury s-f. Wojny robotów (vide choćby któraś z części Wojen Gwiezdnych) przewidywano od dawna, no a teraz mamy już owe Legged Squad Support Systems. Dość dziwne jest, że dziennikarz lansuje, że LAWS od strony interpretacji zasad moralności są lepsze ! Twierdzi on -cytuję [„.. Ale moralność, którą uważano za przynależną wyłącznie człowiekowi, można opisać matematycznie, sprowadzić ją do programu komputerowego…”] wydają się … moralnie biorąc „lepsze”. To jest coś fajnego dla Majki Monackiej ! ~ Andrew Wader

P.S.

[„… Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Maszyny nie będą torturować ani poniżać. Do tego nadal będą potrzebowały Homo sapiens

Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Apel dotyczył LAWS (Lethal Autonomous Weapons Systems) – inteligentnej broni zdolnej wybierać cele i decydować o ataku bez udziału człowieka. Inspiracją była wygłoszona w kwietniu w ONZ opinia Stuarta Russella, specjalisty od sztucznej inteligencji, o zasadach używania takiej broni. Opinię tę w formie listu otwartego podpisali m.in. Elon Musk i Stephen Hawking. „Rozwój LAWS zmierza do punktu, w którym roboty będą samodzielnie decydować o życiu i śmierci ludzi. Staną się tanie, powszechne i skuteczne na tyle, że nie będziemy mogli się przed nimi bronić. Otworzymy nowy wyścig zbrojeń”.

Być może Russell przewiduje trafnie. Nie wspomina jednak, z jakiego punktu wyszliśmy.

„Ludzie uważają, że wojny toczą mężczyźni. Mylą się. Do armii wciela się chłopaków w wieku 17, 18 lat. Widziałem jednego, który miał 16. Wojny na polu bitwy toczą dzieci” – pisał we wspomnieniach „Żołnierska epopeja” gen. Omar Bradley, dowódca lądowania w Normandii. Dziś do amerykańskiego Korpusu Piechoty Morskiej może wstąpić niepełnoletni. Na szkoleniach elitarnej formacji Navy Seals trafiają się 17-latki. Oto nasz punkt wyjścia. Dziecko z karabinem.

Russell, Hawking i inni wzdragają się na myśl o robocie, który stoi przed człowiekiem i decyduje, czy pociągnąć za spust. Tak jakby dzisiaj takie decyzje podejmowali odziani w schludne mundury dżentelmeni z zasadami.

Jak reaguje przerażony nastolatek, który w otoczonym budynku zastanawia się, czy opróżnić magazynek wprost w biegnący na niego wściekły tłum? Ma za doradców strach, hormony, miejsce w ustalonej między kumplami hierarchii i ułamki sekund na decyzję. Wierzymy, że podejmie lepszą niż robot?

Strach przed LAWS wynika w dużej mierze z przekonania, że empatia jest źródłem moralności. Nie można pozwolić zabijać maszynie, która nie odróżnia dobra od zła. Ale moralność, którą uważano za przynależną wyłącznie człowiekowi, można opisać matematycznie, sprowadzić ją do programu komputerowego.

– LAWS muszą być w pełni przewidywalne. Ścigać wroga czy chronić własnych żołnierzy? Strzelać czy nie? – mówi Ronald Arkin z Georgia Institute of Technology, który za pieniądze Pentagonu pracuje nad „etycznym zarządcą”, systemem, który ma wyposażyć drony w etykę. – Nasza praca polega na przełożeniu międzynarodowych konwencji na zestaw instrukcji obowiązujących maszynę. Symulowaliśmy różne warianty nalotu na cel. Zmienialiśmy zagęszczenie otaczającej go cywilnej zabudowy, dodawaliśmy szpital itd. Patrzyliśmy, jak system się zachowa. Chodziło o to, by jego decyzje były jak najbardziej humanitarne i zgodne z prawem – opowiada naukowiec.

Komputer zachowywał się jak piloci ludzie.

Hawking i Russell boją się LAWS na polu bitwy, bo maszyna nie ma ludzkich odruchów. Ten kij ma dwa końce. Roboty będą strzelać bez współczucia, ale nie będą też czuły wściekłości, nienawiści czy pogardy. Nie odrąbią jeńcowi ręki, gdy zobaczą na niej tatuaż. Nie będą telefonem filmować, jak poniżają wroga. Nie będą kradły, bo nie potrzebują pieniędzy. Nie zgwałcą kobiety, bo nie potrzebują seksu. Nie będą torturować i upokarzać, bo nie mają potrzeby dominacji. Jeśli zabronimy im atakować cywilów, nie zrobią tego nawet w obronie własnej, bo istnienie nie jest dla nich wartością samą w sobie.

Ludzie w sytuacji ekstremalnej szybko odkrywają, że dobroć, bezinteresowność i współczucie nie są cechami, które zaprowadziły nas na szczyt łańcucha pokarmowego. Maszyny nie mają tego problemu. Same nie wymyślą dołów z wapnem ani obozów zagłady. Do tego nadal będą potrzebowały Homo sapiens…”]