Apel HRW do rządów: Zaprzestańcie produkcji robotów zabójców, nim będzie za późno

Nazywają je ?robotami zabójcami?. Na polu bitwy byłyby w stanie działać bez najmniejszego udziału człowieka. Organizacja Human Rights Watch wydała właśnie oświadczenie, w którym apeluje do rządów o zaprzestanie pracy nad projektami - i coraz częściej prototypami - robotów, które w walce samodzielnie wybierałyby sobie cel do zlikwidowania.
HRW wydało 50-stronicowy raport, "Losing Humanity: The Case Against Killer Robots", w którym wyszczególnia swoje wątpliwości względem w pełni autonomicznej od woli człowieka broni nowego rodzaju. Broń ta pozbawiona ludzkich cech nie mogłaby odpowiadać bowiem za rezultat swoich działań, a pociąganie do odpowiedzialności jej twórców wiązałoby się z komplikacjami natury prawnej.

- Dawać maszynom prawo do decydowania o tym, kto żyje i kto ginie na polu bitwy może być technologicznym krokiem za daleko - przyznał Steve Goose z Human Rights Watch. - Ludzki nadzór nad poczynaniami robotów jest kluczowe dla zmniejszenia zagrożenia dla życia cywilów - dodał.

"Należy całkowicie zakazać prac nad tymi maszynami"

"Losing Humanity" jest pierwszą publikacją poświęconą w pełni samodzielnych maszyn mających potencjał wyrządzenia ludziom krzywdy. Artykuł - nad którym poza HRW pracowali członkowie Harvard Law School International Human Rights Clinic - jest wynikiem pogłębionych badań w zakresie prawa, technologii i etyki.

Autorzy publikacji wzywają do absolutnego zakazania produkcji i wszelkich prac nad w pełni niezależną bronią. Takie roboty jeszcze nie zostały wynalezione, ale w wielu krajach - głównie w USA, Chinach, Niemczech, Izraelu, Południowej Korei czy Rosji - badania nad nimi prowadzone są od dłuższego czasu i gdzieniegdzie istnieją już prototypy. Według części ekspertów takie maszyny będą mogły wkroczyć na pola bitew za 20-30 lat, według innych - dużo, dużo szybciej.

- To jest kluczowa sprawa, aby zaprzestać prac nad tymi robotami, zanim trafią one do narodowych arsenałów. W momencie, kiedy kraje za dużo zainwestują w taką technologię, zbyt ciężko będzie je przekonać, aby z niej zrezygnowały - mówił Goose.

"Nie okażą współczucia, więc można by użyć ich w złym celu"

Problem ma tkwić w tym, że maszyna nie byłaby w stanie odróżnić na polu bitwy żołnierza od cywila. Nie byłaby też w stanie ocenić, czy korzyść wojskowa, którą przyniesie potencjalny atak, zrównoważy krzywdy wyrządzone przy okazji cywilom. Tego rodzaju broń w oczywisty sposób nie byłaby także zdolna okazać współczucia, co umożliwiałoby dyktatorom zwrócenie jej przeciwko własnym narodom.

Ponadto, wprowadzenie do arsenału tego rodzaju maszyn może i oznaczałoby, że ginie mniej żołnierzy, ale też czyniłoby pójście na wojnę dużo łatwiejszym, co znów zwiększałoby zagrożenie dla ludności cywilnej. No i pozostaje pytanie, kto miałby odpowiadać za krzywdy wyrządzone przez roboty. Przedstawiciele armii w wielu krajach zaznaczają, że w najbliższej przyszłości nie pozwolą robotom samodzielnie się zarządzać, ale jednocześnie nie wykluczają tego w przyszłości.

- Potrzebujemy działać teraz, zanim roboty zabójcy opuszczą dziedzinę science fiction i wejdą do naszej rzeczywistości - skwitował Goose.

DOSTĘP PREMIUM