Odborníci sa stretli v Ženeve, dohodu však nebolo možné dosiahnuť: USA a Rusko zablokovali všetky práce. Možno je to jediný čas, kedy hegemóny fungujú tak harmonicky.
V Ženeve sa skončili stretnutia odborníkov vo formáte Dohovoru o neľudských zbraniach, aby rozhodli o osude takzvaných bojových robotov - autonómnych zbraní, ktoré používajú na porazenie cieľov umelú inteligenciu. Nebolo však možné dosiahnuť nijaké dohody. USA, Rusko, Južná Kórea, Izrael a Austrália patrili medzi menšinové národy, ktorým sa podarilo blokovať sentiment smerujúci k úplnému zákazu vražedných robotov.
Hoci teda na svete stále neexistuje žiadna funkčná autonómna zbraň, táto technológia zostáva takpovediac humánna - je možné ju vyvíjať a skúmať. Je zaujímavé, že USA a Rusko sú podľa Štokholmského inštitútu pre výskum mieru (SIPRI) na čele rebríčka najväčších vývozcov zbraní. V tomto rebríčku nezaostávajú ani Južná Kórea, Izrael a Austrália - patria medzi 20 najlepších hráčov na trhu.
A hoci Čína (piaty vývozca zbraní na svete, stály člen Rady bezpečnosti OSN presadzuje zákaz bojových robotov), počas rokovaní sa jej nepodarilo doladiť misky váh. 26 krajín dnes otvorene podporuje zákaz používania umelej inteligencie vo vojne. Ostatní sa vyhýbajú jasnému stanovisku) Francúzsko a Nemecko (tretí a štvrtý vývozca zbraní) ponúkajú podpísanie dokumentu, ktorý by upevnil nadradenosť človeka nad umelou inteligenciou, je však pravdepodobnejšie na strane tých, ktorí chcú vyvíjať autonómne bojové vozidlá.
„Je určite sklamaním, že malá skupina vojenských gigantov dokáže zadržať vôľu väčšiny,“komentovala výsledok ženevských stretnutí Mary Verhem, koordinátorka Kampane za zastavenie robotov zabijakov.
Situácia vyzerá skutočne ako sprisahanie ozbrojených monopolných magnátov, pretože USA a Rusko zvyčajne nemôžu v dôležitých otázkach dosiahnuť aspoň akýsi kompromis. Vezmime si sýrsku: Washington a Moskva si vzájomne blokovali uznesenia po použití chemických zbraní v Sýrii na jar tohto roku. Dusiace plyny a iné toxické látky na vojenské účely, mimochodom, boli predtým Dohovorom o neľudských zbraniach zakázané.
Ďalšie stretnutie o osude vraždiacich robotov sa uskutoční v novembri v Ženeve.
Prečo chcú zakázať autonómne zbrane
Navrhovatelia zákazu robotickej vojny trvajú na tom, že bojisko nie je miestom pre umelú inteligenciu. Podľa ich názoru tieto technológie predstavujú obrovskú hrozbu. Prinajmenšom dnes nie je jasné, ako bude stroj rozlišovať medzi bojovníkmi (tými, ktorí sa priamo podieľajú na nepriateľských akciách) od nebojujúcich (personál armádnej služby, ktorí môžu používať zbrane iba na sebaobranu) od civilistov všeobecne. Existuje možnosť, že dielo zabije zranených a tých, ktorí sa vzdajú, čo súčasné pravidlá vojny zakazujú.
Čo bráni tomu, aby práca prerušila všetky strany konfliktu, dokonca aj majiteľov takýchto zbraní? Prvky umelej inteligencie sa už úspešne používajú vo vojenských zariadeniach, raketách; robotov láka na prieskum, ale posledné slovo majú ľudia. Autonómne zbrane sa nebudú riadiť príkazmi veliteľov - preto sú autonómne. Preto sú vojenskí generáli z rôznych krajín skeptickí, pokiaľ ide o zavádzanie strojov do radov personálu.
A ešte jednou otvorenou otázkou je medzinárodný terorizmus. Autonómna zbraňová technológia sa môže dostať do nesprávnych rúk a nakoniec môže byť hacknutá. Pred rokom ruský prezident Vladimir Putin uviedol, že vládcom sveta bude ten, kto sa stane lídrom vo vývoji umelej inteligencie. V prípade autonómnych zbraní sa ten, kto získa prístup k takýmto technológiám, stane vládcom sveta. A na to vlastne potrebujete iba počítač a podvodníka, ktorý prejde bezpečnostnými systémami. Pentagón, mimochodom, bol hacknutý viackrát. V dôsledku toho nikto nemôže dať záruku, že autonómne zbrane zostanú nedotknuteľné.
Nie je tiež jasné, kto bude právne zodpovedný, ak dôjde k vojnovému zločinu v dôsledku fungovania autonómneho zbraňového systému. "Inžinier, programátor, výrobca alebo veliteľ, ktorý použil zbraň?" Ak zodpovednosť nemožno definovať tak, ako to vyžaduje medzinárodné humanitárne právo, možno rozmiestnenie týchto systémov uznať za legálne alebo eticky opodstatnené? “Poznamenáva Medzinárodný výbor Červeného kríža.
Je zaujímavé, že vedci presadzovali aj zákaz bojových robotov. V júli tohto roku podpísalo viac ako dvetisíc vedcov, najmä tvorcov spoločností Tesla a SpaceX Elon Musk a spoluzakladateľov spoločnosti DeepMind, dokument, že nebudú vyvíjať smrtiace autonómne zbrane. To isté urobil aj Google. Technický gigant sa vzdal práce na projekte Pentagonu Maven. A v roku 2017 už množstvo vedcov vyzvalo OSN, aby zakázala vytváranie zabijakových robotov.
Mimochodom, otázka umelej inteligencie vo vojne sa objavila na programe OSN koncom roku 2013, odvtedy sa však prakticky nič nezmenilo. Iba tento rok sa začali stretnutia odborníkov vo formáte Dohovoru o neľudských zbraniach. To znamená, že trvalo viac ako štyri roky, kým sa dospelo k nejakému viac-menej praktickému lietadlu.
Prečo nechcú zakázať autonómne zbrane
Bez ohľadu na to, ako to môže byť zrozumiteľné, sú preteky v zbrojení hlavným dôvodom, prečo nechcú zakázať vražedné roboty. Putin má pravdu: kto dostane autonómne zbrane ako prvé, bude ovládať svet. Oficiálne je tento dôvod vyjadrený.
Hlavným argumentom odporcov zákazu je nemožnosť oddelenia civilnej umelej inteligencie od armády. Rovnako ako nebudeme zakazovať kuchynské nože len preto, že ich môžu teroristi používať. Je skutočne nemožné oddeliť civilný vývoj umelej inteligencie od armády. Teraz však hovoríme o zákaze tejto zbrane, ktorá bude schopná nezávisle určovať a útočiť na ciele. Môže ísť o projekt Maven, na ktorom americké ministerstvo obrany pracuje v spolupráci s Boozom Allenom Hamiltonom (Google zmluvu odmietol).
Vývojári z Mavenu chcú naučiť drony analyzovať obrázky, najmä zo satelitov, a - potenciálne - identifikovať ciele útoku. Pentagón začal na projekte pracovať už v apríli 2017 a dúfal, že prvé pracovné algoritmy získa do konca roka. Ale prostredníctvom demarše zamestnancov spoločnosti Google sa vývoj oneskoril. Od júna tohto roku mohol systém podľa Gizmoda rozlišovať medzi elementárnymi objektmi - automobilmi, ľuďmi, ale v zložitých situáciách sa ukázal ako úplne nepodstatný. Ak sa napriek tomu na úrovni OSN prijme zákaz autonómnych zbraní, bude treba projekt zrušiť, zatiaľ čo Pentagón tvrdí, že ich vývoj môže zachrániť životy, pretože je možné ho naprogramovať tak, aby fungoval presnejšie a spoľahlivejšie v porovnaní s ľuďmi.
"Musíte pochopiť, že hovoríme o technológii, že nemá vzorky, ktoré by fungovali. Myšlienka takýchto systémov je stále veľmi povrchná," poznamenal v predvečer stretnutia v Ženeve na ruskom ministerstve zahraničia. - Podľa nášho názoru možno na autonómne zbrane uplatniť medzinárodné právo, najmä humanitárny sektor. Nepotrebujú modernizáciu ani adaptáciu na systémy, ktoré ešte neexistujú. “
No, a ešte jeden skutočný, ale nie vyslovený dôvod, sú peniaze. Trh s vojenskými technológiami umelej inteligencie sa dnes odhaduje na viac ako šesť miliárd dolárov. Podľa analytikov americkej spoločnosti MarketsandMarkets sa však do roku 2025 strojnásobí - na takmer 19 miliárd. Pre najväčších vývozcov zbraní je to dobrá motivácia zablokovať akékoľvek obmedzenia týkajúce sa vývoja zabijáckych robotov.
Pokrok sa nedá zastaviť
Navrhovatelia zákazu autonómnych zbraní poznamenávajú, že technológia sa vyvíja veľmi rýchlo a umelá inteligencia sa nakoniec stane zbraňou - otázkou času. V ich slovách je logika. Umelá inteligencia je neoddeliteľnou súčasťou štvrtej vedecko-technickej revolúcie, ktorá pokračuje teraz. Je potrebné mať na pamäti, že technický pokrok je tak či onak spojený s vojenskými operáciami. Tretia vedecko-technická revolúcia trvala až do polovice 50. rokov XX. Storočia, to znamená, že jej vrchol padol na obdobie druhej svetovej vojny.
V roku 1949 Ženeva prijala Dohovor o ochrane civilných osôb v čase vojny. V povojnovom období tiež doplnili IV Haagsky dohovor z roku 1907, ktorý určoval pravidlá vedenia vojny. To znamená, že katalyzátorom tohto procesu sa stali hrôzy druhej svetovej vojny. Obhajcovia ľudských práv teda nechcú čakať na tretiu svetovú vojnu, aby chránili ľudstvo pred autonómnymi zbraňami. Preto trvajú na tom, že rozhodovanie o osude vrahových robotov je teraz nevyhnutné.
Podľa odborníkov organizácie Human Rights Watch je použitie bojových robotov v rozpore s Martensovou deklaráciou - preambulou Haagskeho dohovoru o vojnových zákonoch z roku 1899. Inými slovami, vraždiace roboty porušujú zákony ľudstva a požiadavky verejného povedomia (pozícia bola potvrdená v IV. Haagskom dohovore).
"Musíme spolupracovať na zavedení preventívneho zákazu takýchto zbraňových systémov skôr, ako sa rozšíria do celého sveta," uviedla Bonnie Doherty, vedúca výskumná pracovníčka v zbrojnom odbore Human Rights Watch.
Zakázať vraždiace roboty tentoraz nefungovalo. Predvídateľne budú aj stretnutia v novembri bezvýsledné. Je pravda, že takmer všetky krajiny súhlasia - na technológiu nemôže prúdiť gravitácia a bojové roboty takýto stop-žeriav potrebujú. Stále však nie je jasné, či ľudstvo bude mať čas to dotiahnuť, keď to bude potrebné.