OSN vytáhla proti umělé inteligenci. Chce zákaz autonomních zbraní ve válkách
Pokud samočinný dron omylem zabije civilisty, kdo za to bude odpovědný? Moderní konflikty přinášejí otázky, na které etika teprve hledá odpověď. Proti robotům-vojákům vznikla i rozsáhlá petice.
Vývoj autonomních zbraňových systémů včetně dronů, založených na algoritmech umělé inteligence, je v současné době až překotný. Tyto zbraně se již v určité míře objevují ve skutečných konfliktech, které probíhají na různých místech světa. Na půdě OSN se proto začínají řešit etické otázky spojené s válečným zabíjením „rukou AI“.
Jedním z lidí, kteří před touto oblastí technologického vývoje dlouhodobě varují a propagují zákaz autonomních zbraní, je průkopník umělé inteligence a profesor informatiky na univerzitě v Berkeley, Stuart Russell. V článku v časopise Nature poukazuje na zrychlující se vývoj vedoucí ke stále chytřejším zbraním. A obává se toho, že intenzivní zbrojení, související s neklidnou světovou situací, může vést až ke standardizaci robotů, přinášejících na bitevním poli smrt.
Podle švédského populárně vědeckého časopisu Forskning & Framsteg (F&F), který se ve svém únorovém čísle tématu detailně věnuje, však není Stuart Russell ve svých obavách sám. Například organizace Human Rights Watch už dlouho usiluje o zákaz takových zbraní.
Kampaň „Stop zabijáckým robotům“ podporuje více než 180 mezinárodních i národních nevládních organizací. Zároveň už téměř pět tisíc vědců z oblasti vývoje umělé inteligence podepsalo otevřený dopis organizace Future of Life, požadující zákaz „útočných autonomních zbraní mimo smysluplnou lidskou kontrolu“.
A není náhodou, že v Ženevě už zhruba deset let probíhají diskuze o nutnosti doplnění mezinárodního práva o smrtící autonomní zbraňové systémy. „V rámci Úmluvy o zbraních z roku 1980 se k této problematice pravidelně schází skupina odborníků. Práce je ale pomalá, protože Rusko, Spojené státy i některé další země regulace odmítají. A vzhledem k tomu, že konečné rozhodnutí vyžaduje absolutní konsenzus, nejsou zatím na stole žádné konkrétní návrhy,“ píše Forskning & Framsteg.
Důležitým mezníkem v možné regulaci autonomních zbraňových systémů se tak stal začátek listopadu 2023, kdy Valné shromáždění OSN v New Yorku poprvé odhlasovalo rezoluci týkající se autonomních zbraní a šéf OSN António Guterres vyzval země světa, aby se do roku 2026 dohodly na zákazu jejich užívání.
Co to tedy v překladu znamená? „Tato rezoluce v podstatě ukazuje, že některé země už začínají být netrpělivé a ztrácejí víru v to, že diskuze v Ženevě opravdu někam povedou,“ vysvětlil pro F&F Vincent Boulanin, vedoucí skupiny zabývající se regulací umělé inteligence ze stockholmského výzkumného institutu SIPRI.
Boulanin se ve svém výzkumu mimo jiné věnuje i otázce, jak lze současné mezinárodní právo aplikovat na smrtící autonomní zbraňové systémy, což je označení používané právě například OSN. Podle něj v současné době neexistuje žádné právní vakuum.
„Válečné zákony platí pro všechny typy zbraní, včetně autonomních zbraňových systémů. Problém je v tom, že současný zákon lze vykládat různě. Některé země jsou možná mnohem liberálnější než jiné. A tam, kde panuje nejednoznačnost, má cenu se dohodnout na nových pravidlech nebo principech.“
Kamenem úrazu je podle něj ale definice toho, co je vlastně míněno oněmi smrtícími autonomními systémy. Často používaná definice je, že jde o zbraně, které po aktivaci dokážou identifikovat a vybrat cíle a zároveň na zaútočit bez lidského zásahu. Existují však rozdílné názory na to, jak velký lidský zásah je zapotřebí k tomu, aby zbraň nebyla považována za autonomní.
„Další problém se týká odpovědnosti. Pokud je stroj naprogramován tak, aby zabíjel protivníky, ale náhodně by zabil civilisty, kdo bude hnán k odpovědnosti?“ ptá se. A dodává, že stroje samy o sobě odpovědnost nést nemohou.
„Odpovědné budou nakonec státy, které takové systémy používají. Často říkáme, že stroje rozhodují, ale to je v podstatě jen antropomorfní způsob, jak popsat, co stroj dělá. Stroje zatím nedělají vlastní rozhodnutí, ale vybírají z předem naprogramovaných možností.“
Dalším odborníkem, který se v článku F&F k tématu vyjádřil, je Peter Bovet Emanuel, podplukovník, který na norské Akademii obrany zkoumá, jak AI ovlivní budoucnost válčení.
„Umělá inteligence změní způsob, jakým vedeme válku. Momentálně už se používá například k interpretaci satelitních snímků, postupně budou systémy AI využívány i pro pokročilejší úkoly. Například může působit jako poradkyně ve vojenských štábech na všech úrovních řízení, pomáhat při plánování logistiky a simulacích různých scénářů.“
Jeho slova potvrzuje i zpráva SIPRI z roku 2017, která je sice staršího data, uvádí však zhruba padesátku příkladů systémů, které dokážou autonomně sledovat, detekovat a v některých případech útočit na cíle. Jde především o obranné systémy, které musí chránit lodě, tanky nebo vojenská zařízení proti robotům a raketám ze vzduchu.
Existují ale i příklady útočnějších zbraní v podobě takzvaných „kamikaze dronů“, které dokážou dlouho kroužit ve vzduchu a vyhledávat cíle, na které pak zaútočí, přičemž se samy útokem zničí. A například na Ukrajině se nyní používají amatérské i profesionální bezpilotní letouny i drony. Ty jsou sice ovládané na dálku člověkem, ale kvůli rušení se obě strany snaží přijít na „chytřejší“ navigaci.
Peter Bovet Emanuel věří, že vojenské systémy se budou postupně vyvíjet směrem k větší autonomii a že vývoj bude těžké zastavit. „Státy si prostě nemohou dovolit riskovat, že nezvládnou zareagovat na nečekaný útok. Proto se vyvíjejí stále autonomnější obranné systémy. Jenomže pak už není příliš složité učinit další krok, totiž používat je i pro útok,“ uvedl s tím, že v tento moment je důležité vést širokou diskuzi o tom, co je ještě eticky obhajitelné, a případně regulovat spíše možné způsoby používání technologií než jejich samotný vývoj.
Což nás vrací zpět na začátek, tedy k diskuzím jak v Ženevě, tak na půdě OSN.