Kde je táta? Izraelci loví teroristy pomocí AI. Aktivisté jsou pobouřeni
Izraelská armáda ničí teroristy Hamásu pomocí nástrojů umělé inteligence. Ochránci lidských práv si stěžují, že takový přístup zvyšuje počty zabitých mezi civilisty.
redaktor
Izraelská armáda už několik měsíců zasahuje proti palestinskému teroristickému hnutí Hamás a postupně „loví“ jeho členy v Pásmu Gazy. Reaguje na palestinský teroristický útok ze začátku října loňského roku, kdy islamisté na území Izraele povraždili přes 1200 lidí, z větší části civilistů.
Izraelské ozbrojené síly používají pro vyhledávání teroristických cílů také prvky umělé inteligence. Jedním z nich je i program, který se jmenuje Kde je táta? a má odhalit palestinské radikální militanty v jejich domovech, napsal web Business Insider.
Problém podle kritiků je v tom, že systém není úplně přesný a může dojít k zabití civilistů, kteří nejsou členy Hamásu. Vedení izraelské armády se nicméně brání tvrzením, že jeho postup se snaží maximálně eliminovat růst počtu obětí mezi civilním obyvatelstvem Pásma Gazy.
Informaci o použití umělé inteligence pro vyhledávání a likvidaci členů Hamásu přinesl izraelsko-palestinský zpravodajský projekt +972 Magazine a Local Call. Kromě systému Kde je táta?, který má lokalizovat bojovníky přímo v jejich domovech, používá Izrael i systém Lavender, který také identifikuje podezřelé z terorismu.
Použití nástrojů s prvky umělé inteligence mělo potvrdit několik izraelských zpravodajských důstojníků. Jeden z nich upřesnil, že izraelská armáda chce likvidovat bojovníky Hamásu, ale i dalších palestinských teroristických skupin, prakticky 24 hodin denně, nejen v době, kdy jsou zapojeni do bojové činnosti.
„Je mnohem snazší bombardovat rodinný dům. Systém je postaven tak, aby teroristy v těchto situacích vyhledal,“ uvedly anonymně zdroje z izraelské armády. Oficiálně ale ozbrojené složky použití nových technologií při likvidaci islamistů v jejich domovech odmítají.
Ochránci lidských práv si stěžují, že tímto způsobem může docházet také k zabíjení civilistů. U systému Lavender se uvádí chybovost okolo deseti procent, kdy AI identifikuje cíle, které ale žádné vazby na teroristy nemají.
Odbornice na bezpečnostní politiku Brianna Rosenová z katedry Blavatnik School of Government z Oxfordské univerzity dokonce tvrdí, že chybovost je ještě vyšší. Podle ní je velmi pravděpodobné, že používání AI při hledání cílů pro izraelskou armádu zvyšuje rizika pro civilní obyvatelstvo, protože se celý systém útoků zrychluje. Ověřování každého z cílů je věnováno zhruba dvacet vteřin, citoval +972 Magazine izraelské důstojníky.
Izrael je v posledních týdnech kritizován spojenci včetně Spojených států, že nebere téměř žádné ohledy na potřeby a ochranu civilistů v Pásmu Gazy a často používá i „hloupé bomby“, které mohou s teroristy zabít i okolní civilisty. Sami Palestinci uvádějí, že od října bylo zabito v Pásmu Gaza na 32 tisíc obyvatel.