Umělá inteligence nás může ohrozit, říká nositel Nobelovy ceny za fyziku Geoffrey Hinton
Letošní Nobelovu cenu za fyziku získali Geoffrey Hinton a John Hopfield, dva vědci, kteří stáli u zrodu technologie strojového učení a vývoje neuronových sítí. První jmenovaný zároveň ale před nedávnem připojil svůj podpis pod prohlášení Centra pro bezpečnost umělé inteligence, jenž varuje před riziky technologie.
Švédská královská akademie věd udělila oběma vědcům cenu za vytvoření metod, které se staly základem pro strojovém učení, na němž je založena většina modelů umělé inteligence tak, jak je dnes známe. Tyto postupy umožňují počítačům využívat umělé neuronové sítě k rozpoznávání snímků a dalších vzorů v datech. Podle švédského časopisu Forskning&Framsteg (F&F), který se ve svém článku věnuje vědeckému přínosu obou Nobelistů, pochází myšlenka strojů, které se samy trénují, ze 40. let 20. století a inspirací jí bylo samozřejmě fungování (lidského) mozku.
V roce 1982 vyvinul John Hopfield metodu pro vytváření paměťových asociací mezi různými uzly, která je nyní známá jako Hopfieldova síť. Tuto síť lze natrénovat tak, aby dokázala vzít neúplný obrázek a odvodila, kterému ze souboru uložených obrázků se neúplný obrázek nejvíce podobá. A brzy po jeho objevu vyvinul Geoffrey Hinton další metody pro vytváření samoučících se sítí. Použil nástroje statistické fyziky ke konstrukci takzvaného „Boltzmannova stroje“. Jde o algoritmus nezastupitelné důležitosti, který se používá ke klasifikaci snímků nebo k tvorbě nových vzorů vycházejících z těch známých. V budoucnu by tak mohl pomoci vystavět umělé neuronové sítě využitelné k trénování algoritmů na řešení komplikovaných, komplexních problémů jako je například vývoj nových materiálů či léčiv.
„Oba položili základy velkých neuronových sítí, které máme dnes k dispozici. Klíčová je zejména jejich práce na algoritmu zpětného šíření chyby, jenž je naprosto nezbytným prvkem pro efektivní trénování sítí,“ vysvětluje pro F&F Moa Johanssonová, docentka informatiky a umělé inteligence na Chalmersově technické univerzitě v Göteborgu „Na této Nobelově ceně je vzrušující, že se spolu s ní vracíme k základům a díváme se na základní objevy. To je důležité, abychom viděli a vnímali dlouhý cyklus příspěvků a objevů, když pozorujeme vývoj společnosti,“ doplňuje její slova Anders Ynnerman, profesor vědecké vizualizace a člen Švédské královské akademie věd s tím, že původně primární výzkum přerostl do aplikovaného a nyní už společnost může vidět jeho komerční a technologické důsledky.
Sílí varování před riziky umělé inteligence
Tento pokrok, který by se dal v mnoha ohledech popsat jako velmi překotný, divoký a svým způsobem zcela neregulovaný, s sebou ale nese i určitá rizika. Ve své analýze je shrnula globální nezisková organizace Centrum pro bezpečnost umělé inteligence (CAIS), která se zabývá výzkumem zvyšování bezpečnosti systémů AI. Podle ní lze tato „katastrofická“ rizika rozdělit do čtyř klíčových oblastí.
První je zneužití AI ke škodlivým účelům jako je například propaganda, cenzura či sledování občanů. Druhou pak přílišná automatizace práce, která by mohla vést k vysoké nezaměstnanosti a závislosti na systémech umělé inteligence spolu s autonomním válčením, kvůli němuž by se konflikty mohly zcela vymknout jakékoliv kontrole. Třetí oblastí je pak riziko je pak na straně samotných vývojářů, kteří pokud upřednostní touhu po ziscích před bezpečností, mohou způsobit ve společnosti velké škody. Čtvrtou skupinou rizik jsou pak ta, která vyplývají z AI chytřejší než je člověk. I ona by mohla zatoužit po moci a mohla by odolávat lidským snahám po jejich vypnutí.
Tato rizika si uvědomil právě i Goffrey Hinton, a proto se podepsal pod velmi stručné, ale jasné prohlášení CAIS, které zní: „Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou vedle dalších celospolečenských rizik, jako jsou pandemie a jaderná válka.“ Podle neziskové organizace je jeho cílem zejména otevření diskuze o etických hranicích AI. „Nemáme vůbec žádné zkušenosti s tím, jaké to je mít ve společnosti objekty, které už jsou nebo brzy budou chytřejší než my. Obávám se, že jedním z důsledků by mohlo být, že tyto inteligentnější systémy skutečně převezmou kontrolu,“ řekl Nobelovou cenou ověnčený vědec na tiskové konferenci Švédské královské akademie věd.
Moa Johanssonová má však na věc trochu jiný pohled a mírní dystopické vize, které rezonují společností. „Někteří lidé se unáhlili a hovořili o neuronových sítích jako o existenčním riziku, protože by se mohly zvrhnout, stát zlovolnými a zničit celé lidstvo. To je však čistá spekulace, navíc se současnou technologií nereálná.“ I podle ní ale existují reálná rizika, například pokud by tyto metody skončily pouze v rukou velkých společností nebo pokud by se tak velké množství dat trénovalo z internetu bez filtrování, případně bez ohledu na autorská práva. „Evropská unie k řešení těchto rizik ale vypracovala Akt o umělé inteligenci, soubor pravidel, které naprosto jasně definují, co je s umělou inteligencí dovoleno a co ne.“
Anders Ynnerman míní, že z globálního hlediska lze rizika rozdělit do různých kategorií. V současné době tak máme například velmi akutní rizika spojená s problémem autenticity obsahu v médiích, zejména těch online. „Pak ale máme i celou řadu rizik, která jsou spojená s budoucností. U nich jde spíše o filozofickou debatu o vývoji technologií. A v extrémním případě tu máme existenční riziko, že umělá inteligence ohrozí lidstvo. Tato dvě rizika by se ale neměla zaměňovat," říká s tím, že letošní Nobelova cena za fyziku vyzdvihuje právě základní znalostní bázi strojového učení. „Tyto znalosti potřebujeme právě proto, abychom dokázali správně vyhodnotit rizika.“
Metody vyvinuté Johnem Hopfieldem a Geoffreym Hintonem se dnes používají v tak rozmanitých oblastech, jako je klimatologie, částicová fyzika, zobrazování černých děr či lékařské zobrazování. Zejména díky lepšímu výpočetnímu výkonu grafických procesorů, dostupnosti většího množství dat a dalšímu vývoji algoritmů se umělé neuronové sítě staly tak populárními. „Nejzajímavější je, že nyní můžeme zpracovávat jazykové modely tak, že vše, co lze převést do 'tokenů', lze zpracovat v jazykovém modelu. Například jazyk chemických vazeb mezi různými atomy a molekulami lze použít k trénování jazykových modelů, abychom mohli vyvíjet nové léky,“ pokračuje Anders Ynnerman.
„Současné hlavní velké jazykové modely zatím neumí tak dobře zvládat operace jako logické uvažování, plánování nebo práci se symboly. Dalším krokem tedy bude pokusit se vyvinout neuronové sítě, které překonají limity, na něž naráží jazykové modely,“ doplňuje na závěr Moa Johanssonová.