Hrot24.cz
Umělá inteligence nesmí ohrozit lidská práva a demokracii, říká jeden ze strůjců evropské regulace

Foto: Archiv Thomase Schneidera (publikováno se svolením)

Umělá inteligence nesmí ohrozit lidská práva a demokracii, říká jeden ze strůjců evropské regulace

Od srpna letošního roku platí v celé EU nařízení AI Act, které reguluje možnosti a způsoby využití umělé inteligence. Filozofie tohoto předpisu je plně v souladu s novou úmluvou Rady Evropy, která celosvětově zasáhne do způsobu práce s umělou inteligencí. Otcem tohoto převratného dokumentu je Thomas Schneider, předseda expertního výboru Rady Evropy pro umělou inteligenci.

Kristina Blümelová

Vy jste stál u zrodu Úmluvy o AI, kterou Rada Evropy představila v půlce letošního května. Jaký je vlastně rozdíl mezi ní a AI Actem, jenž jasně definuje pravidla hry na poli umělé inteligence?

Ten rozdíl je obrovský, oba dokumenty jsou přijaty jinými institucemi a každý řeší trochu něco jiného. Úmluva o AI je v podstatě prvním globálním a hlavně právně závazným instrumentem pro vývoj, design a aplikaci systémů umělé inteligence, založeným na standardech Rady Evropy v oblasti lidských práv, demokracie a právního státu. Na znění spolupracovaly jak členské i pozorovatelské státy, tak OECD, OBSE, UNESCO a přibližně 70 zástupců občanské společnosti, obchodu, tech-industry a akademické obce.

A tato mezinárodní základna expertů se shodla na tom, že umělá inteligence by nějakým způsobem měla být regulována. Dokázala najít shodu i v tom, jak by taková regulace měla vypadat. Podpisem této úmluvy pak vzniká v podstatě povinnost implementovat závazky do národních legislativ. Na schválený AI Act se tedy dá nahlížet jako na evropské zhmotnění mezinárodního závazku. 

Znamená to, že nejdříve existovalo znění Úmluvy o AI, a teprve poté vznikl AI Act?

Ne v časové rovině, protože na obou těchto instrumentech se pracovalo paralelně a všechny strany spolupracovaly, aby koordinovaly oba právní instituty. Obvykle to v mezinárodním právu totiž funguje tak, že státy už mají nějakou národní legislativu, která se týká určitého předmětu. Následně se všichni dohodnou, že ji budou harmonizovat, uzavřou mezinárodní smlouvu o tom, že v průběhu nějaké lhůty přizpůsobí národní pravidla konsenzu na mezinárodní úrovni.

V tomto případě ale zavazující se státy (kromě EU, která na legislativě pracovala paralelně) opravdu neměly vůbec žádnou legislativu pro regulaci AI a mnohé státy neměly v této oblasti ani definované národní strategie. V podstatě tedy začaly úmluvu dohadovat v době, kdy prakticky vzato ještě neměly vůbec nic na stole. Z tohoto společného kroku do nejistoty bylo ale jasně patrné, jak moc je tvorba globálního instrumentu urgentní.

K čemu všemu se tedy více než padesátka zemí zavázala konkrétně?

Ten závazek je docela jednoduchý. Je třeba ochránit lidská práva, protože systémy umělé inteligence postupně pronikají do společnosti a začínají pomáhat v různých činnostech a také v lidském rozhodování. A v budoucnu jej s největší pravděpodobností budou nahrazovat. Je důležité říci, že záměrem nebylo vytvoření nových lidských práv, ani oslabení těch stávajících. Chtěli jsme jen nalézt cestu k tomu, aby se stávající úroveň ochrany lidských práv, demokracie a právního státu vztahovala i na současné a budoucí výzvy vyvolané umělou inteligencí.

Klíčovou premisou úmluvy je, že státy, které se k tomu zavázaly, musí v rámci veřejného i privátního sektoru zvládnout dostatečně ochránit soukromí, zabránit diskriminaci či garantovat právo na nezávislý přezkum, pokud se někdo bude cítit umělou inteligencí poškozen. Systémy také například nesmějí zasahovat do volebních procesů, nezávislosti soudnictví nebo jiných podstatných pilířů demokracie.

Realizovat něco takového na globální úrovni asi ale nebude vůbec jednoduché.

Je před námi ještě hodně práce, protože aby bylo možné umělou inteligenci v současnosti a v budoucnu adekvátně řídit, budou muset naše společnosti vyvinout široký soubor technických, právních a sociokulturních norem odpovídajících různým způsobům využití umělé inteligence v různých společenských a ekonomických kontextech napříč zeměmi světa. A myslím si, že toto úsilí je opravdu srovnatelné s tím, co musely naše společnosti vytvořit za posledních zhruba dvě stě let v oblasti používání motoru jak ve vozidlech, tak i ve strojích.

Úmluva tedy nebude samostatným nástrojem, ale jedním z důležitých kroků při vytváření rámce pro správu umělé inteligence. Cílem je, aby ji mohli všichni využívat pro růst technologického pokroku i svých ekonomik, ale aby byla zároveň zachována ochrana lidských práv, demokracie a právního státu.

Evropská unie tedy paralelně s úmluvou vytvořila AI Act. Musejí i ostatní státy nyní definovat své vlastní podobně silné regulace?

Nemohu se vyjadřovat za EU, protože jsem občanem Švýcarska, ale věc chápu tak, že v Unii se za naplnění úmluvy opravdu považuje AI Act. Ostatní státy zatím buď žádnou specifickou legislativu v oblasti AI nemají, nebo mají zatím spíše jen základní rámce. Ve většině zavázaných zemí ale existuje legislativa, která je v principu na AI aplikovatelná. Mám na mysli například právo nebýt diskriminován, právo na opravný prostředek, svobodu slova či právo na soukromí. Znamená to, že některé oblasti jsou pokryté těmito základními předpisy a teď je hledat oblasti, v nichž jim regulace chybí a co je tedy ještě třeba ošetřit.

V principu teď začne každý stát pracovat na tom, aby ve výsledku legislativně pokrýval to, co se dohodlo na mezinárodní úrovni. A vzhledem k tomu, že úmluva neříká jak regulovat, ale co regulovat, bude výsledná podoba záležet na každé jednotlivé zemi. Státy si mohou vybrat, zda budou regulovat jen určité sektory, nebo vytvoří horizontální regulaci po vzoru EU, která zasáhne všechny sektory. A například u nás ve Švýcarsku nyní hodně diskutujeme o tom, kterou z cest se vydat. 

Zmínil jste, že využívání AI nesmí vést například zasahování do volebních procesů nebo třeba k ohrožení demokracie. Velkým problém dneška jsou ale takzvané (deep) fake news, které je s pomocí AI velmi snadné vytvářet a které na společnost působí vyloženě destruktivně. Lze vůbec něčemu takovému regulací AI zabránit? 

Vybrala jste dobrý příklad. Podívám se na něj nejprve švýcarskou optikou. Pro nás není lhaní a uvádění falešných informací ničím novým a nelze je opravdu zakázat. Dokonce i lhaní je kryto právem na svobodu projevu. Je to v podstatě až filozofická otázka. Kdo rozhodne o tom, že je vyřčená informace nebo interpretace lží? Kdo má monopol na pravdu? Nikdo. Z pohledu švýcarské přímé demokracie, kde mají v politických otázkách poslední slovo lidé a nikoliv vláda, musí existovat společenský dialog o tom, co je pravdivé či falešné. O tom vláda nerozhoduje. Nicméně vláda, média a další zainteresované strany mohou poskytovat zdroje informací, které pomohou lidem se rozhodnout, kterým „faktům“ sami věří a kterým ne.

Lidé potřebují indikátory a kritéria, podle kterých se budou rozhodovat, která fakta jsou pro ně v určité situaci relevantnější než jiné informace. U nás ve Švýcarsku od lidí očekáváme, že budou vzdělaní a schopní se rozhodnout komu, čemu a proč věří. Jinak by naše přímá demokracie nefungovala. A tyto principy se snažíme přenášet i na AI a zjišťujeme, co lidé potřebují, aby byli schopni identifikovat falešný obsah od pravého. Jiné společnosti ale mohou mít jiné tradice a lidé tam mohou být více zvyklí na to, že je o nich více rozhodováno, a budou tedy od vlády taková rozhodnutí očekávat. A v podstatě proto nemají problém s tím, když se stát chová paternalisticky a říká jim, co je dezinformace a co není, a snaží se je před nimi chránit. 

Z tohoto pohledu na společnost a její fungování pak ale vyplývá i to, zda budou státy implementovat úmluvu jen sektorově či horizontálně, je to tak? 

Více méně ano. On ale ani jeden z těch přístupů není v základu správný či špatný. Podle mě totiž hodně záleží na kultuře každé země. Ve Švýcarsku či Velké Británii společnost většinou nechává věci plynout a je připravena zasáhnout ve chvíli, kdy začne většina cítit, že je třeba to udělat. A to samozřejmě začne, pokud se situace začíná vymykat kontrole. Takže budou spíše volit postupnou, respektive sektorově cílenou míru regulace tak, aby naplnily znění úmluvy. Jiné země v kontinentální Evropě mají spíš ten ochranitelský přístup.

EU proto vytvořila AI Act, kterým se ale budou určitě inspirovat i některé další evropské či jiné státy. Je třeba si ale uvědomit, že i AI Act jako horizontální regulace obsahuje prvky seberegulace, které dávají povinným subjektům opravdu poměrně hodně prostoru k tomu, aby si sami našly cestu, jak se s nutností ochrany lidských práv a společnosti vyrovnat. Nakonec je a bude celá řada různých způsobů, jak se budou principy podepsané úmluvy naplňovat. A to je v pořádku, protože pak se budeme moci vzájemně učit ze svých různorodých přístupů. 

Thomas Schneider Je ambasadorem a ředitelem mezinárodních vztahů Švýcarského federálního úřadu pro komunikace (OFCOM). V rámci tohoto úřadu zastupuje švýcarskou vládu v oblasti správy internetu a informací/znalostí/digitální společnosti u mnoha mezinárodních organizací jako například OSN, Rada Evropy, OECD, OBSE či UNESCO. Jako předseda výboru Rady Evropy pro umělou inteligenci vedl v letech 2022-2024 jednání o Úmluvě RE o umělé inteligenci (a lidských právech, demokracii a právním státě), první závazné mezinárodní smlouvě o umělé inteligenci.