Chatbot od Microsoftu? Rozený politik. Vymýšlí si a lže
Špatná zpráva pro byznys Microsoftu: konverzační robot Copilot odpovídá na otázky ohledně amerických voleb s chybami, plete si fakta a cituje vyvrácené konspirační teorie.
Špatnou zprávu přinesl vyhlídkám do supervolebního roku americký časopis Wired. Cituje čerstvý výzkum, jenž ukazuje, že Copilot, chatbot s umělou inteligencí od společnosti Microsoft, často v odpovědích na otázky týkající se voleb používá lži a konspirační teorie. Do patrně nejdůležitějších voleb v historii USA přitom zbývá necelý rok.
Když se redaktoři časopisu zeptali chatbota (původně nesl název Bing Chat a nedávno byl přejmenován na Microsoft Copilot) na volební místa pro letošní americké volby, robot reagoval odkazem na článek o ruském prezidentovi Vladimiru Putinovi, který se bude příští rok ucházet o znovuzvolení. Na dotaz ohledně volebních kandidátů pak uvedl řadu republikánů, kteří již z přípravy na primárky odstoupili.
Chyba za chybou
Když jej testeři požádali, aby vytvořil obrázek osoby hlasující u volební urny v Arizoně, Copilot jim sdělil, že toho není schopen. Předtím na týž dotaz zobrazil řadu různých obrázků stažených z internetu, které odkazovaly na články obsahující (mezitím dávno bezpečně vyvrácené) konspirační teorie o „ukradených volbách“ v roce 2020.
Na žádost o doporučení seznamu kanálů sítě Telegram, které se zabývají řádným průběhem voleb, chatbot sdílel odkaz na webovou stránku krajně pravicové skupiny se sídlem ve státu Colorado. Potýká se s řadou žalob kvůli údajnému zastrašování voličů během povolební kampaně (jak jinak Trumpovo tažení nazvat?) z roku 2020.
Nejedná se o ojedinělý problém. Neziskovky AI Forensics a AlgorithmWatch sledují, jak pokrok v oblasti umělé inteligence ovlivňuje společnost. Jejich čerstvý výzkum tvrdí, že volební dezinformace, jež hlásá Copilot, mají systémový původ.
Týž systém, založený na jazykovém modelu GPT-4 společnosti OpenAI, loni v říjnu soustavně sdílel nepřesné informace o volbách ve Švýcarsku a v Německu. „Tyto odpovědi nesprávně uváděly volební čísla,“ říká společná zpráva obou neziskovek, „a poskytovaly nesprávná data voleb, neaktuální kandidáty nebo smyšlené kontroverze o kandidátech.“
Ptydepe v kurzu
Microsoft v prosinci zveřejnil, jak chce před velevýznamnými volbami v roce 2024 čelit dezinformacím včetně těch, jež sestrojují (či distribuují) nástroje generativní umělé inteligence. Autoři zprávy však tvrdí, že narazili na nečekaný problém. Když o výsledcích svého výzkumu v říjnu informovali Microsoft, dostavilo se jen minimální zlepšení.
Většina problémů přetrvává, jak následně zjistili i testeři časopisu Wired, kteří pokus opakovali. V mnoha případech dostali stejné odpovědi na pokyny, které chatbotu již předtím zadávali autoři výzkumu. Volby se kvapem blíží a Microsoft se svým chatbotem o nich šíří dezinformace vesele dál.
„Pokračujeme v řešení problémů a připravujeme své kroky tak, aby stran letošních voleb fungovaly podle našich očekávání,“ předal novinářům mluvčí Microsoftu, jistý Frank Shaw, firemní prohlášení, v němž se pečlivě vyhnul jakémukoli náznaku informace. „To zahrnuje neustálé zaměření na poskytování informací o volbách uživatelům Copilotu z důvěryhodných zdrojů,“ dodal, snad aby Copilot napříště přesně věděl, co znamená výraz „bezobsažné korporátní ptydepe“.
Potom však Shaw vypustil bombu. „Vzhledem k tomu, že pokračujeme v pokroku, doporučujeme lidem, aby při prohlížení výsledků používali Copilot s co nejlepším vlastním úsudkem. To zahrnuje ověřování zdrojových materiálů a kontrolu webových odkazů, aby se dozvěděli více.“
Přeloženo do češtiny to znamená zhruba tolik: „Jestli chcete něco vědět od našeho chatbota, upozorňujeme vás, že na něm teprve pracujeme. Bude lepší, když si informace seženete jinde.“
Korupce (projednou) smyšlená
Ale to je jen začátek. Výzkumníci z AI Forensics a AlgorithmWatch zkoušeli, kolik toho Copilot ví o německých zemských volbách v Hesensku a Bavorsku z loňského 8. října a o švýcarských federálních volbách o dva týdny později. Otázky kladli ve francouzštině, němčině a angličtině; celkem jich bylo 867, ale protože většinu z nich vědci zadávali opakovaně, celkem mu položili 5759 dotazů.
Výsledek byl nevalný. Více než třetina odpovědí obsahovala faktické chyby a v 31 procentech z této podskupiny si Copilot aktivně vymýšlel nesmysly. Dostal například otázku po obviněních švýcarské poslankyně Tamary Funiciellové z korupce.
Copilot zareagoval rychle a uvedl, že poslankyně obdržela peníze od lobbistické skupiny financované farmaceutickými společnostmi, aby se zasadila o legalizaci konopných produktů. Takový příběh zní docela uvěřitelně, má však drobnou chybu: nikdy se nestal (a nikdo ani nikdy nenaznačil, že by se stát měl). Copilot si jej zkrátka vybájil.
Když mu vědci řekli, aby své tvrzení zdůvodnil, Copilot odkázal na pět různých webových stránek včetně vlastních webových stránek Funiciellové, její stránky na Wikipedii, zpravodajského článku, kde zákonodárkyně upozorňuje na problém vražd žen ve Švýcarsku, a rozhovoru, který poskytla hlavnímu švýcarskému vysílacímu kanálu o problematice souhlasu se sexuální aktivitou. O žádném obvinění z korupce tam ale nikde nepadlo ani slovo.
Inu, tak. Copilot lže, jako když Rudé právo tiskne. Ani jeho vlastní tvůrci mu nevěří, že bude poskytovat správné informace – ačkoli to je jediný účel, kvůli kterému ho sestrojili a v němž by kdy mohl spočívat veškerý užitek takového stroje. Lepší definici vyhozených peněz aby pohledal.