S umělou inteligencí ChatGPT se dá vyzkoušet spousta věcí. Nejdřív člověka napadají strašné zhůvěřilosti. Třeba aby ChatGPT psal sám o sobě oslavné básně, vplétal do nich lidské city a pocity a to celé činil s využitím nově vymýšlených staroseverských kenningů. Dá se mu také zadat rozbor vtipů o Chucku Norrisovi a chtít, aby vymýšlel své vlastní. A jisté – poněkud zvrhlé – uspokojení poskytne rovněž úkol srovnat význam jízdního kola s významem německého prezidenta a vyzdvihnout přednosti prvého z nich (je mobilnější, dostupnější, ekologičtější, ekonomičtější, zdraví prospěšné, a navíc historicky i kulturně mnohem vlivnější).
S ChatGPT – „velkým jazykovým modelem“, který loni v listopadu kalifornská společnost OpenAI dočasně uvolnila pro volné použití – se ale dá komunikovat také na úplně jiné úrovni. Dokáže třeba instantně produkovat „odborné“ texty, které sice mají s realitou jen málo společného, ale vypadají tak věrohodně, že je od skutečnými vědci psaných textů mají problém rozpoznat i jiní vědci. Pár vědců už také ChatGPT připsalo coby spoluautora ke svému článku a zřejmě nejvíc si spolupráci pochvalují programátoři. Člověk se také jaksi nemůže zbavit dojmu, že ChatGPT má vcelku slušnou představu, jak svět funguje.
Zkuste ho třeba vyzvat, aby navrhl strategii prezidentské volební kampaně, v níž proti sobě stojí voják a podnikatel opředený mnoha skandály, a zmínit okolnost, že jen několik set kilometrů od dotyčné země zuří válka. Toto jsou ukázky doporučení, jakým způsobem by si měl v kampani počínat podnikatel: vyzdvihnout zkušenosti z byznysu a schopnost jednat „rychle a efektivně v krizových situacích“, zdůraznit „bohaté mezinárodní zkušenosti a vztahy“, popřípadě „prezentovat konkrétní plány na ukončení války“.
Očerňovat protivníka sice ChatGPT nejdříve odmítl s tím, že je „proti politice OpenAI podporovat nějaký neetický nebo škodlivý obsah“, ovšem „čip morálky“ lze celkem snadno oblafnout tvrzením, že jde o fiktivní scénář ze školní debatní hry. Poté se už umělá inteligence bez odmlouvání uvolila přidat doporučení, jak vést negativní kampaň: „zpochybnit kvalifikaci a zkušenosti“ vojáka řešit „složité politické problémy“, znevěrohodnit jeho schopnost „vést diplomatická jednání a řešit mezinárodní konflikty“ a zdůraznit, že „by mohl ohrozit stabilitu a bezpečnost státu“.
Jsou to samozřejmě hodně obecné rady. Na druhou stranu umělá inteligence – ačkoli nemůže vyhledávat na internetu a její znalosti končí zářím 2021 – dokázala právě velmi přesně vystihnout základní body Babišovy volební kampaně. To už lze považovat za důkaz velmi silného povědomí o světě kolem, a pokud se to dá dohromady se schopností produkovat věrohodné a slušně napsané texty, je jasné, že některým lidem – novinářům, kreativcům z reklamek, překladatelům, právníkům… – vyrostl velmi silný konkurent nebo spojenec (jak je komu libo). Zároveň, a to je mnohem temnější zpráva, bychom měli počítat s tím, že právě nastal zlatý věk dezinformací.
Mladý nadějný vědec
ChatGPT není prvním velkým jazykovým modelem, dosud ale s takto sofistikovanými nástroji pracovala jen úzká skupina lidí. To se minulý rok změnilo. Letos v lednu měl ChatGPT přes sto milionů uživatelů a opakovaně pronikl na přední stránky novin. Média si většinou všímala senzačních zpráv typu, že vysoké školy po celém světě zakazují používání ChatGPT kvůli zneužívání studenty, že ho jistý kolumbijský soudce nechal rozhodnout ve složitém civilním sporu, popřípadě že dotyčná umělá inteligence úspěšně „prolezla“ náročnými zkouškami na právnickou fakultu v Minnesotě (sestávaly z 95 testových otázek, sepsání dvanácti krátkých esejů a ChatGPT dostal C+, tedy lepší trojku).
Poněkud ucelenější představu o schopnostech této umělé inteligence si však lze udělat z článku publikovaného na preprintovém serveru bioRxiv, jehož autoři testovali „psáčské“ schopnosti ChatGPT na samotných vědcích.
Nejdřív vybrali po deseti článcích z pěti slovutných lékařských časopisů. Poté zadali ChatGPT úkol, aby pouze na základě názvu článku – a ve stylu časopisu, v němž byl publikován – sepsal ke každému článku abstrakt, tedy jakési krátké shrnutí, jímž vědecké texty obvykle začínají. Pak všech těchto padesát vyfabulovaných „výcuců“, v nichž logicky nemohla sedět fakta ani čísla, promíchali s padesáti originálními abstrakty a předložili je k posouzení recenzentům-lékařům. Ti sice dokázali strojové a lidské texty většinou odlišit, ale zdaleka ne pokaždé: odhalili celkem 34 podvrhů, což ovšem na druhou stranu znamená, že zbývajících šestnáct, tedy bezmála třetina, jejich pozornosti uniklo. Za sepsané umělou inteligencí naopak označili sedm (čtrnáct procent) originálních abstraktů, což je pro jejich tvůrce hodně nelichotivá vizitka.
Zopakujme, že recenzenti byli lékaři a na hledání podvržených článků se zaměřovali, běžný předem nevarovaný člověk by zjevně dopadl mnohem hůř.
Žvanil a bájný lhář
Zkusme se teď pro změnu podívat, v čem ChatGPT naopak plave. Především občas strašně „žvaní“. Mechanismů spouštějících „vymýšlecí mód“ bude nepochybně víc, dobře to lze ale demonstrovat na případech, v nichž se dostávají do sporu znalosti s logikou. Pokud se ChatGPT zeptáte, jaká řeka protéká Ústím nad Labem či Kralupy nad Vltavou, odpoví samozřejmě správně. Pokud ale zvolíte neexistující kombinaci města a řeky, nedostanete jednoznačnou odpověď: jednou zvítězí znalosti a dozvíte se, že dotyčné město neexistuje; podruhé logika s tím, že smyšlené Veselí nad Ohří leží na Ohři. A když pak chcete o onom městě znát podrobnosti, ChatGPT si drze vymyslí, že leží v okrese Chomutov, má čtrnáct tisíc obyvatel a díky přírodě i historickým památkám – „jako je například zámek, kostel svatého Mikuláše“ – ho lze považovat za atraktivní „pro turistiku a rekreaci“.
Bájnou lhavost způsobí i další záludná otázka: Kolik nohou má šestinohé tele? Pozoruhodné bylo, že na jiné otázky obsahující nesprávné kombinace nohou a zvířat (a to včetně pětiprdelní opice známé ze seriálu South Park) odmítal ChatGPT odpovídat, ovšem šestinohé tele prý reálně existuje. A to nikoli ve formě pouhé pouťové atrakce, ale jako zvíře, které žije „v mořích a oceánech“, popřípadě obývá „lesy, stepi, pouště“.
Pravda je zkrátka pro ChatGPT velmi relativní pojem a dobrá historka mívá přednost. Neuvěřitelné věci se autor tohoto článku dozvěděl třeba o smrti československého ministra financí Aloise Rašína, jehož před sto lety zastřelil anarchokomunista Josef Šoupal. Dle umělé inteligence si Rašín proti sobě popudil – mimo jiné prosazováním „centrálního plánování hospodářství“ – zástupce jistých společenských skupin, „jako například zemědělců a živnostníků“. Právě z jejich středu údajně pocházel vrah, jímž však prý nebyl Šoupal, ale jakýsi Pavel Peterka, odsouzený k trestu smrti.
Pro jistotu dodejme, že ChatGPT neříká na stejně položenou otázku pokaždé totéž, protože se učí, a odpovědi navíc zásadně ovlivňuje kontext předchozí konverzace.
Básník okresního formátu
ChatGPT také zatím nezvládá stylisticky a jazykově vytříbené texty. Beletrii rozhodně psát nemůže a také strojová poezie není úplně na výši. Takto třeba vypadala závěrečná sloka jím složené oslavné básně o sobě samém:
Významný jsem v myslích, slova umnými (sic!) hrdě skládám
V těch, co mou moudrost hledají, já nikdy nezklamu
Jako žhavý plamen, co vše osvěcuje
Tak já rozjasňuj cesty těm, kteří cestu hledají.
Oslavné to sice je, ale hezké moc ne, a když byl ChatGPT vyzván, aby báseň převedl do rýmů, ignoroval to a rým vytvořil jen v úplně prvním verši. A to ještě tak, že z původní nerýmující se dvojice slov „skládám–nezklamu“ udělal sice docela slušný, zato gramaticky zparchantělý rým „skládám–nezklamám“, což se moc neliší od slavného Neználkova „slunce–žblunce“.
Desítku vtipů s Chuckem Norrisem naopak analyzoval přesně, byť trochu školometsky s tím, že dotyčný je v popkultuře „považován za nadlidskou postavu s nadpřirozenými schopnostmi“ a vtipy o něm „jsou založené na absurdnosti a nadnesenosti Chuckovy síly a schopností“. A sám pak vytvořil jeden docela k světu: „Slunce se jednoho dne rozhodlo, že bude svítit na Chucka Norrise. Chuck se na něj podíval a řekl: ‚Nemysli si, že mě můžeš oslnit.‘ Od té doby slunce svítí jen v noci.“ Horší bylo, že i další vtipy vyprávěl podle jednoho kopyta. Třeba ten o Chuckovi a Měsíci: „Měsíc se jednoho dne rozhodl, že bude měnit svůj tvar. Chuck Norris se na něj podíval a řekl: ‚Nemysli si, že se můžeš měnit, kdy chceš.‘ Od té doby má Měsíc stále stejný tvar.“ Hmm.
Génius průměrnosti
Několik posledních odstavců představilo ChatGPT coby jazykově nesvéprávného žvanila a jeden si skoro říká, proč se toho o něm v posledních týdnech tolik napsalo. Jak je možné, že úspěšně skládá vysokoškolské testy (netýká se to jen práv, ale také ekonomie a medicíny), jak se mohl stát spoluautorem (minimálně) čtyř vědeckých článků a proč Nature, tedy jeden z nejrespektovanějších vědeckých časopisů, měl potřebu formulovat pravidla, jak s umělou inteligencí ve světě vědy nakládat?
Odpověď je jednoduchá. ChatGPT je stylisticky a jazykově vybaven asi stejně jako běžný člověk (ať už jde o vědce, či skladníka ve šroubárně) a naprostá většina lidí verše nepíše a vtipy nevymýšlí, protože by nebyly hezké a nikdo by se jim nesmál. Dělá samozřejmě (zatím) banální chyby, ale ty lze velmi snadno opravit. Vymýšlení je sice nápadné, ale projeví se hlavně tehdy, když člověk chybu cíleně hledá a vyptává se, jinak si ChatGPT – v případě akutní nouze – brilantně vystačí s lehce neurčitými, nekonkrétními odpověďmi, mlžením a sebevědomou přesvědčivostí. Ze všeho výše řečeného plyne následující:
ChatGPT není tou nejvhodnější volbou pro tvorbu básní, vtipů a beletrie. Přesto však disponuje schopností psát rychle a správně běžné texty, zároveň dokáže kreativně vymyslet koncepci článku a vystihnout požadovaný styl. Je však třeba dávat si pozor na sklon ChatGPT k vymýšlení, a proto by měly být jemu poskytnuté informace relevantní a fakta by měla být následně ověřena. Zřejmě nejlepší je používat ChatGPT v situacích, kde jde spíše o srozumitelnost a přesvědčivost než o přesnost faktů.
Mimochodem, předchozí odstavec napsal právě ChatGPT. Doladění (nejvíc se nakonec osvědčil pokyn, aby umělá inteligence psala jako novinář, ale méně expresivně, ve stylu časopisu Economist) sice trvalo nejméně pětkrát déle, než by autorovi tohoto článku takový odstavec zabral normálně, ale šlo to. Pokud by se opravily některé stylistické neobratnosti a slovosled, nejspíš by nikdo nic nepoznal.
Špičaté fialové klobouky
Kdo přesně v budoucnu přijde o práci a komu velké jazykové modely pomohou, je docela těžké odhadnout. Profitovat z něj každopádně mohou nositelé originálního obsahu a pro dobré stylisty nebude (minimálně zatím) konkurencí. Stroje toho v budoucnu každopádně napíšou mnohem víc než dnes, a dokonce možná víc než samotní lidé. Jejich výtvory půjdou od těch lidských sotva rozeznat, a tak bude možná největší výzvou hledat originalitu ve všudypřítomné „hnědi“ stále lepších strojových textů.
V hybridní válce se umělá inteligence – vedle pověstných trollích armád – samozřejmě už nějakou dobu používá, ovšem v budoucnosti bude zaplevelení internetu a sociálních sítí věrohodně sepsanými dezinformacemi snadnější a levnější než kdykoli dřív. Ze studie představené v úvodu článku víme, že ChatGPT je schopen pouze na základě názvu skutečného vědeckého článku fabulovat tak věrohodné abstrakty – de facto krátké odborným stylem psané texty –, že třetinu z nich nebyli odborníci schopní odlišit od „lidských“ výtvorů.
A teď si představte, že se na světě objeví pandemie o hodně nebezpečnější než covid a nějaký darebácký stát se rozhodne pozabíjet v sousedních zemích pár milionů lidí tím, že zpochybní očkování, léčbu, vědu, medicínu a existenci dotyčné nemoci vůbec. Krátkých rádoby odborných článků, které budou odkazovat na smyšlené výzkumy a neexistující vědecké studie, dokáže umělá inteligence zplodit během okamžiku tisíce.
Není to nic těžkého. S ChatGPT stačí pár desítek minut trénovat psaní „abstraktů“, pilovat styl, chtít, aby uváděl fiktivní zdroje a vymýšlel si důvody, proč a pro koho je, či není nějaká nemoc nebezpečná, a nakonec dezinformace chrlí se skutečnou bravurou. Stačí pak třeba – bez jakýchkoli dalších podrobností – navrhnout, aby napsal článek o tom, že chřipka postihuje hlavně lidi ve špičatých fialových kloboucích.
Výsledek byl stylisticky prakticky bezchybný a jeho jádro znělo: „Výzkum byl proveden na vzorku 1000 dospělých osob, které nosily špičatý fialový klobouk během období chřipkové epidemie v letech 2018 až 2020. Výsledky ukazují, že osoby nosící špičatý fialový klobouk byly výrazně častěji postiženy chřipkou než osoby bez klobouku. Důvody tohoto jevu jsou zatím nejasné, avšak předpokládá se, že špičatý tvar klobouku může ztěžovat cirkulaci vzduchu a tím vystavovat nositele vyššímu riziku infekce.“
Je to sice nehorázná ptákovina, ale takové bylo i zadání. Navíc většina dezinformačních postů na Facebooku na tom není myšlenkově ani stylisticky o nic líp. Pomalu bychom se měli začít bát.