OpenAI zrušila zákaz vojenského využití své umělé inteligence
Společnost OpenAI, která vyvíjí umělou inteligenci ChatGPT, v tichosti změnila svá interní pravidla. Její technologie již lze použít pro „vývoj zbraní“ a „vojenské a válečné účely“.
Dnes si už jen málokdo vzpomene, že Google měl ve svých počátcích před více než čtvrtstoletím jistou snahu držet se vlastního sloganu „don’t be evil“ (Nebuď zlo). A za další čtvrtstoletí si možná jen málokdo vzpomene, že i nejjasněji vycházející hvězda dnešního technologického nebe – společnost OpenAI stojící za velkým jazykovým modelem ChatGPT – začínala vyvíjet umělou inteligenci s tím, že ji nebude využívat pro „vývoj zbraní“ a „vojenské a válečné účely“.
Od druhého lednového týdne to již neplatí. Firma aktualizovala své zásady používání a odstranila dříve uvedený zákaz užívání svých modelů pro vojenské nebo válečné aplikace. Nová pravidla zachovávají formulaci „používat naši službu k poškození sebe nebo jiných osob“, ale vypouštějí předchozí zákaz používání její technologie pro vojenské a válečné účely.
Aniž by to firma veřejnosti specificky oznámila, její přepracovaná stránka zásad uvádí, že doznala změn, aby byla „jasnější“ a „čitelnější“. Následně slovo „jasnější“ nahradil obrat „byly přidány pokyny pro konkrétní služby“.
Poškozování ne, halucinace ano
O změně jako první informoval server The Intercept. Místo zákazu vojenského využití nyní firma uvádí pouze vágní zákaz používání svých služeb k „poškozování sebe nebo jiných“. Řekli byste snad, že by to mohlo zahrnovat i vývoj zbraní; ale možná jen proto, že nejste inteligentní uměle.
Aktualizovaná definice by mohla společnosti OpenAI umožnit prodávat svůj velký jazykový model AI zvaný ChatGPT americkému ministerstvu obrany nebo vojenským úřadům dalších spojenců. Tendence velkých jazykových modelů vymýšlet si nesprávné odpovědi, tedy odborně řečeno „halucinovat“, by přitom mohla pro vysoce rizikové vojenské aplikace představovat jistý problém.
OpenAI na žádosti různých médií o komentář nereagovala. Vydala však dodatečně tiskové prohlášení o zásadách, které jako první citoval server TechCrunch.
„Naše zásady neumožňují používat naše nástroje k poškozování lidí, vývoji zbraní, ke sledování komunikace nebo ke zraňování jiných osob či ničení majetku,“ stojí ve firemní zprávě s následujícím dodatkem: „Existují však případy použití v oblasti národní bezpečnosti, které jsou v souladu s naším posláním. Například již spolupracujeme s agenturou DARPA, abychom podnítili vznik nových nástrojů kybernetické bezpečnosti k zabezpečení softwaru s otevřeným zdrojovým kódem, na němž závisí kritická infrastruktura a průmysl.“
Jako jaderná zbraň
Podle prohlášení nebylo jasné, zda výše popsané případy použití v předchozí verzi pravidel spadaly pod pojem „vojenské využití“. Cílem aktualizace pravidel je tedy podle OpenAI „zajistit jasnost a možnost vést tyto diskuse“.
Obavy z nebezpečných zásahů umělé inteligence, zejména při vedení války, jsou předmětem zájmu mnoha odborníků po celém světě. Tyto obavy se jen prohloubily spuštěním generativních technologií umělé inteligence, jako je ChatGPT společnosti OpenAI, Bard společnosti Google a dalších, které rozšířily hranice toho, čeho může AI dosáhnout.
V loňském rozhovoru pro časopis Wired přirovnal bývalý generální ředitel společnosti Google Eric Schmidt systémy umělé inteligence k nástupu jaderných zbraní před druhou světovou válkou.
Schmidt tehdy řekl: „Jednou začas se objeví nová zbraň, nová technologie, která věci změní. Einstein napsal ve třicátých letech minulého století dopis Rooseveltovi, že existuje nová technologie jaderné zbraně, která by mohla změnit válku, což se zjevně stalo. Řekl bych, že autonomie – poháněná umělou inteligencí – a decentralizované, distribuované systémy jsou podobně mocné.“
Vnitrofiremní pravidla OpenAI doznala klíčové změny ve chvíli, kdy vycházejí najevo možnosti rychlého uzavírání lukrativních partnerství mezi OpenAI a ministerstvy obrany různých zemí. Je pravděpodobné, že tah s rozvolněním pravidel byl dlouho připravovaný. Americké ministerstvo obrany zahájilo již loni v srpnu činnost nové pracovní skupiny, která má prozkoumat vojenské aplikace generativní umělé inteligence.
Zmíněné úřady se coby potenciální klienti firmy snaží využít generativní AI při plnění administrativních nebo zpravodajských úkolů. V listopadu 2023 vydalo americké ministerstvo obrany prohlášení o svém poslání podporovat „odpovědné vojenské využívání umělé inteligence a autonomních systémů“.
Citovalo přitom souhlas Spojených států s mezinárodní Politickou deklarací o odpovědném vojenském využívání umělé inteligence. Deklarace, vyhlášená v únoru 2023, vznikla za účelem sledování a usměrňování vývoje vojenských možností AI.
„Vojenské možnosti AI zahrnují nejen zbraně, ale také systémy na podporu rozhodování, které pomáhají vedoucím představitelům obrany na všech úrovních činit lepší a včasnější rozhodnutí, od bojiště až po zasedací místnost. Součástí jsou systémy týkající se všeho od financí, mezd a účetnictví přes nábor, udržení a služební postup personálu až po shromažďování a slučování zpravodajských, sledovacích a průzkumných dat,“ vysvětluje Pentagon.