Rozmach generativní AI má i negativní důsledky. Počet deepfake útoků strmě stoupá
S rostoucími schopnostmi modelů umělé inteligence roste i počet deepfake podvodů, které už v celosvětovém měřítku připravily firmy o stovky milionů dolarů a poškodily pověst mnoha lidí. A bude hůře – odborníci na kyberbezpečnost varují, že případů bude kvůli rostoucímu využívání AI raketově přibývat.
redaktorka
Případ, který dokazuje, jak moc velkým společenským problémem deepfake je, se stal na začátku roku v hongkongské pobočce nejmenované nadnárodní společnosti se sídlem ve Velké Británii. Podvodníci za pomoci AI pozměnili veřejně dostupná firemní videa a vytvořili fingovaný videohovor, v němž pomocí AI vygenerovaný finanční ředitel spolu se svými stejně „stvořenými“ kolegy přesvědčil na dálku skutečného zaměstnance firmy, aby na ně převedl 25 milionů dolarů.
S největší pravděpodobností šlo o společnost Arup, která bez dalších větších podrobností potvrdila televizi CNBC, že je s případem spojena. „Stejně jako mnoho dalších podniků po celém světě jsou i naše aktivity předmětem pravidelných útoků, včetně podvodů s fakturami, phishingových podvodů, podvrhování hlasu v aplikaci WhatsApp a deepfakes,“ uvedl mluvčí společnosti.
I když byl v tomto případě modus operandi podobný klasickým podvodům, což znamená, že dotyčnému zaměstnanci nejprve přišel phishingový email s informací o potřebě tajné transakce, kterou nařídil přímo CFO z Evropy, pravděpodobnost úspěchu byla vyšší než v případě běžných emailových podvodů. A to právě proto, že celá akce pokračovala falešným videohovorem, kdy virtuální kolegové na online schůzce vypadali přesně tak, jak je podvedený muž znal.
Dalším známým případem deepfake podvodu z letošního roku je kauza zpěvačky Taylor Swift, jejíž falešné porno fotografie měly jen na síti X více než 45 milionů zobrazení a stovky tisíc lajků. A nemusíme dále chodit ani příliš do minulosti, jen před pár dny se proti zneužití svého hlasu ohradila i herečka Scarlett Johansson.
David Fairman, ředitel pro informace a bezpečnost ve společnosti Netskope, která se zabývá kybernetickou bezpečností, se domnívá, že takových hrozeb bude přibývat. Důvodem je popularizace aplikací jako je ChatGPT, díky nimž se generativní AI rychle dostala mezi širokou veřejnost. A právě tato dostupnost a snadnost užívání samozřejmě vedla i k tomu, že se zvýšilo zneužívání AI k trestné činnosti. „Tito kyberzločinci totiž nemusejí mít špičkové IT znalosti, jak tomu bylo v minulosti,“ cituje jeho slova web CNBC.
CNBC oslovila i dalšího kyberbezpečnostního experta Jasona Hogga ze společnosti Great Hill Partners, který tvrdí, že deepfake snímky či videa vysoce postavených manažerů různých společností mohou být použity například k manipulacím s cenami akcií nebo poškození firemní značky. A zároveň varuje, že generativní umělá inteligence je schopna vytvářet věrné deepfakes na základě veřejně dostupného obsahu na sociálních sítích a dalších mediálních platformách.
Stejně jako David Fairman se i Hogg domnívá, že deepfake útoků bude rychle přibývat. Prevence kyberkriminality podle něj totiž vyžaduje promyšlenou analýzu s cílem vyvinout systémy, postupy a kontrolní mechanismy na obranu proti možnému zneužití těchto nových technologií.
Oba experti se shodli i na tom, že firmy mohou posílit obranu proti AI kybernetickým hrozbám například lepším proškolováním zaměstnanců, testováním kybernetické bezpečnosti a třeba i požadavkem kódových slov či více úrovní schvalován a ověřováníí všech transakcí. To by podle nich mohlo zabránit podvodům právě typu Arup.