Hackeři vám nastrčí falešné kolegy a oberou vás i firmu. Deepfake stojí miliony dolarů
Firmy po celém světě už přišly o miliony dolarů kvůli podvodům označovaným jako deepfakes a odborníci na bezpečnost v kybernetickém prostoru upozorňují, že situace se bude dál zhoršovat.
Zločinci totiž čím dál více zneužívají generativní umělou inteligenci (AI), informuje server televize CNBC. Jako deepfake se označuje technologie, která v digitálním prostředí umožňuje podvodníkům vytvářet falešný obsah, například i pozměněním obličeje jiných lidí.
Deepfake, volně přeloženo jako hluboký padělek, může být video, zvuk, případně i fotografie skutečné osoby, které byly digitálně upraveny a zmanipulovány, často prostřednictvím umělé inteligence. Cílem je přesvědčivě je zkreslit, aby vyvolaly dojem, že jde o realitu.
V jednom z největších známých případů tohoto druhu, který se odehrál v letošním roce, byl podveden pracovník jednoho finančního oddělení v Hongkongu. Převedl takto více než 25 milionů dolarů (567 milionů korun) podvodníkům využívajícím technologii deepfake, kteří při videohovoru svůj vlastní obraz pozměnili tak, že pracovník byl přesvědčen, že před sebou na monitoru vidí své kolegy.
Minulý týden britská strojírenská společnost Arup serveru CNBC potvrdila, že je to ona, kdo je do tohoto případu zapojen, ale že kvůli pokračujícímu vyšetřování nemůže být v této záležitosti konkrétnější.
Podobné hrozby narůstají v důsledku popularizace chatovacího programu ChatGPT od americké společnosti OpenAI. Ta jej zpřístupnila v roce 2022 a od té doby se mezi lidmi prudce zvýšil zájem o technologii generativní AI.
„Veřejná dostupnost těchto služeb snížila bariéru vstupu pro kybernetické zločince – ti už nemusejí mít speciální technologické dovednosti,“ řekl David Fairman ze společnosti Netskope, která se specializuje na bezpečnost v kybernetickém prostoru. Objem a sofistikovanost podvodů se podle něj rozšířily s tím, jak se technologie AI neustále vyvíjí.
Různé služby generativní umělé inteligence lze využít k vytváření textového či obrazového obsahu, stejně jako videí, která vypadají, jako kdyby je vytvořil člověk nebo jako kdyby na nich byl skutečný člověk zobrazen. Mohou tak fungovat jako pomocné nástroje pro zločince, kteří se snaží digitálně manipulovat a přetvářet obraz reálných osob.
„Stejně jako v mnoha jiných firmách po celém světě jsou i naše aktivity vystaveny pravidelným útokům, včetně podvodů s fakturami, phishingových podvodů, falšování hlasu přes WhatsApp a deepfakes,“ řekl mluvčí firmy Arup.
V případě pracovníka finančního oddělení, kterého podvodníci připravili o miliony dolarů, šlo o to, že se tento pracovník zúčastnil údajně klasického videohovoru. Na druhé straně byli lidé, které tento pracovník považoval za finančního ředitele společnosti a za další zaměstnance podniku. Pracovník byl požádán o převod peněz, ale zbytek účastníků schůzky byl deepfake - byly to digitálně upravené obrazy lidí, kteří se skutečnými zaměstnanci podniku neměli nic společného.
Společnost Arup uvedla, že při incidentu byly použity falešné hlasy a obrazy. Upozornila přitom, že počet a sofistikovanost těchto útoků v posledních měsících prudce narůstá.
Čínská státní média letos informovala o podobném případu v provincii Šan-si. Týkal se zaměstnankyně finančního oddělení, která byla na základě zmanipulovaných pokynů vyzvána k převodu 1,86 milionu jüanů (5,8 milionu korun) na účet podvodníka. Stalo se to rovněž při videohovoru s člověkem, o němž se zaměstnankyně domnívala, že je to její šéf. Ve skutečnosti šlo o deepfake a osoba na druhé straně měla pouze podobu jejího šéfa.
Podobné případy ale nejsou tak úplně nové. V roce 2019 generální ředitel jedné britské energetické společnosti podle médií převedl 220 tisíc eur (5,4 milionu korun) podvodníkovi, který digitálně napodobil vzezření šéfa mateřské společnosti a telefonicky požádal generálního ředitele o převod peněz údajnému dodavateli.
Výzkumníci společnost Mandiant, která se věnuje bezpečnosti v kybernetickém prostoru a kterou vlastní americká internetová společnost Google, loni v srpnu zdokumentovali mnoho podobných případů. Zločinci při nich také využívali zejména umělou inteligenci a technologii deepfake pro phishingové podvody, dezinformace a další nezákonné účely. Firma tehdy uvedla, že použití technologie pro takové aktivity je omezené, ale že rostoucí dostupnost nových nástrojů generativní AI urychlí její využití lidmi se zlými úmysly.