Icon Zavřít výběr země
Zprávy
Zpět na seznam
TitanHQ

Vzestup deepfake útoků: Jsou vaši klienti připraveni?

date13.05.2025

Deepfaky představují vážné riziko pro firmy. Zjistěte, jak fungují, jaké hrozby přinášejí a co můžete udělat pro ochranu.

 

Deepfaky se stávají součástí kultury dezinformací. Jejich rostoucí zneužívání k podvodům a dalším kybernetickým útokům zasahuje napříč odvětvími. Počet případových studií, ve kterých byly deepfaky použity při kyberútocích, rychle roste. V jednom nedávném případu se stala obětí britská inženýrská firma Arup, která na základě deepfake videohovoru odeslala podvodníkům 25 milionů dolarů.

 

 

Nedávná studie společností TitanHQ a Osterman Research odhalila tento bezpečnostní trend: 11 % oslovených organizací zažilo během posledního roku útok s využitím deepfake technologie. Možná se toto číslo zdá nízké ve srovnání s běžnými phishingovými útoky, ale je to teprve začátek… Odhady uvádějí, že do konce roku 2025 bude sdíleno přibližně 8 milionů deepfaků – mnohé z nich budou využity k nekalým účelům.

 

Co je deepfake kyberútok?
Slovo „deepfake“ vzniklo v roce 2017 na Redditu, kde uživatel s tímto přezdívkou založil komunitu sdílející pornografické deepfaky celebrit vytvořené pomocí open-source technologie pro výměnu obličejů. Od té doby jsou deepfaky zneužívány v různých škodlivých formách.

 

Deepfake obsah manipuluje s autentickým médiem – například videem – a upravuje ho podle potřeb útočníka. Technologie stojící za deepfaky je typ umělé inteligence nazývaný hluboké učení (deep learning), což je forma strojového učení využívající neuronové sítě. Algoritmy, které vytvářejí deepfaky, jsou natolik pokročilé, že dokážou vytvořit velmi realistické falešné záznamy. Právě tato věrohodnost činí deepfaky nebezpečnými při kyberútocích. Deepfaky manipulují oběť, aby provedla akci ve prospěch kyberzločince. Mohou být jedním z nejsilnějších nástrojů sociálního inženýrství při kyberútocích.

 

Příklady hrozeb spojených s umělou inteligencí a deepfake útoky
Deepfake útoky využívají pokročilé technologie, ale jejich podstata je stále stejná – manipulace lidského chování. V kybernetickém prostředí se čím dál častěji objevuje kombinace obsahu generovaného pomocí velkých jazykových modelů (LLM) a deepfake technologií. Ukázky využití deepfaků svědčí o jejich rostoucím zapojení do podvodů a phishingu:

 

Deepfake výměna obličejů (Face Swapping)
Algoritmy pro tvorbu deepfaků jsou natolik pokročilé, že dokážou měnit obličeje v reálném čase. Jeden nedávný útok využil tuto technologii k napadení podnikatele ze severní Číny. Útočníci během videohovoru použili technologii výměny obličeje, aby podnikatele přesvědčili, že mluví se svým důvěryhodným známým, který potřebuje peníze na výběrové řízení. Muž přišel o 4,3 milionu jüanů (cca 622 000 dolarů). Zpráva společnosti iProov z roku 2024 zaznamenala nárůst deepfake útoků typu „Face Swap“ o 704 %.

 

Deepfake + AI agenti = sofistikovanější a nebezpečnější kyberútoky
Varování před hyperpersonalizovanými phishingovými útoky generovanými AI agenty nabývá na síle. Zprávy zaznamenaly případy falešných, ale velmi osobních e-mailů vytvořených na základě informací získaných pomocí generativní AI. AI agenti, jako například Operator od OpenAI, jsou už dnes natolik vyspělí, že dokážou pracovat s webovými stránkami, psát kód a poskytují ideální základ pro tvorbu, automatizaci a provedení kyberútoků. Pokud se k této schopnosti přidá věrohodnost deepfaků, vzniká ideální bouře – bezpečnostní prostředí plné komplexních a velmi pokročilých hrozeb.

 

Útoky vydávající se za Microsoft Copilot
Microsoft Copilot je digitální asistent využívající umělou inteligenci. Výzkumníci zaznamenali phishingové kampaně zaměřené na uživatele Microsoft Copilot. Phishingové e-maily se tváří jako oficiální komunikace od Copilotu a vybízejí uživatele ke kliknutí na odkaz. Tento typ phishingu může být propojen s deepfake videohovorem, jako byl ten, který vedl k podvodu za 25 milionů dolarů u firmy Arup.

 

S ohledem na trendy v oblasti deepfake hrozeb by firmy a poskytovatelé MSP služeb měli očekávat, že se deepfaky budou čím dál více objevovat v rámci phishingových a sociálně-inženýrských útoků. Odborníci předpovídají, že se útočníci zaměří na osobní životy firemních vedoucích pracovníků. U deepfake videí nebo audionahrávek bude cílem vyvolat emocionální reakci, což je typické pro útoky využívající sociální inženýrství. Taková reakce pak může vést k impulzivnímu rozhodnutí – odeslání peněz nebo sdílení citlivých informací.

 

Výzvy při detekci deepfaků
Identifikace deepfaků je stále obtížná. Nejčastěji se spoléhá na strojové učení, které se snaží odhalit neobvyklosti ve videu nebo zvuku. Úspěšnost těchto metod ale zatím není ideální – například podle společnosti Thomson Reuters zůstává 95 % syntetických identit použitých při ověřování totožnosti (KYC) neodhaleno. Jednou z metod, jak zlepšit detekci deepfaků, je test živosti na základě biometrie obličeje. Tyto testy se stále zdokonalují, ale zatím nejsou stoprocentně spolehlivé.

 

Jak deepfaky ovlivňují ověřování identity u e-mailu?
Deepfaky lze považovat za formu krádeže identity. Deepfake videa, fotografie nebo audionahrávky slouží k tomu, aby útočník napodobil skutečnou osobu a mohl provádět akce vyžadující ověření totožnosti. Pokud hacker získá neoprávněný přístup k e-mailovému účtu a zároveň má deepfake verzi dokladů totožnosti, jako je pas nebo řidičský průkaz, má vše potřebné k otevření bankovního účtu nebo vytvoření falešné digitální identity.

 

Biometrická společnost iProov zaznamenala masivní nárůst deepfaků používaných při digitálně injektovaných útocích. Tyto útoky umožňují škálování deepfake útoků. Digitální injekce funguje tak, že se deepfake obraz nebo video „vstříkne“ do datového toku nebo obejde kameru zařízení, čímž se vyhne bezpečnostním opatřením při ověřování identity – například při přístupu do e-mailového účtu.

 

Nástroje a strategie pro odhalování deepfaků
Firmy i poskytovatelé MSP služeb by měli počítat s tím, že deepfaky budou stále realističtější. To představuje vážnou výzvu pro jejich odhalování. Výzkumníci z Osterman Research však doporučují kombinaci strategií řízení lidského rizika (Human Risk Management, HRM) a e-mailových bezpečnostních řešení s obrannou AI. Tato kombinace lidsky orientované bezpečnosti a umělé inteligence umožňuje budovat chytré vrstvy ochrany schopné čelit i velmi pokročilým AI asistovaným útokům:

 

Human Risk Management (HRM)
Společnost Osterman klade strategie řízení lidského rizika do centra boje proti útokům s využitím umělé inteligence, včetně deepfaků. HRM je datově řízený přístup k minimalizaci rizik, založený na školeních zaměřených na chování a simulacích phishingových útoků. Výzkum ukazuje, že nejefektivnější strategií je zavedení školení a simulací kybernetických útoků využívajících umělou inteligenci, které zvyšují bezpečnostní povědomí zaměstnanců.

 

E-mailová bezpečnost s podporou obranné AI
Phishingové útoky podporované AI se často kombinují s deepfaky a cílí na emoce a důvěru lidí. Podle výzkumu Osterman jsou nástroje pro zabezpečení e-mailu klíčovým doplňkem k HRM strategiím. Řešení využívající umělou inteligenci dokážou identifikovat nové hrozby a pomáhají zastavit útoky posílené generativní AI a deepfaky. Technologie jako PhishShield využívají pokročilé AI nástroje, například zpracování přirozeného jazyka (NLP) a strojové učení, k odhalování AI asistovaných kyberútoků.

 

Nasazení chytřejších, na člověka zaměřených bezpečnostních vrstev je efektivní způsob, jak se bránit hrozbám v podobě deepfaků. Firmy a MSP mohou díky HRM strategiím a e-mailové ochraně s podporou AI předejít stále sofistikovanějším kyberútokům, jako jsou podvody typu Business

Email Compromise (BEC).

 

Chcete posílit svou obranu pomocí chytřejší e-mailové bezpečnosti?
Ozvěte se nám a zjistěte, jak vám propojení lidsky orientovaných strategií a ochrany s podporou AI pomůže být o krok napřed před moderními kyberhrozbami. Vyžádejte si bezplatnou ukázku a uvidíte, jak funguje v praxi.

 

Pro více informací nás kontaktujte.

Kontakt

Bakotech Security s.r.o.

Brno:

Holandská 878/2,

Štýřice, 639 00 Brno

 

Praha:

Evropská 2588/33A

160 00 Praha 6-Dejvice

Údaje Společnosti

IČO: 17592062

IČO: 24804983

Kontakt

Brno:

+420 734 542 498

security@bakotech.cz

 

Praha:

info.cz@bakotech.com

Připojte se k newsletteru

Chcete mít přehled o nejnovějších zprávách z oblasti IT a dostávat informace o akcích, jako jsou webové semináře, školení a konference? Zanechte svůj e-mail:
Došlo k chybě. Zkontrolujte pole formuláře a zkuste to znovu.
Tato adresa je již v naší databázi.
Vaše předplatné bylo přidáno. Děkujeme!
© Bakotech - 2022. Všechna práva vyhrazena.

Web používá soubory cookie k poskytování služeb v souladu se Zásadami souborů cookie. Můžete definovat podmínky pro ukládání nebo přístup k mechanismu cookies ve vašem prohlížeči.

Přijímám