Názor: Podvody s Deepfake využívají lásku a důvěru jako nikdy předtím

Image generated with DALL·E through ChatGPT

Názor: Podvody s Deepfake využívají lásku a důvěru jako nikdy předtím

Doba čtení: 6 minut

Podvody řízené umělou inteligencí jsou na vzestupu, s kyberzločinci využívajícími technologii deepfake pro vytváření přesvědčivých videí a obrázků, které manipulují s oběťmi. Od francouzské ženy, která věřila, že pomáhá Bradu Pittovi, po oběť přesvědčenou vysoce kvalitním deepfake, se stírají hranice mezi realitou a podvodem. Jak se vyvíjejí nástroje umělé inteligence, rostou i rizika.

Mnozí z nás to viděli v lednových zprávách: francouzská žena přišla o více než 850 000 dolarů na podvodnících, protože věřila, že peníze dává Bradu Pittovi – muži, s kterým si myslela, že je vztahu více než rok.

Podvodníci použili pokročilou generativní umělou inteligenci k vytvoření „selfie“ a fabrikaci důkazů, přesvědčili svou oběť, Anne – 53letou designérku, která prochází rozvodem – o tragickém příběhu falešného Pitta s naléhavými zdravotními potřebami. Tvrdili, že jeho prostředky byly zmrazeny kvůli jeho rozvodu od Angeliny Jolie.

Anne se odvážně – a riskantně – rozhodla svůj příběh veřejně sdílet, čelíc milionům posměšků, urážek a virtuálních útoků. „Jako blázen jsem platila… Pokaždé, když jsem na něm začala pochybovat, dokázal mé pochybnosti rozptýlit,“ řekla ve francouzské televizní show, jak informovala BBC. „Jen jsem byla napálena, přiznávám to, a proto jsem se ozvala, protože nejsem ta jediná.“

Ona není. O několik měsíců později španělská policie zatýkala pět lidí, kteří podvedli dvě další ženy, když se vydávali za Pitta. Před pár dny byl také oklamán čínský muž, který věřil, že jeho online přítelkyně potřebuje peníze na lékařské zákroky a na financování svého podnikání.

Oběti obdržely personalizovaná videa a fotografie – snímky, které nikde jinde na internetu nebyly k dispozici – což je ještě více přesvědčilo o sofistikovaných lžích svých podvodníků.

Nedávná zpráva od Entrust naznačuje, že pokusy o Deepfake se dějí každých 5 minut. Každý den se objevují nové případy lidí, kteří byli podvedeni generativní AI – znepokojivý trend, zvláště když vezmeme v úvahu tisíce, nebo dokonce miliony lidí, kteří jsou zavaleni dluhy a studem a neodváží se to nahlásit úřadům, natož to zveřejnit.

Nárůst podvodů s využitím DeepFake

Několik studií a zpráv upozorňuje na rostoucí podvody a kybernetické útoky za podpory AI. Nedávná data z TrustPair’s 2025 Fraud Trends and Insights ukázala 118% meziroční nárůst podvodů poháněných AI, jak hlásí CFO.

Ahojky, americká společnost Hiya, která se specializuje na řešení v oblasti hlasové bezpečnosti a výkonu, nedávno sdílela výsledky průzkumu, který odhalil, že 31% zákazníků ve šesti zemích obdrželo v roce 2024 hovory s použitím deepfake technologie a 45% z nich bylo obelháno – 34% z této skupiny přišlo o peníze a 32% jim byly ukradeny osobní údaje. Průměrná ztráta obětí telefonních podvodů přesahuje $500.

Před několika dny The Guardian odhalil, že organizovaná síť v Gruzii – ve východní Evropě – použila falešné reklamy na Facebooku a Google, aby podvedla více než 6 000 lidí po celé Evropě, Kanadě a ve Velké Británii a prostřednictvím svých operací získala $35 milionů.

Přibližně 85 dobře placených gruzínských podvodníků využívalo veřejně známé osobnosti, jako jsou anglický novinář Martin Lewis, spisovatel a dobrodruh Ben Fogle a Elon Musk pro své podvody. Podvodníci propagovali falešné kryptoměny a jiné investiční schématy, které donutily oběti převádět peníze prostřednictvím digitálních bank, jako je Revolut, která nedávno získala bankovní licenci ve Velké Británii.

Pokročilá AI, sofistikovanější podvody

Kybernetičtí zločinci v posledních letech využívají generativní AI, s nástroji jako ChatGPT, které vytvářejí a překládají poutavé e-maily a generují přesvědčivý textový obsah. Nyní, jak se nástroje AI vyvíjejí, použití obrázků a videí generovaných AI se zvyšuje.

Před několika týdny představila společnost ByteDance svůj nejnovější AI video nástroj, OmniHuman-1, který je schopen generovat jeden z nejrealističtějších deepfake na trhu. Mezitím další AI společnosti vyvíjejí podobné technologie. Zdá se, že je jen otázkou času, kdy budou tyto nástroje také využívány pro podvody.

Zatímco tyto technologie mohou být používány „v dobré víře“ a dokonce k potlačení nárůstu podvodů—jako je AI ‘Babička’ Daisy od společnosti O2, navržená k zapojení podvodníků do reálných hovorů a odvedení jejich pozornosti od skutečných obětí—následky jejich zlomyslného použití se zdají být nezměřitelné.

Na Wizcase jsme nedávno hlásili o 614% nárůstu „Scam-Yourself útoků“, kde jsme poukázali na to, jak hackeři využívají technologii deepfake k vytváření falešného obsahu, který vypadá „realističtěji“, a jak sociální média, jako je Meta musela zasáhnout proti podvodům s porážkou prasat, protože mnoho kybernetických zločinců využívá tyto platformy. Výzkum Meta ukázal, že mnoho podvodů začíná na seznamovacích aplikacích, což dokazuje, jak romantická láska patří mezi nejčastější návnady – nyní a historicky.

Láska: Silná návnada

Kybernetičtí zločinci nejsou pouze zruční v porozumění a využívání pokročilé umělé inteligence – mají také hluboké pochopení lidské psychologie. Útočníci vědí, jak identifikovat slabiny, budovat důvěru a jak si počkat na ten správný moment, aby položili své požadavky.

Studie Miluješ mě? Psychologické charakteristiky obětí romantických podvodů, publikovaná v roce 2018 Dr. Monicou T. Whitty, vysvětluje, jak mezinárodní kriminální skupiny prováděly romantické podvody již mnoho let – dokonce ještě před vznikem internetu – a jak jsou středověké, vzdělané ženy pravděpodobnější obětí tohoto typu podvodu – stejně jako Anne.

Co můžeme očekávat nyní, osm let po této studii, s technologií připomínající science fiction? Pravděpodobně jsme všichni zranitelnější, než si myslíme.

„Oběti tohoto typu podvodu jsou často lidé hledající smysl, kteří jsou emočně zranitelní,“ napsala Annie Lecompte, docentka na Univerzitě v Quebecu v Montrealu (UQAM), v nedávném článku publikovaném v The Conversation. „Ačkoli je toto podvádění v lásce vysmíváno a nepochopeno, je založeno na složitých psychologických mechanismech, které zneužívají důvěru, emoce a zranitelnost obětí.“

Zlomené srdce, prázdná peněženka

Liu – příjmení čínského muže, který nedávno ztratil 200 000 jüanů, asi 28 000 dolarů, v podvodu řízeném umělou inteligencí – opravdu věřil, že jeho AI přítelkyně je skutečná, protože viděl personalizované fotografie a dokonce i videa. Vyvíjel stále silnější emoční vazbu… na své podvodníky.

Ačkoli on neposkytl více detailů o kontextu ve zprávách, učinila tak další oběť, sedmdesátisedmiletá žena Nikki MacLeod. Také si myslela, že je ve skutečném vztahu s AI přítelkyní a poslala jí 17 000 liber, což je zhruba 22 000 dolarů, prostřednictvím bankovních převodů, PayPalu a dárkových karet.

„Nejsem hloupá osoba, ale ona mě dokázala přesvědčit, že je skutečná a že spolu strávíme zbytek našich životů,“ řekla MacLeodová BBC.

MacLeod se cítila osamělá a smutná, když se v chatové skupině setkala s Allou Morganovou. Po chvíli MacLeod požádala o živé video, ale Morganová to odmítla s tím, že na to nemá čas, protože pracuje na ropné plošině. Když MacLeod začala mít podezření, Morganová začala posílat realistická videa. „Poslala mi video s tím, že ‚Ahoj Nikki, nejsem podvodnice, jsem na své ropné plošině‘, a já jsem tomu úplně uvěřila,“ vysvětlovala MacLeod. Obsah je k dispozici na webových stránkách BBC a není těžké pochopit, proč MacLeod tomu uvěřila – je to vysoce kvalitní deepfake.

BBC požádala expertku na kybernetickou bezpečnost a interakci člověka s počítačem na Abertay University, Dr. Lynsay Shepherdovou, aby analyzovala fotografie a videa, která MacLeod obdržela. „Na první pohled to vypadá legitimně, pokud nevíte, co hledat, ale když se podíváte na oči – pohyby očí nejsou úplně správné,“ řekla Dr. Shepherdová.

„Dokumenty vypadaly skutečně, videa vypadala skutečně, banka vypadala skutečně,“ řekla MacLeodová. „S uvedením umělé inteligence může být každá jediná věc padělaná.“

Líbil se Vám tento článek?
Ohodnoťte jej!
Nesnášel jsem ho Opravdu se mi nelíbí Byl v pořádku Docela dobrý! Absolutně úžasný!

Jsme rádi, že se vám náš článek líbil!

Věnujte nám prosím chvilku a zanechte nám hodnocení na portálu Trustpilot. Vaší zpětné vazby si velmi vážíme. Děkujeme za vaši podporu!

Ohodnotit na portálu Trustpilot
0 Hlasovalo 0 uživatelů
Titulek
Komentář
Děkujeme za vaši zpětnou vazbu
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zanechat komentář

Loader
Loader Zobrazit více...