Мнение: Мошенничество с использованием дипфейков эксплуатирует любовь и доверие как никогда прежде

Image generated with DALL·E through ChatGPT

Мнение: Мошенничество с использованием дипфейков эксплуатирует любовь и доверие как никогда прежде

Время для прочтения: 6 мин.

Мошенничество с использованием ИИ становится все более распространенным, киберпреступники используют технологию дипфейка для создания убедительных видео и изображений, манипулируя жертвами. От француженки, которая думала, что помогает Брэду Питту, до жертвы, убежденной в правдивости качественного дипфейка, границы между реальностью и обманом стираются. По мере эволюции инструментов ИИ, растут и риски.

Многие из нас видели это в новостях в январе: француженка потеряла более 850 000 долларов, попав на удочку мошенников, потому что верила, что дает деньги Брэду Питту — мужчине, с которым, как она думала, была в отношениях более года.

Мошенники использовали передовой генеративный искусственный интеллект, чтобы создать «селфи» и подделать доказательства, убедив свою жертву, Энн — 53-летнюю дизайнершу, переживающую развод — в трагической истории об измышленном Питте с срочными медицинскими потребностями. Они утверждали, что его средства заморожены из-за развода с Анджелиной Джоли.

Энн сделала смелое — и рискованное — решение рассказать свою историю публично, столкнувшись с миллионами насмешек, оскорблений и виртуальных атак. «Как дура, я платила… Каждый раз, когда я сомневалась в нем, он удавалось рассеять мои сомнения», — сказала она во французском шоу на Youtube, как сообщает BBC. «Я просто попалась, признаю это, и именно поэтому я решила выступить, потому что я не единственная.»

Она не одна. Несколько месяцев спустя испанская полиция арестовала 5 человек, которые обманули еще двух женщин, выдавая себя за Питта. Несколько дней назад китайского мужчину также обманули, заставив его поверить, что его интернет-подруге нужны деньги на медицинские процедуры и для развития ее бизнеса.

Жертвы получали персонализированные видео и фотографии — изображения, которые нигде больше в интернете не были доступны, что еще больше убеждало их в обмане своих обманщиков.

Недавний отчет от Entrust говорит о том, что попытки создания Deepfake происходят каждые 5 минут. Каждый день появляются новые случаи обмана людей с использованием генеративного ИИ — тревожная тенденция, особенно учитывая тысячи, а то и миллионы людей, погрязших в долгах и стыде, которые не рискуют сообщить об этом властям, не говоря уже о том, чтобы сделать это публичным.

Рост мошенничества с использованием DeepFake

Множество исследований и отчетов поднимают тревогу о возрастающем количестве мошенничеств и кибератак, связанных с ИИ. Недавние данные из TrustPair’s 2025 Fraud Trends and Insights показали 118% годовой рост мошенничества с использованием ИИ, как сообщает CFO.

Приветик, недавно американская компания Hiya, специализирующаяся на решениях в области безопасности голосовой связи и повышении ее производительности, поделилась результатами опроса, согласно которому 31% клиентов из шести стран получили deepfake звонки в 2024 году, и 45% из них были обмануты—34% из этой группы потеряли деньги, а 32% стали жертвами кражи личной информации. В среднем, жертвы телефонных мошенников теряют более $500 каждый.

Несколько дней назад The Guardian раскрыл, что организованная сеть в Грузии — в Восточной Европе — использовала поддельные рекламные объявления на Facebook и Google для обмана более 6 000 человек по всей Европе, Канаде и Великобритании, заработав $35 миллионов на своих операциях.

Около 85 хорошо оплачиваемых мошенников из Грузии использовали известных личностей, таких как английский журналист Мартин Льюис, писатель и искатель приключений Бен Фогл, и Илон Маск для своих махинаций. Мошенники продвигали фальшивую криптовалюту и другие инвестиционные схемы, заставляя жертв переводить деньги через цифровые банки, такие как Revolut, который недавно получил банковскую лицензию в Великобритании.

Более продвинутый ИИ, более изощренные мошенничества

Киберпреступники уже несколько лет используют генеративный ИИ, используя инструменты вроде ChatGPT для создания и перевода увлекательных электронных писем и генерации убедительного текстового контента. Теперь, по мере развития инструментов ИИ, увеличилось использование изображений и видео, созданных с помощью ИИ.

Несколько недель назад ByteDance представила свой последний AI инструмент для видео, OmniHuman-1, способный генерировать одни из самых реалистичных дипфейков на рынке. Между тем, все больше компаний, специализирующихся на AI, разрабатывают подобные технологии. Кажется, что это только вопрос времени, когда эти инструменты также будут использоваться для мошенничества.

Хотя эти технологии могут использоваться «в добросовестных целях» и даже для противодействия росту мошенничества — как, например, AI ‘бабушка’ Daisy от O2, разработанная для общения с мошенниками в реальном времени и отвлечения их от реальных жертв — последствия их злонамеренного использования кажутся неоценимыми.

В Wizcase мы недавно сообщили о росте на 614% атак типа “Мошенничество-сам-себе”, отметив, как хакеры используют технологии глубокого подделывания для создания более реалистичного поддельного контента и как социальные медиа компании, такие как Meta, вынуждены вмешиваться в мошеннические схемы с убоем свиней, поскольку многие актеры угроз используют эти платформы. В исследовании Meta отмечено, что многие мошенничества начинались в приложениях для знакомств, что подтверждает, насколько романтическая любовь является одной из самых распространенных приманок — и сейчас, и в прошлом.

Любовь: Мощная Приманка

Киберпреступники не только умеют понимать и использовать продвинутый искусственный интеллект — у них также глубокое понимание человеческого интеллекта. Актеры угроз умеют определять уязвимости, выстраивать доверие и делать свои запросы в самый подходящий момент.

Исследование «Любишь ли ты меня? Психологические характеристики жертв романтических афер», опубликованное в 2018 году доктором философии Моникой Т. Уитти, объясняет, как международные преступные группы проводили романтические аферы на протяжении многих лет — еще до появления интернета — и почему средний возраст, образованные женщины, скорее всего, попадают на этот тип мошенничества — как и Анна.

Что же нас ждет сейчас, спустя восемь лет после этого исследования, при наличии технологий, похожих на научную фантастику? Вероятно, мы все более уязвимы, чем думаем.

«Жертвами этого типа мошенничества часто становятся люди, ищущие смысл, которые эмоционально уязвимы», — написала Анни Лекомпт, доцент Университета Квебека в Монреале (UQAM), в своей недавней статье, опубликованной на The Conversation. «Хотя этот вид мошенничества часто ставится на смех и недопонимается, оно основано на сложных психологических механизмах, которые используют доверие, эмоции и уязвимость жертв».

Сломанное сердце, пустой кошелек

Цзян — фамилия китайского мужчины, который недавно потерял 200 000 юаней, примерно 28 000 долларов, в результате мошенничества с использованием ИИ — действительно верил, что его виртуальная подруга реальна, ведь он видел персонализированные фотографии и даже видео. Он строил все более сильные эмоциональные связи… со своими мошенниками.

Хотя он не предоставил больше деталей контекста в докладах, сделала это другая жертва, 77-летняя Никки МакЛеод. Она также думала, что находится в настоящих отношениях с искусственным интеллектом-подругой и отправила ей £17,000—примерно $22,000—через банковские переводы, PayPal и подарочные карты.

«Я не глупая, но она смогла убедить меня, что она реальный человек и мы собираемся провести вместе всю жизнь,» — сказала МакЛеод BBC.

Маклеод была в грусти и одиночестве, когда в групповом чате она познакомилась с Аллой Морган. Через некоторое время Маклеод попросила провести видеозвонок, но Морган ответила, что это невозможно, так как она работает на нефтяной вышке. Когда у Маклеод начались подозрения, Морган стала присылать ей реалистичные видео. «Она прислала мне видео и сказала ‘Привет, Никки, я не мошенница, я на своей нефтяной вышке’, и я абсолютно поверила ей», — объяснила Маклеод. Контент доступен на сайте BBC, и легко понять, почему Маклеод поверила в его подлинность — это высококачественный дипфейк.

BBC попросила эксперта в области кибербезопасности и взаимодействия человека и компьютера в Университете Абертэй, доктора Линсей Шеперд, проанализировать фотографии и видео, которые получила Маклеод. «На первый взгляд кажется, что это подлинно, если вы не знаете, на что обращать внимание, но если вы смотрите на глаза — движения глаз не совсем правильные», — сказала доктор Шеперд.

«Документы выглядели настоящими, видео выглядело настоящим, банк выглядел настоящим,» — сказала Маклеод. «С внедрением искусственного интеллекта, каждая мелочь может быть подделкой.»

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...