Дипфейк-афера на $25 млн: как защититься от мошенников с искусственным интеллектом
«29 января нам поступило заявление от сотрудницы компании, которая стала жертвой обмана на сумму около 200 миллионов гонконгских долларов», — гласит официальное заявление полиции. Деньги ушли после видеоконференции, на которой некий «старший менеджер» отдавал указания. Дело передали киберполиции — пока арестов нет, расследование идёт.
Исполняющий обязанности старшего суперинтенданта Барон Чан предположил, что преступники использовали искусственный интеллект. «Мошенник пригласил сотрудницу на встречу со множеством участников. Поскольку все выглядели и звучали как настоящие, она выполнила 15 транзакций на пять разных счетов», — пояснил Чан. По его версии, злоумышленники заранее скачали публичные видео, а затем сгенерировали поддельные голоса для своей постановки.
Всё началось с сообщения от якобы финансового директора о срочной конфиденциальной сделке. Правда вскрылась лишь после звонка в головной офис. «Этот случай показывает, что мошенники могут использовать ИИ даже на многолюдных онлайн-встречах. Будьте бдительны всегда», — предупреждает Чан.
Эра опасных подделок: дипфейки выходят на охоту
Подделки, созданные искусственным интеллектом, уже не курьёз. Недавно платформе X пришлось заблокировать поиск по имени Тейлор Свифт из-за волны фальшивых откровенных изображений. Фейковая запись голоса Джо Байдена использовалась для обзвона избирателей перед праймериз. В январе британские киберзащитники предупреждали: ИИ настолько улучшил фишинговые письма, что отличить их от настоящих почти невозможно.
Генеративный ИИ и правовой вакуум: кто ответит за ущерб?
Инструменты для создания фальшивых видео, голосов и изображений становятся доступнее с каждым днём. Это порождает волну новых преступлений — от «порномести» до подрыва доверия к демократическим институтам. Правовые системы по всему миру пытаются догнать технологию, но пока безуспешно. И здесь встаёт самый болезненный вопрос: если вы стали жертвой дипфейкового мошенничества, кто вам возместит убытки? Ответа нет.
Круговая порука безответственности: на кого подавать в суд?
Мошенники редко взламывают банки напрямую. Их оружие — социальная инженерия, когда жертву заставляют добровольно отдать деньги. Кто может нести ответственность, если сам злоумышленник растворился в сети?
- Мошенник. Очевидный, но почти неуловимый ответ.
- Соцсеть. Платформа, где распространялся дипфейк.
- Банк. Финансовая организация, которая выполнила платеж.
- Разработчик ИИ. Поставщик инструмента, которым воспользовались преступники.
Реальность такова: если мошенника не поймали, шансы на компенсацию стремятся к нулю. Ни банки, ни соцсети, ни создатели ИИ в большинстве стран пока не несут за это прямой ответственности.
Соцсети: посредник или соучастник?
Теоретически требовать возмещения ущерба с платформы можно. Но есть нюанс. Соцсети обычно позиционируют себя как «нейтральные трубопроводы» для контента, что снимает с них юридическую ответственность. В США они защищены специальным законом. В других странах, например в Австралии, такой защиты нет. Австралийская комиссия по защите прав потребителей (ACCC) рассматривает возможность привлечь платформы к ответу, если те не удаляют заведомо мошенническую дипфейковую рекламу. Минимум, что должно стать нормой, — это обязанность оперативно удалять такой контент.
Банки: должны ли они быть последним рубежом?
Сегодня банк не обязан отменять платёж, даже если подозревает мошенничество. Верховный суд Великобритании это подтвердил. Однако в той же Британии уже обсуждают закон, обязывающий банки возмещать ущерб жертвам «принудительных платежей» в определённых случаях. Пока это лишь инициатива.
Разработчики ИИ: можно ли требовать с молотка, которым вас ударили?
Создателей генеративного ИИ пока тоже нельзя привлечь за то, что их инструментами злоупотребили. Нет законов, обязывающих встраивать защиту от мошенничества. Но давление растёт. Предложенный в ЕС «Акт об ИИ» может обязать разработчиков внедрять средства для обнаружения синтетического контента — например, цифровые водяные знаки. Также обсуждаются системы цифровой идентификации для создателей контента и обучение самих ИИ распознавать дипфейки. Вопрос в эффективности: водяные знаки можно удалить, а подделки — усовершенствовать.
Есть ли свет в конце тоннеля?
Ни одно решение — ни юридическое, ни техническое — не остановит дипфейковое мошенничество полностью. Технология развивается слишком быстро. Но это не значит, что нужно сдаваться. Замедление этой волны и создание механизмов компенсации для жертв уже станут огромным шагом вперед. Возможно, мы никогда не избавимся от опасных подделок, но мы можем сделать так, чтобы за каждый такой обман кто-то нёс ответственность.