IMG-LOGO
image

27 февр. 2024

Просмотров: 94

Дипфейк-афера на $25 млн: как защититься от мошенников с искусственным интеллектом

Представьте: на совещании по видеосвязи начальник просит срочно перевести 25 миллионов долларов. Его голос и лицо вы узнаете без труда. Вы выполняете приказ. И только потом понимаете, что общались с фантомом, созданным ИИ. Это не сценарий фильма, а реальное дело полиции Гонконга. Учёные разбирают этот случай, и их выводы тревожны.
Мир уже привык к телефонным аферистам. Но когда мошенники получают в руки такие инструменты, правила игры меняются навсегда.

«29 января нам поступило заявление от сотрудницы компании, которая стала жертвой обмана на сумму около 200 миллионов гонконгских долларов», — гласит официальное заявление полиции. Деньги ушли после видеоконференции, на которой некий «старший менеджер» отдавал указания. Дело передали киберполиции — пока арестов нет, расследование идёт.

Исполняющий обязанности старшего суперинтенданта Барон Чан предположил, что преступники использовали искусственный интеллект. «Мошенник пригласил сотрудницу на встречу со множеством участников. Поскольку все выглядели и звучали как настоящие, она выполнила 15 транзакций на пять разных счетов», — пояснил Чан. По его версии, злоумышленники заранее скачали публичные видео, а затем сгенерировали поддельные голоса для своей постановки.

Всё началось с сообщения от якобы финансового директора о срочной конфиденциальной сделке. Правда вскрылась лишь после звонка в головной офис. «Этот случай показывает, что мошенники могут использовать ИИ даже на многолюдных онлайн-встречах. Будьте бдительны всегда», — предупреждает Чан.

Эра опасных подделок: дипфейки выходят на охоту

Подделки, созданные искусственным интеллектом, уже не курьёз. Недавно платформе X пришлось заблокировать поиск по имени Тейлор Свифт из-за волны фальшивых откровенных изображений. Фейковая запись голоса Джо Байдена использовалась для обзвона избирателей перед праймериз. В январе британские киберзащитники предупреждали: ИИ настолько улучшил фишинговые письма, что отличить их от настоящих почти невозможно.

Генеративный ИИ и правовой вакуум: кто ответит за ущерб?

Инструменты для создания фальшивых видео, голосов и изображений становятся доступнее с каждым днём. Это порождает волну новых преступлений — от «порномести» до подрыва доверия к демократическим институтам. Правовые системы по всему миру пытаются догнать технологию, но пока безуспешно. И здесь встаёт самый болезненный вопрос: если вы стали жертвой дипфейкового мошенничества, кто вам возместит убытки? Ответа нет.

Круговая порука безответственности: на кого подавать в суд?

Дипфейк-афера на $25 млн: как защититься от мошенников с искусственным интеллектом

Мошенники редко взламывают банки напрямую. Их оружие — социальная инженерия, когда жертву заставляют добровольно отдать деньги. Кто может нести ответственность, если сам злоумышленник растворился в сети?

  • Мошенник. Очевидный, но почти неуловимый ответ.
  • Соцсеть. Платформа, где распространялся дипфейк.
  • Банк. Финансовая организация, которая выполнила платеж.
  • Разработчик ИИ. Поставщик инструмента, которым воспользовались преступники.

Реальность такова: если мошенника не поймали, шансы на компенсацию стремятся к нулю. Ни банки, ни соцсети, ни создатели ИИ в большинстве стран пока не несут за это прямой ответственности.

Соцсети: посредник или соучастник?

Теоретически требовать возмещения ущерба с платформы можно. Но есть нюанс. Соцсети обычно позиционируют себя как «нейтральные трубопроводы» для контента, что снимает с них юридическую ответственность. В США они защищены специальным законом. В других странах, например в Австралии, такой защиты нет. Австралийская комиссия по защите прав потребителей (ACCC) рассматривает возможность привлечь платформы к ответу, если те не удаляют заведомо мошенническую дипфейковую рекламу. Минимум, что должно стать нормой, — это обязанность оперативно удалять такой контент.

Банки: должны ли они быть последним рубежом?

Сегодня банк не обязан отменять платёж, даже если подозревает мошенничество. Верховный суд Великобритании это подтвердил. Однако в той же Британии уже обсуждают закон, обязывающий банки возмещать ущерб жертвам «принудительных платежей» в определённых случаях. Пока это лишь инициатива.

Разработчики ИИ: можно ли требовать с молотка, которым вас ударили?

Создателей генеративного ИИ пока тоже нельзя привлечь за то, что их инструментами злоупотребили. Нет законов, обязывающих встраивать защиту от мошенничества. Но давление растёт. Предложенный в ЕС «Акт об ИИ» может обязать разработчиков внедрять средства для обнаружения синтетического контента — например, цифровые водяные знаки. Также обсуждаются системы цифровой идентификации для создателей контента и обучение самих ИИ распознавать дипфейки. Вопрос в эффективности: водяные знаки можно удалить, а подделки — усовершенствовать.

Есть ли свет в конце тоннеля?

Ни одно решение — ни юридическое, ни техническое — не остановит дипфейковое мошенничество полностью. Технология развивается слишком быстро. Но это не значит, что нужно сдаваться. Замедление этой волны и создание механизмов компенсации для жертв уже станут огромным шагом вперед. Возможно, мы никогда не избавимся от опасных подделок, но мы можем сделать так, чтобы за каждый такой обман кто-то нёс ответственность.