Deep Fake: когда глубже уже некуда

1 1052

Продолжаем разговор о методе замены изображения или голоса с помощью нейросетей – дипфейках. На этот раз подробнее не о развлекательной, а о теневой части применения технологии. Неосторожное использование биометрии может нанести непоправимый урон на уровне международных отношений и интернационального бизнеса. Почему мы продолжаем смеяться над смешными видео ТикТока, а не задумываться над дополнительной безовасностью своих «данных тела»?

Создание изображений, видео или записи голоса с помощью нейросетей – крайне интересная и увлекательная штука. Но, конечно же, как и любая современная технология, она может использоваться во благо и во зло. Посмотрим, что еще делают с помощью дипфейков и почему стоит прислушаться к некоторым аргументам против биометрии.

Распространенность дипфейков все время растет. С 2018 года к 2020 их количество в сети выросло больше чем в десять раз (есть специальные люди, которые это замерили). При этом минимум из них создали для развлечения, остальные – с целью манипуляций. Уже на этом моменте понятно, что дипфейки могут навредить почти кадому человеку, выложившему хоть раз свое фото или видео в интернет. Возникает очевидный вопрос: почему токенизация еще не обязательная история? Удивительно, как сливы персональных данных, взломы Госуслуг и баз ведущих банков страны не рождают в головах людей мысли, что следует пользоваться дополнительными мерами защиты личной информации, которые давно разработаны и не так-то легко поддаются взлому. Но вернемся к теме.

Вот лишь несколько направлений, где дипфейки уже показали себя опасным инструментом: бизнес, политика, потребительские риски. На самом деле, вопрос настолько глобален, а технология настолько всеобъемлющая, что может случиться что угодно, когда угодно и с кем угодно. Не обязательно быть политиком или супермоделью: манипуляции на бытовом уровне могут быть неприятны и фатальны для любого пользователя интернета. Поэтому важно, чтобы помимо использования биометрии (ибо это не остановить), использовать программный токен для дополнитльной защиты данных.

Начнем с бизнеса и нескольких кейсов. В 2019 году стал известен случай мошенничества с помощью дипфейк-аудио. В Великобритании один из руководителей энергетической компании говорил по телефону с директором главного подразделения, расположенного в Германии. Тот (голосом, сгенерированным нейросетью) попросил его в течение часа перевести крупную сумму денег на счет поставщика в Венгрии.

Такая же схема мошенничества в ОАЭ заставила менеджеров банка перевести на счет мошенников, которые «клонировали» голос директора, 35 млн. долларов. Такие простейшие схемы повсеместны.

В политике для простого гражданина ущерб от дипфейков может быть не столь очевиден, но для политика он ощутим. В основном, это репутационные риски. Если дипфейк выпущен в нужное время и правильно подсвечен в медиа – избиратели потеряны. Так, в 2020 году в Нью-Дели, за день до выборов в местный Парламент по сети разлетелось вирусное видео-дипфейк. На нем представитель одной из главных политических партий Индии говорил на специфическом диалекте. Как мы понимаем, зачастую тонкие нюансы безумно важны для завоевания доверия избирателей, и диалект – это как раз тот случай. На появлении этого видео сыграли конкуренты, сделав акцент на том, как говорит политик. Видео распространили среди 15 млн человек через веерную рассылку в WhatsApp.

Или такой пример: бывшая (теперь уже) премьер-министр Бельгии Софи Вильмес на видео обращается к населению по вопросу эпидемии. Слова в дипфейк-видео отличаются от оригинала. В частности, фраза, что глобальная эпидемия связана с «эксплуатацией и разрушением людьми природной среды» для премьер-министра была довольно громким заявлением.

Да, как и в случае с бизнесом, в политике очень высоки репутационные риски, а в этом деле репутация и доверие – это основа. В отличие от СМИ и официальных представителей каких-либо органов, избиратели не будут интересоваться подробностями: общественное мнение формируется быстро, а меняется обратно тяжело.

В США, где было уже несколько скандальных историй с дипфейками, считается: они настолько опасны, что угрожают национальной безопасности. В Калифорнии размещение в течение 60 дней после выборов видео, где заменили лицо или речь кандидата, запрещено. В придачу к этому есть и другой закон: любой житель Калифорнии может подать в суд на того, кто вставил его изображение в порно. Это тоже о дипфейках, но с другой стороны.

Кстати, если говорить о случаях с дипфейк-порно, здесь тоже есть случаи масштабного мошенничества. В Индии в 2021 году была очень показательная история. Мужчинам звонили женщины по видеосвязи, раздевались, вынуждали мужчину также разоблачиться, а сами записывали его на видео. Позже мужчин шантажировали, вымогая деньги за такое видео. Так вот, больше половины жертв говорили не с реальными женщинами, а со сгенерированными изображениями.

Пожалуй, это вдвойне обидно.

«Это будут решать уцелевшие»: о мобилизации в России

Политолог, историк и публицист Ростислав Ищенко прокомментировал читателям «Военного дела» слухи о новой волне мобилизации:сейчас сил хватает, а при ядерной войне мобилизация не нужна.—...

Война за Прибалтику. России стесняться нечего

В прибалтийских государствах всплеск русофобии. Гонения на русских по объёму постепенно приближаются к украинским и вот-вот войдут (если уже не вошли) в стадию геноцида.Особенно отличае...

"Не будет страны под названием Украина". Вспоминая Жириновского и его прогнозы

Прогноз Жириновского на 2024 года также: Судьба иноагента Галкина и его жены Владимир Жириновский, лидер партии ЛДПР, запомнился всем как яркий эпатажный политик. Конечно, манера подачи ...

Обсудить
  • Лучшее средство борьбы с дип и не дип фейками – встречаться реально и жить реальной жизнью.