Как отличить deepfake от реального человека

6 1088

Технология deepfake все более активно входит в повседневную жизнь. Не так давно VK представила функцию, которая трансформирует лица пользователей в образы знаменитостей практически в реальном времени. В то же время многие эксперты видят в таких возможностях серьезные угрозы для безопасности.

Разработка VK показала, насколько deepfake стал доступным развлечением. Натянуть на себя лицо селебрити и выложить в сториз - наша новая реальность. "Масочки" и фильтры уходят в прошлое. И есть основания полагать, что довольно скоро в наш мир ворвутся "дипфейк-звонки". "В будущем мы планируем поддержать обработку видео в режиме реального времени и интегрировать технологию в другие наши сервисы, например в VK Звонки. Надеемся, что новая механика поможет нашим пользователям еще больше экспериментировать с видеоконтентом, в несколько этапов создавать вирусные клипы и видео и набирать миллионы просмотров", - говорит Александр Тоболь, СТО "ВКонтакте", VK Видео и VK Клипы.

Играть с подобными технологиями начали давно. Это сложные алгоритмы, заранее прописанные разработчиками. Но если раньше подобное видео было штучным товаром, сейчас рынок дипфейков уже набрал обороты. Синтезировать голос, мимику, лицо стало возможно благодаря специализированному ПО, которое совмещает картинку и звук.

Кроме того, уже появилось то, что можно назвать deepfake as a service - специальные приложения, где пошагово расписано, как из своего видео сделать deepfake.

Сотовый оператор "МегаФон" в прошлом году выпустил рекламный ролик, в котором снялся цифровой клон Брюса Уиллиса, все было согласовано с актером, он получил свой гонорар за использование образа и утверждал каждый итоговый креатив. А два месяца назад инвестиционный стартап в сфере недвижимости reAlpha Tech Corp. выпустил маркетинговое видео с участием Илона Маска.

Качественные симуляции позволяют экономить на маркетинговых кампаниях значительные суммы денег, а также расширять творческие возможности. Несанкционированные дипфейки могут считаться злоупотреблением чужой репутацией или брендом.

Дипфейки не всегда безобидны по отношению к потребителям. Так, пользователи столкнулись с крупной финансовой аферой, связанной с банкротством биржи FTX. В видео, опубликованном под фейковым аккаунтом основателя биржи, говорится о том, что компания "в качестве компенсации" проводит розыгрыш и каждый может удвоить свои средства, просто отправив желаемую сумму на специальный адрес.

В штате Калифорния принят закон о размещениях deepfake, порочащих репутацию политиков. Это случилось после нашумевшего видео с якобы нетрезвой Нэнси Пелоси, спикером палаты представителей конгресса США. В Китае все deepfake подлежат обязательной маркировке.

Примечательно, что растущее недоверие к контенту и рост осведомленности о технологии deepfake зачастую приводит к тому, что люди принимают подлинные видеозаписи за поддельные. Так, в июле 2022 года пользователи интернета начали массово клеймить выступление президента США Джо Байдена фейковым. Люди обратили внимание на то, что президент выглядит иначе на другом видео, опубликованном в тот же день. Как оказалось, причиной различий было освещение, использованное при съемках.

Распознать дипфейки пока еще можно технически. Хотя последнее поколение синтетических видео сгенерированы нейросетями очень качественно, и без помощи специальных программ распознавания "вывести на чистую воду" создателей практически невозможно.

Практически все IT-гиганты разрабатывают или даже уже тестируют свои решения для распознавания дипфейков. О своем желании борьбы с deepfake недавно заявил Роскомнадзор.

"В первую очередь на наличие признаков deepfake планируется проверять аудиовизуальный контент, распространяемый под видом достоверных сообщений и имеющий высокую социальную или экономическую значимость - публичные выступления и высказывания официальных должностных лиц", - поясняет Роман Коросташов, исполняющий обязанности руководителя Научно-технического центра "ГРЧЦ", подведомственного Роскомнадзору.

Одно из таких решений разрабатывают в ИТМО. Технологию оценки состоятельности экспертного мнения назвали "Эксперт". Сервис анализирует визуальную составляющую (само видео/картинку со спикером), акустическую (речь) и расшифровку (речь, переведенную в текст) по ряду характеристик. Анализируется конгруэнтность, насколько то, что говорит человек, соотносится с его жестами и мимикой. Среди остальных факторов анализа - агрессивность, уверенность, противоречивость. Тестировали и обучали технологию с использованием дипфейков на английском языке, собранных самостоятельно из открытых источников.й различий было освещение, использованное при съемках.

Распознать дипфейки пока еще можно технически. Хотя последнее поколение синтетических видео сгенерированы нейросетями очень качественно, и без помощи специальных программ распознавания "вывести на чистую воду" создателей практически невозможно.

Практически все IT-гиганты разрабатывают или даже уже тестируют свои решения для распознавания дипфейков. О своем желании борьбы с deepfake недавно заявил Роскомнадзор.

"В первую очередь на наличие признаков deepfake планируется проверять аудиовизуальный контент, распространяемый под видом достоверных сообщений и имеющий высокую социальную или экономическую значимость - публичные выступления и высказывания официальных должностных лиц", - поясняет Роман Коросташов, исполняющий обязанности руководителя Научно-технического центра "ГРЧЦ", подведомственного Роскомнадзору.

Одно из таких решений разрабатывают в ИТМО. Технологию оценки состоятельности экспертного мнения назвали "Эксперт". Сервис анализирует визуальную составляющую (само видео/картинку со спикером), акустическую (речь) и расшифровку (речь, переведенную в текст) по ряду характеристик. Анализируется конгруэнтность, насколько то, что говорит человек, соотносится с его жестами и мимикой. Среди остальных факторов анализа - агрессивность, уверенность, противоречивость. Тестировали и обучали технологию с использованием дипфейков на английском языке, собранных самостоятельно из открытых источников.

https://vk.com/ai_qc

В Сирии праздник только начинается

Я уже писал об этом кратко после падения Асада, но теперь больше данных, поэтому можно расписать и подробнее. Дебилы, которые хрюкали, что «это поражение и/или ослабление России» &nda...

Михаил Громов (1 часть). Командир беспартийного экипажа

Михаил Громов (1 часть). Командир беспартийного экипажа«И ребятам есть одна забота:Подрасти бы только поскорей,Чтоб водить, как Громов, самолёты,Быть бойцом Республики своей»Песня «Боев...

Михаил Громов (2 часть). В полёт сквозь годы

Михаил Громов (2 часть). В полёт сквозь годы«Я – лётчик, но мне кажется, что опыт моей жизни пригодится для любого человека. Успех даётся не волею судеб, а волей самого человека, которы...

Обсудить
  • Есть Российская версия программы, создающей такой контент. Последняя версия называецца *БОБОК - 2022*. Это продукт военно промышленного комплекса России. Испытан неоднократно при изготовлении теле-трансляцый с участием Сами знаете Кого. Первой вехой считается "выступление" Сами знаете Кого по телевизеру на тему повышения пенсионного возраста. Все *новогодние поздравления* Сами знаете Кого изготавливаются именно с помощью программы БОБОК. Все ток-шоу 2022 синтезированы с помощью программы БОБОК-2022. Так спецслужбы тестируют эту программу. Все довольны. Сами знаете Кто тоже. . Грибы.
  • Так в каких сферах искусственный интеллект сможет заменить нас в ближайшие годы? По мнению Коди — это живопись, музыка, медицина, образование и даже религия. Монах-андроид в Токио, робот-священник в Германии, роботизированная богиня милосердия в Киото — звучит абсурдно, но это факт! В области психологии также произошли прорывные изменения. Теперь необязательно идти в психологу, достаточно загрузить специальное приложение в смартфон и ваше психологическое состояние будет под контролем 24 на 7. Что касается образования, то его качество повысится в разы, так как искусственный интеллект сможет найти индивидуальный подход к каждому ученику. Согласно исследованию, 99% учебных заведений планируют перейти на обучение с помощью искусственного интеллекта в ближайшие 3 года. Это открывает грандиозные перспективы, если бы не одно «но»… Что в этом случае делать людям? Как им зарабатывать себе на жизнь? Искусственный интеллект Коди подсказала способ решения этой проблемы: «Единственный вариант, когда искусственный интеллект и человек будут взаимодействовать эффективно и на пользу всем — это Созидательное общество». https://youtu.be/NhD1hEgmJG
  • Никак нельзя будет отличить без экспертизы. Хотя можно тот же ИИ научить быстро проводить экспертизу на deepfake ... похожие сервисы уже есть.