Как преступники могут использовать искусственный интеллект? Самый опасный вариант

13 1729

Последние 10 лет мы ежедневно слышим новости про то, как тот или иной искусственный интеллект научился новым навыкам. На сегодняшний день компьютерные алгоритмы умеют копировать стили рисования известных художников, имитировать чужие голоса, создавать поддельные видеоролики с публичными личностями и многое другое. За всем этим очень интересно следить, но многие эксперты по компьютерной безопасности обеспокоены тем, что разрабатываемые технологии могут использоваться злоумышленниками для совершения преступлений. Ведь использование нейронных сетей для осуществления каких-либо задач на данный момент никак не регулируется. Получается, что любой человек, хорошо владеющий программированием, может использовать искусственный интеллект для выманивания у людей денег, слежки и совершения прочих противозаконных действий. Недавно сотрудники Университетского колледжа Лондона решили выяснить, какое именно умение искусственного интеллекта может нанести человеческому обществу наибольший вред.

Искусственный интеллект способен на многое. Например, он может заменить лицо Арнольда Шварценеггера на Сильвестра Сталлоне

Возможности искусственного интеллекта

Результатами проделанной работы поделилось издание The Next Web. В рамках научной работы исследователи определили 20 умений искусственного интеллекта, которые будут доступны преступникам в следующие 15 лет. К сожалению, полный список методов использования не удалось найти даже на сайте колледжа, но исследователи все же упомянули самые важные пункты.

Итак, по их мнению, искусственный интеллект умеет:

  • управлять электрическими автомобилями, что больше известно как автопилот;
  • обманным путем узнавать логины, пароли и прочие личные данные пользователей — иначе говоря, заниматься фишингом;
  • собирать компрометирующие фото, видео и прочие данные о людях, которые могут быть использованы для шантажа;
  • генерировать фальшивые новости, при помощи которых можно управлять мышлением большого количества людей;
  • управлять роботами, при помощи которых можно следить за людьми и даже грабить дома;
  • создавать поддельные видеоролики с известными людьми, чтобы испортить их репутацию.

Эти и многие другие способы использования нейронных сетей в преступных целях были изучены группой из 31 эксперта по искусственному интеллекту. Перед ними была поставлена задача отсортировать все этим умения по уровню опасности для общества. При составлении рейтинга эксперты учитывали сложность использования искусственного интеллекта для выполнения тех или иных задач, возможность предотвращения мошенничества и количество денег, которые преступники могут получить обманным путем.

Опасность нейросетей

Самой опасной способностью искусственного интеллекта было названо создание так называемых дипфейков (deepfakes). Впервые об этом умении компьютерных алгоритмов стало известно примерно в 2017 году. Именно тогда один из пользователей сайта Reddit показал миру, как имея мощный компьютер можно создать фальшивое видео, где лицо одного человека человека заменено на другое.

Реклама

Он продемонстрировал это на самом непристойном примере, вставив лица известных людей в видео для взрослых. Эта новость навела очень много шума и дипфейки в таком виде даже стали запрещены. Однако, на данный момент никто не мешает программистам создавать забавные видео наподобие того, где Илон Маск поет песню про «рокот космодрома».

Создание фальшивых видео было признано опасной функцией по двум причинам.

Во-первых, при помощи них можно как выманивать деньги, так и портить репутацию людей. Вот небольшой пример. На данный момент, с целью получения легких денег многие мошенники взламывают аккаунты людей в социальных сетях и просят их близких друзей перечислить им определенную сумму денег. Объяснением причин они особо не занимаются и уходят от такого разговора словами, мол, «сейчас некогда, потом объясню». Примерно пять лет назад эта схема была рабочей и многие люди действительно выручали «близких друзей». Но теперь на такие уловки мало кто клюет. Однако, если мошенники создадут дипфейк на основе аватарки пользователя и отправят его друзьям видео, на котором он якобы на камеру просит отправить деньги, многие люди всерьез обеспокоятся и поверят мошенникам.

Иногда фальшивое видео действительно трудно отличить от оригинала

Также дипфейки могут использоваться для порчи репутации известных людей и это было доказано много раз. Вот уже несколько лет подряд в Интернете возникают видео с якобы пьяной Нэнси Пелоси — спикера Палаты представителей США. Разумеется, эти видео поддельные, но они набирают много просмотров и некоторые люди действительно могут принять их за настоящие. Ведь о технологии создания поддельных видео многие даже не подозревают — из представителей старшего поколения технологически подкованных людей вообще единицы.

Вторая опасность заключается в том, что такой метод мошенничества трудно остановить. Дело в том, что фальшивые видео получаются настолько реалистичными, что распознать их практически невозможно. В июне 2020 года это было доказано в рамках проведенного компанией Facebook конкурса Deepfake Detection Challenge. В нем приняло участие более 2000 разработчиков, которые создавали алгоритмы распознавания поддельных видеороликов. Самая высокая точность распознавания составила 65% что, по мнению экспертов по кибербезопасности, в настолько серьезном деле очень плохой результат.

Раздел сайта Reddit, где публиковались дипфейки, уже заблокирован

Борьба с преступностью

Другие функции искусственного интеллекта вроде управления автомобилями и роботами не считаются настолько опасными, как дипфейки. Да, взломанный автопилот может заставить автомобиль свернуть с пути и на большой скорости врезаться в столб. Но это в этом случае речь идет об одной жертве, тогда как фальшивые видео могут повлиять на разум тысяч людей. Ну или, взять, к примеру, использование роботов для слежки за людьми и совершения ограблений домов. Эксперты вообще не видят в них опасности, потому что их очень легко обнаружить. Молоток в руки и все — «шпиона» как не бывало.

https://hi-news.ru/technology/...

Они ТАМ есть! Русский из Львова

Я несколько раз упоминал о том, что во Львове у нас ТОЖЕ ЕСТЬ товарищи, обычные, русские, адекватные люди. Один из них - очень понимающий ситуацию Человек. Часто с ним беседует. Говорим...

Война за Прибалтику. России стесняться нечего

В прибалтийских государствах всплеск русофобии. Гонения на русских по объёму постепенно приближаются к украинским и вот-вот войдут (если уже не вошли) в стадию геноцида.Особенно отличае...

«Это будут решать уцелевшие»: о мобилизации в России

Политолог, историк и публицист Ростислав Ищенко прокомментировал читателям «Военного дела» слухи о новой волне мобилизации:сейчас сил хватает, а при ядерной войне мобилизация не нужна.—...

Обсудить
  • научите ИИ игре в покер и Лас-Вегас рухнет!
  • Стоп! а кто ипал матрас - не Шендерович?! а человек похожий на прокурора?!
  • "Всякая хорошая вещь имеет свою обратную сторону" - сказал задумчивый молодой человек, когда у него умерла теща и пришлось раскошеливаться на похороны.
  • Но тут как авиация и средства ПВО - идет радиоэлектронная борьба - есть программы для распозннавания дипфейков - все как всегда, это неизбывно!
  • Всё перечисленное - это только человеческие игры (а человеческие игры это по сути игры обезьян) с чем-то вроде ИИ, для достижения своих корыстных целей. Рано или поздно из этой ацкой клоаки экспериментов с ИИ вылезет настоящий ИР (искусственный разум) и тогда людишкам крышка.... :scream: