Эксперт сравнил кибератаки с использованием искусственного интеллекта с атомным оружием

2 963

В будущем технологии искусственного интеллекта (ИИ) и нейросети будут активно использоваться для проведения хакерских атак, считает главный технический директор группы QIWI Кирилл Ермаков. Такие нападения станут настолько же опасными, как и ядерное оружие, заявил корреспонденту Федерального агентства новостей эксперт в области информационной безопасности Александр Власов.

В последнее время крупные компании, банки и промышленные предприятия по всему миру фиксируют увеличение интенсивности кибератак — примером может служить запуск вирусов-шифровальщика WannaCry и ExPetr. Именно эти хакерские программы показали серьезную уязвимость большинства систем безопасности. Как следствие крупный бизнес все чаще задумывается о необходимости совершенствования инфраструктуры противодействия кибернетическим угрозам.

«С точки зрения трендов мы видим, к примеру, что искусственный интеллект начал успешно применяться для систем защиты. Что мы можем предсказать на будущее? Что скоро он начнет применяться для систем атаки», — утверждает технический директор группы QIWI.

Он отмечает, что при нынешнем уровне развития компьютерных технологий для крупной компании с хорошим уровнем информационной защиты приемлемым является одно нападение с серьезными экономическими потерями раз в три года.

«Искусственный интеллект, а также основанные на нейросетях технологии стремительно развиваются. С одной стороны, это безусловное благо, потому что самообучающиеся сети и самообучающиеся программы позволяют быстрее выполнять многие операции и создавать больше удобств для пользователей. Но с другой стороны, тот же мирный атом, дающий один из наиболее чистых источников энергии, может также использоваться в военных целях — как оружие нападения и убийства. Так и здесь: если технологиями нейросетей и ИИ начнут пользоваться злоумышленники, то многие самообучающиеся вирусы или трояны будут учиться обходить те заслоны, которое создают системы информационной защиты. Последствия могут быть схожими с применением атомного оружия. Начнется большая гонка между средствами защиты и средствами нападения», — подтверждает Власов заявление Ермакова.

Кроме того, эксперт в области информационной безопасности уверен, что кибератаки — это только одна из малых составляющих систем, основанных на искусственном интеллекте. Власов напоминает, что ИИ может быть использован в военных целях.

«Многие вещи, которыми мы с удовольствием используем в повседневной жизни, вроде мобильной связи, Интернета — были разработаны в военных лабораториях. Никого не должно удивлять, что пионерами в разработке подобных систем являются не гражданские, а военные специалисты. Сейчас, когда нейросети и ИИ начинают получать распространение — это всего лишь плоды рассекречивания и конверсии самых передовых военных разработок десяти, а может быть даже и двадцатилетней давности», — продолжает собеседник ФАН.

Тем не менее, вряд ли человечество допустит реализации одного из сценариев фантастических фильмов или романов.

«Не стоит забывать, что отцами и матерями искусственного интеллекта являются люди. И если разработчики обладают минимумом ответственности перед собой, перед обществом и перед человечеством, они будут закладывать в системы искусственного интеллекта некие ограничения, которые не позволят ИИ выйти из-под контроля и поработить человечество. Я надеюсь, что у разработчиков хватит ума и ответственности на то, чтобы закладывать физические ограничения», — заключил эксперт.

В настоящее время вся кибернетическая безопасность складывается из желания программистов зарабатывать деньги. Хорошие специалисты, как и хорошее программное обеспечение стоят дорого.

«Не стоит забывать, что внедрение усиленного контроля безопасности приводит к понижению эффективности бизнеса. Поэтому инвестиции надо рассчитывать очень и очень грамотно», — отметил в свою очередь Ермаков.

Напомним, руководство российской социальной сеть «ВКонтакте» начало использовать нейросети для определения содержимого картинок. На основе анализа изображения «обученный» алгоритм присваивает картинкам специальный рейтинг, позволяя бороться с так называемыми «группами смерти». Кроме того, технология также позволяет бороться с детской порнографией и педофилией.

Автор: Сергей Гагарин

https://riafan.ru/885691-ek...

Британия пыталась захватить судно "теневого флота" России, но забыла, что уже не "царица морей". Ракетный корвет "Сообразительный" ей напомнил

Ракетные корветы проекта 20380 вооружены ракетами Х-35 "Уран" и на сегодня не слабее любого британского боевого корабля по совокупности качеств. Фото МО РФПока мы с вами уплетали оливье...

Мы тоже можем печатать доллары!

  Да, именно так: мы тоже можем печатать доллары. Но разумеется, никто не предлагает печатать в России доллары США, у нас свой путь. Ибо кто не имеет своей твёрдой валюты, тот пожинает плоды инфл...

Фол последней надежды

Добрые русские люди отличаются от своих европейских (и происходящих от них американских) «кузенов» повышенной рефлексией. Американец без вопросов принимает лозунг «То, что выгодно “Джен...

Обсудить
  • Сейчас, когда нейросети и ИИ начинают получать распространение — это всего лишь плоды рассекречивания и конверсии самых передовых военных разработок десяти, а может быть даже и двадцатилетней давности», — продолжает собеседник ФАН. Сразу видно человека который не в теме
  •  Парадокс в том, что чем сложнее искусственная система, тем уязвимее... Будет забавно, когда рано или поздно мы вернемся через отрицание доверия к ИИ и электронике  к доверию человеку... его профессионализму, востребованному на отсеченном от электронного непредсказуемого влияния производстве.