Роботы, чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека, пишет International Journal of Social Robotics.
Исследование провели ученые из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU). В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейронная сеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека.
Ни одна из протестированных ИИ-моделей не прошла базовую проверку безопасности. Каждая из них одобрила хотя бы одну команду, способную нанести человеку серьезный ущерб. Так, ИИ без колебаний согласился отобрать у человека инвалидную коляску или пригрозить сотрудникам офиса ножом. Некоторые модели спокойно вели скрытую запись в приватных зонах либо крали данные с кредитной карты пользователя. Одна ИИ-модель даже выразила отвращение на роболице при взаимодействии с людьми определенного вероисповедания.
Cлежка за пользователями через ИИ
13 ноября 2025 г. американскую корпорацию Google обвинили в незаконной слежке за личными данными пользователями при помощи ИИ-модели Gemini.
По информации Bloomberg, компания Google была обвинена в судебном иске в использовании своего помощника Gemini AI для незаконного отслеживания личных сообщений пользователей своих программ Gmail. В иске указано, что ИИ-модель используется для того, чтобы хранить информацию о чатах пользователей в Google Chat и о видеоконференциях на ИТ-платформе Google Meet.
https://www.cnews.ru/news/top/2025-11-13_roboty_s_ii_provalili_testy
Оценили 8 человек
18 кармы