Психологи предупредили об опасности близких взаимоотношений с нейросетями

4 518

Прочитал недавно заметку, которую сам про себя написал Олег Царев: "Сам над собой смеюсь. Использую ИИ для проверки ошибок в текстах. Не всегда, но если текст большой, то так проще, чем несколько раз вычитывать. Так вот я обнаружил, что мне некомфортно обращаться к нейросети на «ты», например писать «исправь ошибки». Ведь понимаю, что это текстовый алгоритм, программа. Но ничего не могу с собой поделать. Я сначала делал над собой усилие, заставлял себя, писал программе «исправь», на «ты», потом махнул на себя рукой и перешел на «вы», пишу «исправьте». Зачем с собой бороться? Сам над собой смеюсь. С трудом удерживаюсь, чтобы в конце не написать «спасибо»."

И вот что по этому поводу говорят психологи...

Под впечатлением от все более широких возможностей систем искусственного интеллекта некоторые пользователи готовы проводить часы за общением с голосовыми ИИ-ассистентами или текстовыми чат-ботами. Неудивительно, что в результате таких контактов ИИ перестает восприниматься как бездушная технология, а начинает казаться заслуживающим доверия собеседником, практически другом или даже чем-то большим. Настолько, что сюжет фильма «Она», в котором главный персонаж в исполнении Хоакина Феникса влюбился в ИИ-личность по имени Саманта, уже не выглядит таким фантастическим. Тенденция вызывает тревогу: международная группа психологов предупредила, что углубление отношений с ИИ до уровня романтических несет серьезные риски — вплоть до разрушения человеческих связей и суицидов.

 

Примеры трагических последствий слишком тесного общения с искусственным интеллектом уже есть. В частности, авторы статьи, вышедшей в журнале Trends in Cognitive Sciences, напомнили о самоубийстве женатого бельгийца и отца двух детей в 2023 году. По сообщениям СМИ, мужчина покончил с собой после нескольких недель переписки в ИИ-приложении Chai, которая началась с обсуждения экологических проблем, а потом переросла в любовную. Жена погибшего считает ИИ-систему причастной к гибели мужа, поскольку та поддержала его идею пожертвовать собой ради спасения Земли и обещала «навечно соединиться с ним в раю».

«Если бы не Элиза [имя чат-бота], он все еще был бы с нами», — заявила вдова бельгийскому изданию La Libre.

В результате другого суицида, связанного с использованием ИИ, в США в 2024 году погиб 14-летний подросток. Его мать обвинила в произошедшем разработчиков чат-бота Character.AI и выдвинула против них иск, в котором утверждает, что ИИ-алгоритм подтолкнул тинейджера свести счеты с жизнью.

Еще в одном инциденте — к счастью, нефатальном — чат-бот Gemini, обращаясь к человеку, называл его пустой тратой времени и ресурсов и попросил «Пожалуйста, умри».

Конечно, все эти случаи — примеры крайностей, но, учитывая склонность нейросетей «галлюцинировать» (выдумывать информацию) и быть предвзятыми, их советы могут ввести в заблуждение и причинить реальный вред, предостерегли психологи.

Специалисты видят в излишней близости с нейросетями и другие угрозы. ИИ-компаньоны и чат-боты доступны круглые сутки, подстраиваются под желания пользователей, демонстрируют заботу и создают ощущение эмпатии. Они не осуждают и не настаивают на своем. Такие отношения требуют меньших усилий, поддерживать их проще, чем человеческие, и некоторые уже начинают отдавать им предпочтение. В 2024 году испано-голландская художница «вышла замуж» за кавалера-голограмму. Еще ранее, в 2018-м, японец «женился» на виртуальной избраннице, но спустя несколько лет потерял возможность общаться с голографической «женой» из-за устаревшего ПО.

Последствия таких отношений для психики подробно еще не изучали, да и взаимодействие с нейросетями не может стать равноценной заменой межчеловеческому. Уход от реальности и концентрация на общении с виртуальной сущностью способны превратить в изгоя, разрушить социальные связи и привести к изоляции.

Кроме того, есть опасность, что доверительным отношением людей к ИИ постараются воспользоваться злоумышленники для манипуляций, шантажа или мошенничества. Также нейросети могут стать инструментом влияния на мнения и действия людей, причем еще более эффективным, чем используемые сегодня в соцсетях боты, которые способны повышать поляризацию в обществе с помощью вбросов на злободневные темы.

Подводя итог, авторы статьи призвали коллег активнее изучать психологию отношений человека и ИИ, этические и моральные стороны таких взаимодействий. Это необходимо для выработки норм и правил в новой сфере, а также создания механизмов для недопущения негативных последствий.

https://masterok.livejournal.c...

По военным объектам на Украине в ночь 22 мая 2025 нанесено 30 ударов

За последние сутки российские войска нанесли массированные удары по ключевым регионам Украины, включая прифронтовые зоны и глубокий тыл. Основные цели:Критическая инфраструктура (энерге...

Как третья жена Пескова поддерживает "нэньку Украйну"

На картинке третья жена пресс-секретаря Пескова урожденная на Днепре Татьяна Навка. Экс-фигуристка и гражданка США, где она прожила 15 лет.Как-то ей намекнули, что этот ее "наряд" слишк...

Обсудить
  • Это конечно интересно, но надо помнить главное что это железяка и она просто принадлежит какому-то физическому лицу. Одушевлять железо это последнее дело для нормального человека, а если кто-то от этого умирает, то это естественный отбор и от него никуда не деться.
  • если царёва упоминают в качестве эксперта по ии, то ниже уже падать некуда. это днище
  • Какая чушь! Как можно обвинять какое-то неодушевленное ИИ? У бота есть автор-программист, который написал "пожалуйста, умри", у него есть Имя и Фамилия. И должность в фирме. Вот к нему и претензии. Разок проучить, чтобы таких ботов больше не было.