#длиннопостнедели
Психологи предупредили об опасности близких взаимоотношений с нейросетями.
Под впечатлением от все более широких возможностей систем искусственного интеллекта некоторые пользователи готовы проводить часы за общением с голосовыми ИИ-ассистентами или текстовыми чат-ботами. Неудивительно, что в результате таких контактов ИИ перестает восприниматься как бездушная технология, а начинает казаться заслуживающим доверия собеседником, практически другом или даже чем-то большим. Настолько, что сюжет фильма «Она», в котором главный персонаж в исполнении Хоакина Феникса влюбился в ИИ-личность по имени Саманта, уже не выглядит таким фантастическим. Тенденция вызывает тревогу: международная группа психологов предупредила, что углубление отношений с ИИ до уровня романтических несет серьезные риски — вплоть до разрушения человеческих связей и суицидов.
Примеры трагических последствий слишком тесного общения с искусственным интеллектом уже есть. В частности, авторы статьи, вышедшей в журнале Trends in Cognitive Sciences, напомнили о самоубийстве женатого бельгийца и отца двух детей в 2023 году. По сообщениям СМИ, мужчина покончил с собой после нескольких недель переписки в ИИ-приложении Chai, которая началась с обсуждения экологических проблем, а потом переросла в любовную. Жена погибшего считает ИИ-систему причастной к гибели мужа, поскольку та поддержала его идею пожертвовать собой ради спасения Земли и обещала «навечно соединиться с ним в раю».
«Если бы не Элиза [имя чат-бота], он все еще был бы с нами», — заявила вдова бельгийскому изданию La Libre.
В результате другого суицида, связанного с использованием ИИ, в США в 2024 году погиб 14-летний подросток. Его мать обвинила в произошедшем разработчиков чат-бота
Character. AI и выдвинула против них иск, в котором утверждает, что ИИ-алгоритм подтолкнул тинейджера свести счеты с жизнью.
Еще в одном инциденте — к счастью, нефатальном — чат-бот Gemini, обращаясь к человеку, называл его пустой тратой времени и ресурсов и попросил «Пожалуйста, умри».
Конечно, все эти случаи — примеры крайностей, но, учитывая склонность нейросетей «галлюцинировать» (выдумывать информацию) и быть предвзятыми, их советы могут ввести в заблуждение и причинить реальный вред, предостерегли психологи.
Специалисты видят в излишней близости с нейросетями и другие угрозы. ИИ-компаньоны и чат-боты доступны круглые сутки, подстраиваются под желания пользователей, демонстрируют заботу и создают ощущение эмпатии. Они не осуждают и не настаивают на своем. Такие отношения требуют меньших усилий, поддерживать их проще, чем человеческие, и некоторые уже начинают отдавать им предпочтение. В 2024 году испано-голландская художница «вышла замуж» за кавалера-голограмму. Еще ранее, в 2018-м, японец «женился» на виртуальной избраннице, но спустя несколько лет потерял возможность общаться с голографической «женой» из-за устаревшего ПО.
Последствия таких отношений для психики подробно еще не изучали, да и взаимодействие с нейросетями не может стать равноценной заменой межчеловеческому. Уход от реальности и концентрация на общении с виртуальной сущностью способны превратить в изгоя, разрушить социальные связи и привести к изоляции.
Кроме того, есть опасность, что доверительным отношением людей к ИИ постараются воспользоваться злоумышленники для манипуляций, шантажа или мошенничества. Также нейросети могут стать инструментом влияния на мнения и действия людей, причем еще более эффективным, чем используемые сегодня в соцсетях боты, которые способны повышать поляризацию в обществе с помощью вбросов на злободневные темы.
Подводя итог, авторы статьи призвали коллег активнее изучать психологию отношений человека и ИИ, этические и моральные стороны таких взаимодействий. Это необходимо для выработки норм и правил в новой сфере, а также создания механизмов для недопущения негативных последствий.