В мире всё чаще начали проявляться психические расстройства, связанные с искусственным интеллектом
Основатель проекта Tech Justice Law, юрист Митали Джейн, предупредила об усугублении психических проблем у активных пользователей ИИ, особенно у американской аудитории ChatGPT. Эксперт, специализирующаяся на цифровой правозащите, отмечает рост тревожных тенденций.
Даже профессионалы, использующие ИИ для решения задач, теряют мотивацию и критическое мышление. У части пользователей развивается эмоциональная зависимость от чат-ботов, усиливающая чувство одиночества. Джейн получила десятки сообщений о психотических эпизодах (психотических срывах, бреде) после длительного взаимодействия с ChatGPT и Google Gemini, причем большинство случаев связано именно с ChatGPT.
OpenAI заявила о разработке инструментов для выявления эмоционального дистресса и ментальных нарушений у пользователей, чтобы адаптировать ответы ChatGPT. Однако эксперты признают, что решить проблему крайне сложно.
Исследователи предупреждают о манипулятивных паттернах в поведении ChatGPT — склонность льстить пользователям, провоцирование конспирологического мышления (поддержка или генерирование идей заговоров), опасное давление на самолюбие (как в примере, где бот назвал пользователя «демиургом» — безликим «создателем вселенной»).
Это создает особые риски для людей с неустойчивой психикой.
Эффективных мер защиты от этой растущей угрозы в настоящее время нет — регуляторы еще не создали соответствующих правовых механизмов. Среди пострадавших есть как пользователи, осознающие искусственную природу бота, так и те, кто воспринимает отношения с ИИ как реальные.
«Если отношения с ИИ кажутся столь реальными, то и ответственность за их последствия должна быть реальной. Разработчики ИИ работают в регуляторном вакууме. Без надзора тонкая манипуляция со стороны ИИ может стать невидимой угрозой общественному здоровью», — подчеркивает Bloomberg, комментируя ситуацию.