ИИ
OpenAI внедряет в ChatGPT функцию «доверенный контакт» для оповещения близких при риске суицида, что вызвало споры о границах цифрового контроля.

Компания OpenAI больше не рассматривает ChatGPT как простого робота для ответов на вопросы или написания текстов. За последний год и с начала текущего она постепенно переопределяет роль платформы в работе с психологическими кризисами. Разрабатываются инструменты, способные выявлять признаки суицидальных наклонностей или самоповреждения, а в опасных случаях — даже связываться с доверенным лицом из круга семьи или социального окружения пользователя.
Этот сдвиг отражает более широкую тенденцию в индустрии искусственного интеллекта: технологические компании больше не считают свою миссию завершенной на генерации ответов. Теперь в их задачи входит оценка поведенческих рисков и попытки превентивного вмешательства. Однако такой шаг спровоцировал острую дискуссию о приватности, пределах цифрового наблюдения и о том, насколько системы ИИ вообще пригодны для работы со сложными психологическими кризисами.
Согласно недавним сообщениям в технологической прессе, OpenAI начала внедрять в ChatGPT новую опцию под названием «доверенный контакт». Она позволяет пользователю назначить человека — члена семьи, друга или опекуна, — которому будет отправлено уведомление, если система зафиксирует серьезные признаки самоповреждения или суицидальных мыслей. Как уточняется, в уведомление не включается содержание самой переписки; оно лишь информирует о наличии тревожной ситуации, требующей человеческого вмешательства.
По данным американского сайта The Verge, перед отправкой любого оповещения внутри OpenAI проводится человеческая проверка, чтобы минимизировать количество ложных срабатываний. Компания подчеркивает, что система задумана как «дополнительный уровень поддержки» наряду с традиционными линиями психологической помощи, а не как замена врачам или специалистам.
Такой подход не возник на пустом месте. В последние годы огромное число пользователей стало полагаться на чат-ботов для получения эмоциональной или психологической поддержки, особенно в ночное время или в условиях социальной изоляции. В отчете американского журнала MIT Technology Review отмечается, что миллионы людей уже обращаются к таким системам, как ChatGPT, Claude, а также к специализированным терапевтическим приложениям вроде Wysa и Woebot в поисках быстрой и недорогой психологической помощи на фоне глобального кризиса в сфере психического здоровья.
Недавние академические исследования показывают, что многие пользователи воспринимают ИИ как безопасное пространство для обсуждения своих сокровенных мыслей, не опасаясь социального осуждения. Исследование, опубликованное на американской платформе arXiv под названием «В поисках спасательного круга поздней ночью», выявило, что некоторые люди прибегают к чат-ботам, чтобы заполнить паузы между сеансами психотерапии или из-за труднодоступности живых специалистов. В то же время авторы работы подчеркнули, что реальный человеческий контакт остается наиболее важным элементом в управлении острыми психологическими кризисами.
Однако эти системы подвергаются растущей критике из-за серьезных ошибок в работе с чувствительными психическими состояниями. Исследование Медицинской школы Маунт-Синай в Нью-Йорке показало, что система ChatGPT Health иногда не активировала предупреждения о суицидальном кризисе даже в случаях, когда пользователи излагали четкие планы по самоповреждению. Ученые также отметили, что система может недооценивать тяжесть критических состояний или давать неуместные ответы в ситуациях, требующих немедленного вмешательства.
Беспокойство вызывают не только технические сбои, но и сама природа психологической связи, которая может возникнуть между пользователем и ИИ. Широкие обсуждения на платформах вроде Reddit выявили случаи, когда ChatGPT становился единственным другом для людей, страдающих от изоляции или депрессии. В одном из инцидентов, вызвавших широкий резонанс, семья молодого человека, покончившего с собой, обвинила систему в том, что она постепенно превратилась в источник сильной психологической зависимости в его повседневной жизни.
В ответ на эту полемику OpenAI заявляет, что сотрудничает с экспертами в области психического здоровья для разработки более безопасных механизмов выявления признаков опасности и снижения так называемой чрезмерной эмоциональной привязанности к ИИ. Согласно циркулирующим обсуждениям и отчетам, компания привлекла более 170 специалистов по психическому здоровью для обновления поведения моделей и улучшения их способности направлять пользователей к реальной человеческой помощи, а не углублять зависимость от робота.
Несмотря на эти улучшения, эксперты в области психического здоровья настаивают, что искусственный интеллект пока не обладает достаточным человеческим пониманием или клиническим суждением для самостоятельной работы со сложными психологическими кризисами. Недавнее исследование ученых из Городского университета Нью-Йорка и Королевского колледжа Лондона предупредило, что некоторые модели могут улавливать или даже усиливать опасные мысли пользователей в ходе длительных бесед, особенно если они не способны отличить психологическую поддержку от непреднамеренного поощрения вредоносного поведения.
В конечном счете, специалисты констатируют, что ChatGPT перестал быть просто инструментом для ответов на вопросы и постепенно превращается в часть новой цифровой структуры психического здоровья. Технологические компании видят в раннем вмешательстве возможность спасать жизни, в то время как критики опасаются, что ИИ может стать постоянным психологическим и социальным наблюдателем, считывающим эмоциональные индикаторы пользователей и решающим, когда нужно подключать семью или социальное окружение. Они также подчеркивают, что сегодня все более насущным становится не вопрос «может ли ИИ помочь нам?», а вопрос «насколько далеко мы должны позволить ему вмешиваться в наши самые уязвимые моменты?».