oai ga stories 16.9 alt.png

Компания OpenAI объявила о новых мерах безопасности в ChatGPT, направленных на поддержку пользователей в состоянии психоэмоционального кризиса. Обновления затронули алгоритмы распознавания признаков дистресса и механизмы перенаправления людей к профессиональной помощи.

ChatGPT всё чаще используется не только для поиска, написания кода и текстов, но и для принятия важных жизненных решений, в том числе связанных с личными трудностями. На фоне недавних трагических случаев OpenAI ускорила внедрение улучшений, которые позволяют системе мягко реагировать на проявления эмоционального напряжения и предлагать пути получения поддержки.


Как ChatGPT реагирует на кризисные ситуации

По данным OpenAI, при выявлении сообщений о различных намерениях ChatGPT не даёт опасных инструкций, а использует эмпатичный стиль общения и направляет к профессиональным источникам помощи.

Если вы будете общаться на русском, вам даже дадут номер телефона доверия в России — 8 800 2000 122. Также в системе встроены механизмы защиты для несовершеннолетних: блокируются изображения с признаками самоповреждений и усиливаются фильтры для незарегистрированных пользователей.


Отдельные алгоритмы фиксируют потенциальные угрозы причинения вреда другим людям. В таких случаях информация направляется в специализированные команды модерации. Если риск признаётся серьёзным, возможна передача данных в правоохранительные органы. Самоубийства в этот перечень не входят — компания подчёркивает, что уважает конфиденциальность пользователей.

Новые возможности GPT-5

С августа 2025 года ChatGPT по умолчанию работает на модели GPT-5. По сравнению с GPT-4o она снижает вероятность ошибочных ответов в кризисных ситуациях более чем на 25%.


Модель обучена по методу «safe completions»: если детализированный ответ может быть небезопасен, она ограничивается общими рекомендациями и мягким направлением к помощи. Кроме того, GPT-5 эффективнее предотвращает эмоциональную зависимость пользователей и склонность к излишнему согласию с их высказываниями.

Где остаются уязвимости

OpenAI признаёт, что защита может давать сбои при длительных диалогах: в таких случаях ChatGPT иногда перестаёт корректно отсылать к горячим линиям. Компания усиливает фильтры, чтобы они оставались надёжными даже после десятков сообщений или при повторных сессиях.


Также уточняются алгоритмы классификации: некоторые опасные сообщения ранее могли не блокироваться из-за заниженной оценки их серьёзности.

Планы на будущее

В ближайшие обновления OpenAI включит:

  • расширение системы интервенций на случаи иных форм психического дистресса (например, мании и галлюцинации);
  • упрощение доступа к экстренным службам и добавление «одного клика» для связи с кризисными центрами;
  • возможность интеграции с сетью лицензированных специалистов по психическому здоровью;
  • опцию связи с доверенными контактами (друзьями, родственниками) в острых ситуациях;
  • отдельные меры для подростков, включая родительский контроль и назначение доверенного лица.

Компания отмечает, что совершенствует систему на основе рекомендаций более чем 90 врачей из 30 стран и экспертов в области психического здоровья и взаимодействия человека с ИИ.

OpenAI подчёркивает: главная цель ChatGPT — быть полезным инструментом, а не удерживать внимание пользователей.

Комментарии запрещены.