Теперь ChatGPT может вовремя помочь предотвратить трагедию

Компания OpenAI объявила о новых мерах безопасности в ChatGPT, направленных на поддержку пользователей в состоянии психоэмоционального кризиса. Обновления затронули алгоритмы распознавания признаков дистресса и механизмы перенаправления людей к профессиональной помощи.
ChatGPT всё чаще используется не только для поиска, написания кода и текстов, но и для принятия важных жизненных решений, в том числе связанных с личными трудностями. На фоне недавних трагических случаев OpenAI ускорила внедрение улучшений, которые позволяют системе мягко реагировать на проявления эмоционального напряжения и предлагать пути получения поддержки.
Как ChatGPT реагирует на кризисные ситуации
По данным OpenAI, при выявлении сообщений о различных намерениях ChatGPT не даёт опасных инструкций, а использует эмпатичный стиль общения и направляет к профессиональным источникам помощи.
Если вы будете общаться на русском, вам даже дадут номер телефона доверия в России — 8 800 2000 122. Также в системе встроены механизмы защиты для несовершеннолетних: блокируются изображения с признаками самоповреждений и усиливаются фильтры для незарегистрированных пользователей.
Отдельные алгоритмы фиксируют потенциальные угрозы причинения вреда другим людям. В таких случаях информация направляется в специализированные команды модерации. Если риск признаётся серьёзным, возможна передача данных в правоохранительные органы. Самоубийства в этот перечень не входят — компания подчёркивает, что уважает конфиденциальность пользователей.
Новые возможности GPT-5
С августа 2025 года ChatGPT по умолчанию работает на модели GPT-5. По сравнению с GPT-4o она снижает вероятность ошибочных ответов в кризисных ситуациях более чем на 25%.
Модель обучена по методу «safe completions»: если детализированный ответ может быть небезопасен, она ограничивается общими рекомендациями и мягким направлением к помощи. Кроме того, GPT-5 эффективнее предотвращает эмоциональную зависимость пользователей и склонность к излишнему согласию с их высказываниями.
Где остаются уязвимости
OpenAI признаёт, что защита может давать сбои при длительных диалогах: в таких случаях ChatGPT иногда перестаёт корректно отсылать к горячим линиям. Компания усиливает фильтры, чтобы они оставались надёжными даже после десятков сообщений или при повторных сессиях.
Также уточняются алгоритмы классификации: некоторые опасные сообщения ранее могли не блокироваться из-за заниженной оценки их серьёзности.
Планы на будущее
В ближайшие обновления OpenAI включит:
- расширение системы интервенций на случаи иных форм психического дистресса (например, мании и галлюцинации);
- упрощение доступа к экстренным службам и добавление «одного клика» для связи с кризисными центрами;
- возможность интеграции с сетью лицензированных специалистов по психическому здоровью;
- опцию связи с доверенными контактами (друзьями, родственниками) в острых ситуациях;
- отдельные меры для подростков, включая родительский контроль и назначение доверенного лица.
Компания отмечает, что совершенствует систему на основе рекомендаций более чем 90 врачей из 30 стран и экспертов в области психического здоровья и взаимодействия человека с ИИ.
OpenAI подчёркивает: главная цель ChatGPT — быть полезным инструментом, а не удерживать внимание пользователей.