ChatGPT научится говорить «Я не знаю»

У больших языковых моделей сохраняются проблемы с достоверностью ответов. Проблема галлюцинаций — выдачи ложной информации — существует с момента появления технологии. Однако в ChatGPT 5 появилась новая функция: модель теперь может признавать отсутствие знаний вместо генерации вымышленных ответов.
OpenAI сообщает, что новая версия ChatGPT научилась говорить «Я не знаю» в ответ на вопросы, где нет достаточной информации. Это стало заметно после вирусного примера, когда модель ответила: «Я не знаю — и я не могу достоверно это выяснить».

Технически галлюцинации заложены в архитектуре языковых моделей, которые предсказывают следующие слова на основе паттернов, а не извлекают факты из базы данных. Новая способность GPT-5 признавать ограничения отражает эволюцию в подходе к обработке непонятных или сложных запросов.
Доверие к ИИ-чат-ботам остается критически важным аспектом. Ранее в ChatGPT уже были встроены предупреждения о возможных неточностях, но теперь модель получила более явный механизм избегания галлюцинаций через признание незнания.