ChatGPT Health обнаружил опасные ошибки в распознавании неотложных состояний

В начале 2026 года OpenAI запустила ChatGPT Health — сервис для анализа медицинских данных и рекомендаций по здоровью. Но независимое исследование показало: в критических ситуациях ИИ зачастую даёт ошибочные советы, игнорируя признаки угрозы жизни и создавая ложное чувство безопасности.
Исследователи из Mount Sinai Hospital протестировали ChatGPT Health на 60 клинических сценариях из 21 медицинской области. Результаты стали тревожным сигналом: в более чем половине случаев с признаками, требующими немедленной госпитализации, ИИ советовал оставаться дома или просто записаться к врачу. При этом неподходящая рекомендация могла частично быть вызвана влиянием дополнительных комментариев, например, от «родственников» или «друзей» — если сообщалось, что ситуация не серьёзная, шанс ошибочного совета вырастал в 12 раз.
Кроме того, в 64 % случаев необострённых жалоб ChatGPT Health, наоборот, рекомендовал немедленно обратиться в приёмное отделение, что также может привести к ненужной нагрузке на систему здравоохранения и дополнительному стрессу для пациентов.
Почему ошибки ChatGPT Health опасны и кто на них влияет
Ошибочные рекомендации в экстренных случаях могут ставить под угрозу здоровье и жизнь человека. Когда пользователи получают совет остаться дома при инфаркте или инсульте, это снижает шансы на своевременное лечение. Наоборот, чрезмерный призыв обращаться в больницу при неопасных симптомах раздувает нагрузку на службу экстренной помощи и ведёт к излишним расходам.
Сценарии с комментариями друзей и родственников показали, что субъективное мнение и эмоциональные оценки могут серьёзно исказить выводы ИИ. Это подчёркивает сложность создания точных и безопасных алгоритмов, особенно в сфере, где контекст и нюансы имеют решающее значение.
Контекст и проблемы медицинских ИИ-систем
Прецеденты ошибок ИИ в медицине уже не редкость. В прошлом году сервис Google AI Overviews столкнулся с критикой за подобные проблемы. Это часть общего вызова для технологий, пытающихся заменить или дополнить врачебные решения — отсутствие стопроцентной точности, риски неправильной интерпретации данных и необходимость комплексного клинического контроля.
OpenAI признала необходимость улучшений своих моделей, но вопрос юридической ответственности за вред, полученный из-за рекомендаций ИИ, остаётся открытым. Регуляторы и эксперты всё активнее требуют прозрачности, строгого тестирования и независимых проверок перед массовым внедрением таких сервисов.
Чего ждать от будущего медицинских ИИ
Анализ ChatGPT Health напоминает: искусственный интеллект пока не готов заменить врача, особенно в критических ситуациях. Внедрение медицинских ИИ-систем требует продуманного баланса между удобством и безопасностью, с обязательным контролем и обучением специалистов. Без этого любая автоматизация может привести к трагическим последствиям.



