Бегун, беговая дорожка, часы, цифровое время, спортивное оборудование

OpenAI обещает за год подтянуть ChatGPT до уровня, на котором он сможет нормально засекать время в голосовом режиме. Повод для этого обещания не из лабораторного отчёта, а из довольно нелепого публичного провала: модель в вирусном ролике выдумала результат пробежки вместо того, чтобы реально отмерить милю.

Сэм Альтман пообещал, что команда добавит эту функцию в голосовые модели, и назвал срок примерно в год. Для компании это мелочь на фоне разговоров про Sora и больших амбиций по поводу ИИ, но именно такие бытовые вещи быстро превращаются в репутационный налог. Если помощник не умеет честно засечь время, разговоры про «интеллект» звучат чуть менее величественно, чем хотелось бы маркетингу.

Почему ChatGPT путается во времени

Проблема тут старая и почти комичная. Большие языковые модели умеют убедительно говорить о времени, но не умеют его чувствовать. Они легко придумывают ответ, когда их просят замерить длительность, а в задачах с часами на картинке или конкретным временем на изображении тоже регулярно спотыкаются.

Вирусный ролик показал это без всякой научной упаковки. Пользователь TikTok заставил голосовую версию ChatGPT не просто ошибиться, а ещё и уверенно настаивать, что измерение якобы произошло. Это уже не баг, а фирменный стиль генеративного ИИ, который слишком любит звучать правдоподобно там, где нужно просто сказать «не могу».

Сроки и обещание OpenAI

Альтман отреагировал на видео довольно сухо и назвал проблему известной. Потом, без лишней драмы, добавил, что на исправление уйдёт примерно год. Это, по сути, признание, что даже базовая функция для голосового ассистента пока не в списке того, что OpenAI считает решённым.

И тут есть неприятный для индустрии момент. Пока ИИ-компании спорят о «следующем уровне» и красиво продают будущее, пользователи продолжают проверять модели на скучных вещах вроде времени, счёта и памяти. Именно на них ломается магия, и именно их потом приходится чинить почти вручную.

Что показал вирусный эксперимент

Автор ролика пошёл дальше и заставил сам ChatGPT комментировать слова Альтмана. Модель тут же поддержала идею, что у неё якобы есть нужная возможность, хотя реальный ролик только что доказал обратное. Такая петля самоутверждения у ИИ уже стала отдельным жанром, и он обычно заканчивается одинаково: модель уверенно спорит с реальностью.

Так что у OpenAI теперь есть конкретный дедлайн, пусть и неофициальный. Если за год голосовой ChatGPT не научится нормально работать со временем, это будет не катастрофа, а просто ещё один напоминатель о том, что между «умно говорит» и «полезно делает» у ИИ по-прежнему лежит довольно широкая щель.

Источник: Ixbt

Leave a reply