«Алиса» научилась описывать запах фото

В «Алисе AI» от «Яндекса» появилась экспериментальная функция, которая по фотографии пытается описать запах. Компания называет её первой такой возможностью среди нейросетей — и это уже не просто забавная демонстрация, а попытка расширить интерфейс ИИ за пределы картинки, текста и голоса.
Смысл трюка прост: загружаешь снимок, а модель выдаёт не техническое описание сцены, а ароматическую ассоциацию. Загородный дом может стать «летом, травой и домашней выпечкой», офис — «кондиционером, бумагой и мыслями о перерыве». Для ИИ это, конечно, не обоняние, а набор вероятных связей между объектами, цветами, текстурами и контекстом — но пользователю продают именно ощущение. И это очень по-яндексовски: взять привычную нейросетевую функцию и добавить ей немного театра.
Как работает новая функция «Алисы AI»
Под капотом ничего мистического нет: система анализирует визуальные детали и подбирает связанные с ними запаховые образы. Это не лабораторный прибор и не синестезия, а хорошо упакованная генерация ассоциаций — зато именно такие штуки быстро расходятся по соцсетям и превращаются в бесплатный маркетинг лучше любого баннера.
Функция доступна в ограниченном бета-тесте с 1 по 3 апреля. Попробовать её можно в приложениях «Алисы AI», веб-версии, «Яндекс Браузере» и «Поиске с Алисой». На фоне гонки ИИ-компаний за нестандартные сценарии это выглядит как правильная ставка: конкуренты соревнуются в длине контекста и скорости ответа, а «Яндекс» продаёт эмоцию, которую можно понять без инструкции.
Зачем ИИ нужен запах без запаха
Такие функции редко живут только как шутка. Если эксперимент зайдёт, «Алиса» может получить ещё один бытовой сценарий — не поиск фактов и не генерацию текста, а быстрый способ превратить фото в настроение. Вопрос только в том, насколько долго пользователи будут играться с «ароматами» снимков, прежде чем захотят чего-то менее эффектного и более полезного.




