Новый уровень ИИ на Android: Google Gemini Live доступен для всех устройств с Android 10+ (gemini astra.jpg)

Google развеяла все сомнения: долгожданные функции Project Astra, теперь известные как Gemini Live, работают не только на смартфонах Pixel или Galaxy S25. Возможности живой видеосвязи и совместного использования экрана теперь доступны на любом Android-устройстве с Android 10 и выше — при условии подписки на Gemini Advanced.


Новый уровень ИИ на Android: Google Gemini Live доступен для всех устройств с Android 10+ (astra)

Google делает ставку на универсальность, а не эксклюзивность

На выставке Mobile World Congress 2024 Google официально представила возможности, которые раньше носили кодовое имя Project Astra. Речь идёт о возможности ИИ видеть происходящее в реальном времени с камеры устройства, а также анализировать содержимое экрана через прямой шэринг. Изначально казалось, что такие функции будут эксклюзивом новых флагманов, но теперь официальная страница поддержки Google чётко указывает: пользоваться Gemini Live можно на любом смартфоне с Android 10+.

Это означает, что даже владельцы более старых устройств смогут получить доступ к одному из самых продвинутых форматов взаимодействия с искусственным интеллектом.

Новый уровень ИИ на Android: Google Gemini Live доступен для всех устройств с Android 10+ (tt5thlrtkhf4b6iye536ej 1200 80)

Условия доступа: нужна подписка Gemini Advanced

Однако есть и нюанс. Чтобы активировать функции Gemini Live, требуется платная подписка Gemini Advanced, входящая в состав плана Google One AI Premium стоимостью $20 в месяц. Распространение новых инструментов происходит поэтапно, так что не все пользователи увидят их моментально.

Также пока не подтверждено официально, работают ли функции на планшетах и складных устройствах, но логика и системные требования говорят о том, что всё должно быть совместимо — при наличии Android 10 и установленного приложения Gemini.

Как работает Gemini Live: ИИ смотрит и понимает

Сервис обрабатывает видеопоток с камеры в реальном времени, позволяя общаться с ИИ в новом формате — когда тот «видит» объект и может анализировать происходящее визуально. Это может быть полезно для распознавания объектов, помощи с задачами, связанными с реальным миром, или даже навигацией по окружающей среде.


Функция шэринга экрана позволяет ИИ видеть всё, что происходит на дисплее: от сайтов до приложений и системных окон. Это значительно расширяет спектр задач, с которыми Gemini может помочь — от инструкций по интерфейсу до анализа сложных данных.

Новый уровень ИИ на Android: Google Gemini Live доступен для всех устройств с Android 10+ (screenshot 2024 12 10 at 4 52 30pm.png)

Конкуренты не дремлют, но у Google — своё преимущество

Хотя подобные функции уже доступны у других ИИ, например, в ChatGPT с его режимом Advanced Voice, Google делает ставку на бесшовную интеграцию. Всё происходит внутри приложения Gemini, без необходимости переключаться между разными сервисами или платформами. Это делает взаимодействие проще и быстрее — особенно для пользователей, которые не хотят теряться в меню и настройках.

Подпишись на ITZine в Дзен Новостях
Читай ITZine в Telegram
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии