Google отдаст Gemini управление приложениями в Android

Google решила, что смартфон должен не только отвечать на вопросы, но и ходить по приложениям вместо пользователя. Новый пакет функций Gemini Intelligence для Android берет на себя рутину: заполняет формы, собирает корзину по скриншоту списка покупок, записывает на занятия и доводит заказ до этапа подтверждения оплаты. Первой витриной для этой идеи станут Samsung Galaxy S26 и Google Pixel 10 летом 2026 года.
Сама идея не новая. Google уже показывала браузерного агента Project Mariner, OpenAI тестирует Operator, Anthropic учит Claude работать с интерфейсами как человек. Разница в другом: Google встраивает агента не в отдельную демку и не в веб-окно, а прямо в Android, Chrome, Gboard и Autofill. Когда у тебя в руках сама ОС, кнопка «действовать» выглядит куда опаснее и куда полезнее.
Функции Gemini Intelligence в Android
По описанию Google, Gemini Intelligence будет работать как надстройка над приложениями и системными сервисами. Пользователь задает задачу обычным языком, а система сама проходит промежуточные шаги, показывает ход выполнения в уведомлениях и просит подтвердить финальное действие перед списанием денег.
- оформление заказов в магазинах;
- запись на занятия и другие бронирования;
- сбор корзины покупок по скриншоту списка;
- автозаполнение сложных форм с учетом контекста из приложений.
Для Android это заметный сдвиг. До сих пор ассистенты в телефонах умели открыть нужное приложение, поставить таймер или на худой конец продиктовать сообщение. Здесь Google замахивается на полноценные многошаговые сценарии, где ИИ уже не подсказывает, а кликает сам. Панель приватности и постоянное уведомление о фоновых действиях появились не от хорошей жизни: если ОС покупает товар или бронирует парковку, пользователю нужен хотя бы шанс понять, кто именно нажал кнопку.
Chrome, Autofill и Gboard с Gemini Intelligence
Отдельный кусок обновления достанется Chrome для Android. Браузер получит автонавигацию по сайтам для рутинных операций, вроде записи на прием или бронирования парковки. По сути, это уже знакомая по браузерным агентам схема, только теперь Google подвязывает ее к мобильной ОС и собственному стеку авторизации.
Autofill тоже меняется. Раньше сервис в основном закрывал пароли, адреса, карты и пасски. Теперь Google хочет, чтобы он понимал сложные формы целиком и подставлял данные с учетом контекста из других приложений. Звучит удобно до первого кривого заказа, поэтому подтверждение последнего шага Google оставила за человеком. Очень предусмотрительно.
В Gboard появится голосовая функция, которая чистит устную речь от пауз, повторов и слов-паразитов и превращает ее в нормальный текст. Это хороший удар в самое раздражающее место голосового ввода: люди говорят рваными кусками, а писать хотят аккуратно. Google утверждает, что аудио используется только для транскрипции в реальном времени и не сохраняется.
Какие смартфоны получат Gemini Intelligence первыми
Выбор Galaxy S26 и Pixel 10 для первого запуска выглядит предсказуемо. Samsung с Galaxy S24 продает идею Galaxy AI как причину обновить флагман, а Pixel уже давно служит полигоном для новых функций Android и Gemini. Плюс именно в этих моделях Google проще всего рассчитывать на достаточно мощные NPU и свежую версию системы без компромиссов ради старого железа.
Для остальной Android-экосистемы история будет сложнее. Агентные функции требуют не только модели, но и аккуратной работы приложений, разрешений, локализации и понятных ограничений. Поэтому разрыв между «показали на сцене» и «нормально работает у всех» здесь почти наверняка окажется длиннее, чем в рекламных роликах Google.
Первые функции Gemini Intelligence откроют на Galaxy S26 и Pixel 10 летом 2026 года.


