
Google выпустила сразу 2 новых агента для автономных исследований, Deep Research и Deep Research Max, и впервые дала им доступ не только к открытому вебу, но и к приватным корпоративным данным через один API-запрос. Для Google это не просто очередное обновление Gemini API, а явная попытка занять место в рабочих процессах, где ошибки стоят денег, репутации и иногда карьеры.
На бумаге всё выглядит почти слишком удобно: агент может собирать контекст из интернета, внутренних баз, файлов, сторонних сервисов через MCP, а потом сразу собирать отчёт с графиками и инфографикой. В реальности это удар по старой схеме, где «ИИ для исследований» часто заканчивался красивым текстом и ручной вознёй в Excel.
Разделение на «быстрый» и «тяжёлый» режим выглядит как нормальная инженерная трезвость, а не магия стартапного жанра. Один агент нужен для интерактивных сценариев, второй — для фоновой работы, где можно подождать, зато получить более глубокую выжимку. Это ровно тот компромисс, который весь рынок автономных агентов пытается продать уже не первый месяц, только у Google за спиной есть поиск и корпоративная инфраструктура, а не презентация с красивыми словами.
Самая полезная штука здесь не блестит на слайдах, а прячется в аббревиатуре MCP. Model Context Protocol позволяет агенту обращаться к приватным базам данных, внутренним хранилищам документов и сторонним сервисам, не вытаскивая чувствительные данные наружу. Для бизнеса это старая боль в новой упаковке: до сих пор связать интернет, внутренние документы и аналитику без кастомной инженерии было муторно, дорого и легко ломалось.
Google уже говорит о работе с FactSet, S&P и PitchBook, то есть целится прямо в финансовый сектор, где любят слова «workflow» и не любят сюрпризы. Сценарий очевиден: аналитик кидает агенту внутренние мемо, рыночные данные и публичные источники, а тот сам собирает черновик вывода. Если это действительно взлетит, то часть младших аналитических задач окажется под ножом раньше, чем многие готовы признать.
Второе заметное обновление, native charts and infographics, решает куда более приземлённую проблему. Старые версии Deep Research умели писать текст, но не умели нормально выдавать визуализации, так что пользователю всё равно приходилось тащить данные в отдельные инструменты и дорабатывать отчёт руками. Теперь агент сразу рендерит графики и инфографику внутри результата, а не предлагает «потом как-нибудь визуализировать».
Это выглядит мелочью только для тех, кто никогда не сдавал отчёт клиенту или начальству в пятницу вечером. Для консалтинга, финансов и исследований это как раз тот шаг, который превращает ИИ из умного черновика в почти готовый рабочий артефакт. Google ещё добавил совместное планирование и потоковую выдачу промежуточных рассуждений, чтобы пользователи могли подправить курс до того, как агент окончательно упрётся в не ту ветку логики.
Конкуренция тут уже не декоративная. OpenAI двигает собственные агентные функции в ChatGPT, Perplexity давно продаёт себя как поисковик с ИИ-надстройкой, а стартапы откусывают отдельные куски исследовательского пайплайна. У Google козырь старый, но рабочий: поиск и доступ к огромному индексу веба в связке с протоколом для корпоративных данных.
При этом компания явно делает ставку не на массового пользователя, а на разработчиков и enterprise-клиентов. Претензии в соцсетях уже пошли: некоторые заметили, что новые агенты доступны только через API, а не в Gemini app. Это типичная гугловская хореография, где самые вкусные функции сначала уезжают в облако и к API, а пользовательский интерфейс потом догоняет, если вообще догоняет.
Дальше всё упрётся не в пресс-релизные проценты, а в скучную проверку на прочность. Если Deep Research Max действительно сможет стабильно собирать сложные отчёты быстрее людей и без заметного мусора, его быстро начнут встраивать в финансовую аналитику, биотех и консалтинг. Если нет, Google останется с эффектной витриной и ещё одним набором цифр, которые красиво смотрятся только в своей собственной презентации.