
Google начал выдавать сгенерированные ответы с подставными телефонными номерами — и эти номера уже использовали, чтобы выманить у людей деньги и данные. Проблема не в том, что искусственный интеллект ошибается; проблема в том, что интерфейс AI Overviews превращает чужую, а иногда и злонамеренную информацию в «официальный» ответ, которому пользователи склонны доверять автоматически.
Это важно, потому что поисковая выдача перестала быть просто списком ссылок: теперь вместо них часто появляется обобщённый ответ, который сразу подсовывает номер службы поддержки или инструкцию. При доминирующем положении Google на рынке поиска такая уязвимость превращается в удобный канал для мошенников — и для роста числа пострадавших.
Схема предельно проста и банальна — и поэтому опасна. Мошенники публикуют фальшивые контактные данные в малозаметных источниках: на форумах, в старых блогах, в пользовательских объявлениях, в тексте PDF-документов. Алгоритмы, которые собирают и сводят эти фрагменты в AI Overview, не всегда умеют отличать официальную страницу компании от «пустышки» с похожим названием.
Пользователь гуглит компанию, получает лаконичный ответ с телефоном и, не проверив, звонит. За трубкой — не поддержка, а оператор мошеннической службы, который просит данные карты или предлагает «восстановить доступ» за плату. По мере распространения такого трюка пострадавших становится больше — и им сложнее доказать, что именно они попались на сгенерированный ответ.
Это не новая проблема для интернета: фальшивые номера и поддельные листинги давно злоупотребляли карточками компаний в Google Maps и другими локальными результатами. Новое в том, что генеративная составляющая теперь формулирует уверенный, «человечный» ответ — он звучит убедительнее, чем набор ссылок.
Аналогичные проблемы появлялись и у других систем, которые агрегируют контент: Bing/ChatGPT-режимы, интеграции OpenAI, а также экспериментальные ассистенты на базе больших моделей. Проблема — не в бренде, а в методе: когда система подаёт синтезированный ответ как факт, повышается риск того, что она «поднимет» мусор с периферии интернета.
Google теоретически обладает преимуществом: у компании больше данных и инструментов для борьбы со спамом. На практике же скорость развертывания AI-функций опережает качество фильтров — и это создаёт окно возможностей для злоумышленников.
Наши антиспам‑механизмы эффективно работают над тем, чтобы держать мошенников вне AI Overviews и показывать официальные номера поддержки там, где это возможно.
Google, пресс‑служба
Простые и рабочие правила снижaют риск. Не доверяйте первому номеру, который предлагает AI: проверьте официальный сайт компании, страницу в социальных сетях или профиль в Google Maps. Позвоните ещё раз, используя номер на официальной странице, а не тот, что в сводке.
Для компаний это удар по репутации и дополнительная нагрузка на службу безопасности: растёт количество инцидентов, связанных с поддельными контактами. Малые и средние бизнесы особенно уязвимы — им сложнее контролировать все точки присутствия в интернете.
Пользователи в массовом масштабе начинают терять доверие к автоматическим ответам. Это может привести к тому, что люди будут возвращаться к старой привычке — просматривать первоисточники и проверять информацию вручную. Парадокс: удобство AI может обернуться ростом ручного труда там, где вопрос требует точности.
Технологические компании ответят усилением валидации данных, а регуляторы — вниманием к ответственности платформ за точность информации. Но это займёт время: фильтры корректируют выборки, а злоумышленники ищут новые лазейки.
Скоро мы увидим три параллельных тренда: усилия платформ по улучшению антиспама, появление сервисов валидации «официальных» контактов и рост внимания со стороны регуляторов. Пока же главный инструмент защиты — осторожность пользователя и практика «двойной проверки» контактной информации.
Вопрос остаётся открытым: успеют ли платформы закрыть уязвимости быстрее, чем мошенники найдут новые способы подмены доверия? От ответа зависит, доверим ли мы машинам не только советы по отдыху, но и телефонную книгу.