
Несмотря на указание президента Трампа немедленно прекратить использование технологий Anthropic в федеральных агентствах, США применили искусственный интеллект этой компании для крупного авиаудара по Ирану всего через несколько часов после публичного запрета, сообщает The Wall Street Journal. Этот шаг обнажает противоречия в отношениях властей и подрядчиков в сфере военного ИИ, а также подчёркивает сложность отказа от уже внедрённых решений.
27 февраля президент США заявил о полном прекращении сотрудничества с Anthropic, назначив переходный период в шесть месяцев для таких ведомств, как Министерство обороны. Впрочем, даже в этот период агентства продолжат использовать ИИ-платформу Claude и другие технологии компании, необходимые для боевых операций. Учитывая, что Anthropic уже была задействована в прошлых военных акциях — например, в операции по похищению Николаса Мадуро в Венесуэле — полная замена ИИ потребует хотя бы нескольких месяцев.
Тем временем Пентагон заключил договоры с xAI и OpenAI, намереваясь постепенно перейти на их модели для военных систем. Но замена технологий Anthropic, которые плотно интегрированы в действующие процессы, не будет мгновенной.
Использование искусственного интеллекта стало важной составляющей современных военных кампаний США. Внедрение ИИ от Anthropic помогло повысить эффективность планирования и точность ударов, что неоднократно подтверждалось в реальных операциях. Именно поэтому даже при официальном разрыве отношений с компанией Пентагон нашёл веские причины для продолжения использования этой технологии в тактических целях, не дожидаясь полного вывода.
Этот конфликт внутри администрации показывает, что приоритеты национальной безопасности зачастую перекрывают политические решения и разногласия, связанные с поставщиками технологий. Война против Ирана демонстрирует, что практические задачи часто выигрывают у бюрократических запретов, особенно когда речь идёт о быстрых и точных ударах с помощью ИИ.
Давление на Anthropic связано с более широкими разногласиями по поводу контроля над военными ИИ и рисками утечки данных или возникновения непредсказуемого поведения систем. США активно ищут баланс между скоростью внедрения передовых технологий и обеспечением кибербезопасности. В этом контексте переход на альтернативные решения от xAI и OpenAI — попытка снизить зависимость от одного подрядчика, а также усилить контроль над используемыми алгоритмами.
С другой стороны, сроки и сложности замены лидирующего ИИ-продукта в армейских системах показывают, что военная бюрократия и оперативные нужды создают зоны напряжённости, где решения принимаются зачастую в обход официальных запретов. Применение Anthropic в боевых действиях после запрета президента демонстрирует масштабную проблему адаптации оборонных структур к быстро меняющемуся технологическому ландшафту.
Уже подписанные контракты с xAI — компанией Илона Маска — и OpenAI дают понять, что Министерство обороны намерено диверсифицировать ИИ-источники, уменьшая зависимость от одной компании и прогнозируя улучшения по функционалу и безопасности. Однако на полный переход понадобится как минимум несколько месяцев. Этот срок важен, учитывая, что военные действия требуют высокой надёжности и готовности систем.
В итоге ситуация с Anthropic — это не просто скандал вокруг одного подрядчика, а отражение более широкого вызова военного применения ИИ, где технологии и политика оказываются в жёстком конфликте, а оперативные нужды становятся превыше всего.