Категории Нейросети и ИИ

США использовали ИИ Anthropic в атаках на Иран, запретив его накануне

США использовали ИИ Anthropic в атаках на Иран, запретив его накануне

Несмотря на указание президента Трампа немедленно прекратить использование технологий Anthropic в федеральных агентствах, США применили искусственный интеллект этой компании для крупного авиаудара по Ирану всего через несколько часов после публичного запрета, сообщает The Wall Street Journal. Этот шаг обнажает противоречия в отношениях властей и подрядчиков в сфере военного ИИ, а также подчёркивает сложность отказа от уже внедрённых решений.

Как происходил запрет и почему Anthropic не сразу ушёл из вооружения

27 февраля президент США заявил о полном прекращении сотрудничества с Anthropic, назначив переходный период в шесть месяцев для таких ведомств, как Министерство обороны. Впрочем, даже в этот период агентства продолжат использовать ИИ-платформу Claude и другие технологии компании, необходимые для боевых операций. Учитывая, что Anthropic уже была задействована в прошлых военных акциях — например, в операции по похищению Николаса Мадуро в Венесуэле — полная замена ИИ потребует хотя бы нескольких месяцев.

Тем временем Пентагон заключил договоры с xAI и OpenAI, намереваясь постепенно перейти на их модели для военных систем. Но замена технологий Anthropic, которые плотно интегрированы в действующие процессы, не будет мгновенной.

Как использование ИИ Anthropic изменяет военные операции США

Использование искусственного интеллекта стало важной составляющей современных военных кампаний США. Внедрение ИИ от Anthropic помогло повысить эффективность планирования и точность ударов, что неоднократно подтверждалось в реальных операциях. Именно поэтому даже при официальном разрыве отношений с компанией Пентагон нашёл веские причины для продолжения использования этой технологии в тактических целях, не дожидаясь полного вывода.

Этот конфликт внутри администрации показывает, что приоритеты национальной безопасности зачастую перекрывают политические решения и разногласия, связанные с поставщиками технологий. Война против Ирана демонстрирует, что практические задачи часто выигрывают у бюрократических запретов, особенно когда речь идёт о быстрых и точных ударах с помощью ИИ.


Какие риски и вызовы несёт использование чужого ИИ в военных действиях

Давление на Anthropic связано с более широкими разногласиями по поводу контроля над военными ИИ и рисками утечки данных или возникновения непредсказуемого поведения систем. США активно ищут баланс между скоростью внедрения передовых технологий и обеспечением кибербезопасности. В этом контексте переход на альтернативные решения от xAI и OpenAI — попытка снизить зависимость от одного подрядчика, а также усилить контроль над используемыми алгоритмами.

С другой стороны, сроки и сложности замены лидирующего ИИ-продукта в армейских системах показывают, что военная бюрократия и оперативные нужды создают зоны напряжённости, где решения принимаются зачастую в обход официальных запретов. Применение Anthropic в боевых действиях после запрета президента демонстрирует масштабную проблему адаптации оборонных структур к быстро меняющемуся технологическому ландшафту.

Что дальше — переход к иным платформам и новые соглашения

Уже подписанные контракты с xAI — компанией Илона Маска — и OpenAI дают понять, что Министерство обороны намерено диверсифицировать ИИ-источники, уменьшая зависимость от одной компании и прогнозируя улучшения по функционалу и безопасности. Однако на полный переход понадобится как минимум несколько месяцев. Этот срок важен, учитывая, что военные действия требуют высокой надёжности и готовности систем.

В итоге ситуация с Anthropic — это не просто скандал вокруг одного подрядчика, а отражение более широкого вызова военного применения ИИ, где технологии и политика оказываются в жёстком конфликте, а оперативные нужды становятся превыше всего.

Опубликовано:
Сергей Кузнецов