
Anthropic выпустила политический манифест, в котором говорит без обычной кремниевой вежливости: ИИ больше не стоит считать просто бизнесом; это инструмент государственной силы. Компания, которая продаёт Claude и годами строила образ осторожной лаборатории, теперь требует от США жёстче перекрыть Китаю доступ к чипам, дата-центрам и результатам работы американских моделей.
Смысл документа предельно ясен. Anthropic хочет, чтобы Вашингтон относился к frontier AI так же, как раньше относился к ядерным технологиям или современным полупроводникам: меньше веры в «глобальный рынок», больше контроля, лицензий и стратегического эгоизма. Для индустрии это важный сдвиг, потому что ещё недавно крупнейшие лаборатории продавали генеративный ИИ как универсальный софт для офиса, а теперь лоббируют геополитику почти без маскировки.
В манифесте компания описывает две главные угрозы. Первая, по её версии, это обход экспортных ограничений на вычислительные чипы. Вторая — так называемые дистилляционные атаки, когда конкурирующие модели систематически используют ответы сильных американских систем, чтобы воспроизводить их возможности дешевле и быстрее.
Anthropic утверждает, что именно контроль над чипами остаётся последним реальным барьером. Логика не новая: США уже ввели масштабные ограничения на поставки продвинутых GPU в Китай в 2022 году и ужесточили их в 2023-м, потому что без ускорителей Nvidia, AMD и их экосистемы разговоры о суверенном ИИ быстро упираются в физику и сроки поставок. Разница в том, что теперь эту позицию публично озвучивает не Пентагон, а разработчик чат-бота.
Компания отдельно рисует окно преимущества в 12—24 месяца, если перекрыть оставшиеся лазейки, включая контрабанду и удалённый доступ к зарубежной инфраструктуре. Для обычного потребительского рынка это звучало бы смешно, для ИИ два года и правда вечность. За такой срок можно обучить новое поколение моделей, перестроить инструменты разработки и привязать к себе корпоративных клиентов так, что догоняющим останется только демпинг.
Здесь есть слой, который компания предпочитает не выпячивать. Anthropic давно продаёт себя как «ответственную» альтернативу OpenAI, но ответственный ИИ тоже требует денег, серверов и союзников в Вашингтоне. У компании уже есть мощная страховка в виде многомиллиардной поддержки Amazon и Google, а значит разговор о национальной безопасности одновременно укрепляет и её собственные позиции в борьбе за госзаказы, доступ к вычислениям и регуляторные привилегии.
И это не одиночный выпад. OpenAI ещё в 2023 году продвигала идею лицензирования самых мощных моделей, а правительства США, Великобритании и ЕС с тех пор всё активнее обсуждают frontier AI как сферу критической инфраструктуры. Разница в тоне: Anthropic говорит жёстче многих конкурентов и фактически предлагает экспортный режим не только для железа, но и для самих способностей моделей.
Отдельно компания бьёт по открытым моделям и предупреждает, что публикация сильных систем без достаточной защиты облегчает кибератаки и работу с опасными химическими и биологическими сценариями. Это удобная позиция для лаборатории, которая зарабатывает на закрытом доступе к моделям через API. И всё же упрек не взят с потолка: чем ниже цена запуска мощной модели и чем шире её распространение, тем труднее удерживать хоть какой-то контроль над тем, кто и для чего её использует.
Anthropic описывает развилку к 2028 году почти в черно-белых тонах. В одном варианте США и союзники удерживают лидерство, их ИИ становится стандартом для мировой экономики, а китайские системы отстают почти на два года. В другом Китай выходит на паритет, после чего ИИ превращается в инфраструктуру наблюдения, цензуры и военного давления.
Это сильная риторика, но она выгодно упрощает реальность. ИИ-экосистема давно не делится на две аккуратные коробки с флагами. Исследования публикуют международные команды, модели обучают на глобальных фреймворках, а облачная инфраструктура и цепочки поставок завязаны на десятки стран. Когда американская компания просит ещё сильнее закрыть систему, она одновременно пытается заморозить эту взаимозависимость в момент, когда сама находится впереди.
Есть и ещё одна деталь. Anthropic ссылается на свою экспериментальную Mythos Preview и приводит пример с Firefox, который после доступа к системе исправил за месяц больше уязвимостей, чем за весь 2025 год. Если такие кейсы хотя бы наполовину отражают реальные возможности, спор о том, считать ли ИИ обычным софтом, уже закончился. Следующий спор будет о том, кто получит право первым нажать на кнопку масштабирования.
Если Белый дом примет эту логику, новый пакет ограничений затронет не только поставки GPU, но и аренду вычислений через зарубежные облака до конца 2026 года.