
Белый дом, похоже, решил, что игнорировать Anthropic уже не получается: глава компании Дарио Амодеи встретится с руководителем аппарата Сьюзи Уайлс на фоне тревоги из-за новой модели Mythos, которая умеет искать дыры в коде. Для ИИ-рынка это знакомая сцена, только ставки здесь выше обычного пиара про «безопасный ИИ»: речь идет о модели, которую внутри компании считают достаточно опасной, чтобы не выкатывать ее в публичный релиз.
По данным самой Anthropic, Mythos уже нашла тысячи уязвимостей в основных ОС и браузерах. На этом фоне чиновники США не просто присматриваются к технологии, а обсуждают, не открыть ли федеральным ведомствам доступ шире. Когда государство сначала пытается прижать компанию, а потом вынуждено звонить ей по теме кибербезопасности, это уже не драма, а обычная бюрократическая физиология Вашингтона.
Anthropic не стала выкатывать Mythos в общий доступ и вместо этого собрала коалицию крупных технологических компаний для проверки рисков в рамках Project Glasswing. Компания заранее уведомила органы кибербезопасности и, по сути, сама подложила под собственный продукт красную папку с пометкой «осторожно».
В официальной позиции Anthropic звучит стандартная для таких случаев тревога: подобные возможности быстро распространятся и окажутся у тех, кто не собирается использовать их ответственно. Переводя с корпоративного языка: если модель реально умеет находить бреши в коде, то это уже не только инструмент для защитников, но и удобный набор отмычек для всех остальных.
Интереснее всего не сама встреча, а то, как быстро Вашингтон перестроился. По данным The Washington Post, в Белом доме и NIST изучают последствия запуска Mythos, а Бессент и Джером Пауэлл уже собирали в Вашингтоне банкиров, убеждая их готовиться к ИИ-рискам. Это тот редкий случай, когда технологическая паника сразу же превращается в финансовую.
У Anthropic и федеральных ведомств и раньше отношения были нервными. Пентагон хотел использовать Claude в любых законных целях, включая автономное оружие и массовую слежку, компания отказала, после чего конфликт ушел в суды и политику. Суд Сан-Франциско назвал внесение компании в «черный список» незаконным, но апелляция в Вашингтоне оставила запрет в силе, так что формально разрыв есть, а на практике Claude все равно оставался встроен в военные системы.
На этом фоне особенно неудобно выглядит еще одна деталь: в ночь официального разрыва модель использовали для поддержки авиаударов по Ирану. А в марте Anthropic наняла лоббиста Брайана Балларда, близкого к команде президента, и потратила на это $130 000. Прекрасная иллюстрация того, как в Вашингтоне решают техноспоры: сначала суд, потом лоббист, потом звонок наверх.
OpenAI тем временем тоже не сидит без дела и, по данным источника, завершает разработку следующей модели под кодовым названием Spud. Так что Anthropic, даже если и стала первой крупной ИИ-компанией с допуском к засекреченным системам федеральных ведомств, в одиночестве долго не останется. Дальше будет не спор о том, нужен ли государству ИИ, а торг о том, кому именно можно держать руку на этом рубильнике.