
Anthropic снова получила наглядный урок о том, как быстро «ограниченный доступ» превращается в чей-то трофей. Компания только начала раздавать Claude Mythos Preview избранным партнёрам, а модель уже, по данным Bloomberg, оказалась у небольшой группы посторонних пользователей.
Проблема здесь не в очередной утечке ради галочки. Mythos, как утверждает Anthropic, умеет находить и эксплуатировать уязвимости в «каждой крупной операционной системе и каждом крупном браузере» по просьбе пользователя. Для рынка, который и так спорит о том, где заканчивается исследовательский инструмент и начинается кибероружие, готовое к злоупотреблению, это очень неудобный сюжет.
По версии Bloomberg, доступ получили через третью сторону, связанную с Anthropic, и через банальную, почти анекдотичную смесь из чужих прав доступа и обычных интернет-инструментов для поиска следов. Один из участников группы, которого издание описывает как подрядчика, сказал, что они использовали знания о форматах других моделей Anthropic, вытащенные из недавней утечки Mercor, чтобы вычислить, где Mythos прятался в сети.
Сама Anthropic теперь проверяет инцидент и говорит, что не видит признаков выхода проблемы за пределы среды стороннего подрядчика. Это важная оговорка, но не успокоение: в кибербезопасности самые неприятные истории обычно начинаются именно так, через внешних партнёров, временные доступы и уверенность, что «ну тут-то всё под контролем».
У компании на это есть простая причина: она сама не хочет выпускать Mythos в открытый доступ, потому что модель можно превратить в инструмент атак. Сейчас доступ к ней получили лишь несколько компаний через инициативу Project Glasswing, среди них Nvidia, Google, Amazon Web Services, Apple и Microsoft, а также, по данным источника, за технологией приглядываются и правительства.
Это типичная новая граница ИИ-рынка: чем сильнее модель в атакующих задачах, тем меньше желания у создателя отдавать её всем подряд, и тем выше интерес у тех, кто хочет видеть в ней не защиту, а отмычку. У OpenAI и Google похожая дилемма уже всплывала в разговорах о моделях для киберзащиты, но Anthropic здесь, похоже, первой поймала практическую версию кошмара.
Ирония в том, что доступ к Mythos, судя по сообщению Bloomberg, использовали аккуратно, без попыток заниматься кибератаками, чтобы не спалиться раньше времени. На этом фоне «ограниченный пилот» выглядит не как безопасная витрина, а как тест на то, кто быстрее найдёт дыру в чужой системе доступа. Обычно победителя в таком соревновании никто не поздравляет.
Закрытые AI-модели продаются компаниям как элитный клуб: меньше шума, больше контроля, никакого публичного хаоса. Но чем больше вокруг них подрядчиков, интеграторов и партнёрских сред, тем сильнее растёт поверхность атаки. Поэтому история с Mythos бьёт не только по Anthropic, а по всей идее «безопасного» закрытого распространения самых мощных моделей.
Anthropic пока ограничилась проверкой инцидента и заявлением, что её собственные системы, по имеющимся данным, не затронуты. Дальше всё упирается в один скучный, но неприятный вопрос: если модель уже нашли в чужом уголке сети один раз, сколько времени пройдёт до следующего «случайного» обнаружения.