Mythos от Anthropic утёк через подрядчика

Anthropic расследует утечку доступа к экспериментальному инструменту Mythos после того, как к нему добралась неавторизованная группа через среду стороннего подрядчика. История неприятна не только самим фактом доступа, но и тем, что речь идёт о продукте для корпоративной защиты, который в чужих руках легко превращается в инструмент для атак. Такая ирония у ИИ-рынка уже почти жанровая.
По данным Bloomberg, участники закрытого сообщества нашли путь к системе довольно быстро, опираясь на знания о том, как Anthropic обычно разворачивает свои модели. То есть безопасность здесь подвела не только технология, но и скучная, вечная классика жанра: цепочка доверия через подрядчика, которая в теории должна упрощать доступ, а на практике создаёт лишнюю дверь.
Как получили доступ к Mythos
Группа, судя по описанию, действовала не как хакерский спецназ из кино, а как терпеливые охотники за ранними ИИ-моделями. Сначала они попробовали использовать доступ сотрудника подрядчика, а после этого начали тестировать Mythos и показывать журналистам скриншоты и живую демонстрацию работы инструмента.
Anthropic утверждает, что внутренние системы компании не задеты, и это пока единственная хорошая новость в этой истории. Но для продукта, который проходит по категории «корпоративная защита», даже внешний доступ выглядит не как досадный сбой, а как проверка всей модели распространения, где безопасность зависит не только от кода, но и от дисциплины партнёров.
Что такое Project Glasswing
Mythos был частью инициативы Project Glasswing и распространялся в ограниченном режиме среди проверенных партнёров, включая крупные технологические компании. Логика понятна: если раздать такой инструмент всем подряд, он быстро окажется в руках тех, кому он нужен не для защиты. Но ограниченный доступ не отменяет старую проблему облачной эпохи. Чем больше посредников между компанией и продуктом, тем больше шансов, что кто-то однажды нажмёт не ту кнопку.
Для Anthropic это ещё и репутационный удар по самому сюжету, на котором продаются подобные системы. Компания фактически говорит клиентам: мы умеем защищать вас от угроз с помощью ИИ. После такого инцидента клиент неизбежно смотрит на эту фразу чуть холоднее, чем хотелось бы пиару.
Пока расследование продолжается, и именно от его результатов станет ясно, был ли это разовый пролом или симптом более широкой проблемы в том, как компания раздаёт доступ к своим экспериментальным моделям. Но уже сейчас видно другое: граница между «защитным» и «опасным» ИИ снова оказалась тоньше, чем хотелось бы разработчикам.



