График с множеством точек и линий Mythos от Anthropic

Anthropic расследует утечку доступа к экспериментальному инструменту Mythos после того, как к нему добралась неавторизованная группа через среду стороннего подрядчика. История неприятна не только самим фактом доступа, но и тем, что речь идёт о продукте для корпоративной защиты, который в чужих руках легко превращается в инструмент для атак. Такая ирония у ИИ-рынка уже почти жанровая.

По данным Bloomberg, участники закрытого сообщества нашли путь к системе довольно быстро, опираясь на знания о том, как Anthropic обычно разворачивает свои модели. То есть безопасность здесь подвела не только технология, но и скучная, вечная классика жанра: цепочка доверия через подрядчика, которая в теории должна упрощать доступ, а на практике создаёт лишнюю дверь.

Как получили доступ к Mythos

Группа, судя по описанию, действовала не как хакерский спецназ из кино, а как терпеливые охотники за ранними ИИ-моделями. Сначала они попробовали использовать доступ сотрудника подрядчика, а после этого начали тестировать Mythos и показывать журналистам скриншоты и живую демонстрацию работы инструмента.

Anthropic утверждает, что внутренние системы компании не задеты, и это пока единственная хорошая новость в этой истории. Но для продукта, который проходит по категории «корпоративная защита», даже внешний доступ выглядит не как досадный сбой, а как проверка всей модели распространения, где безопасность зависит не только от кода, но и от дисциплины партнёров.

Что такое Project Glasswing

Mythos был частью инициативы Project Glasswing и распространялся в ограниченном режиме среди проверенных партнёров, включая крупные технологические компании. Логика понятна: если раздать такой инструмент всем подряд, он быстро окажется в руках тех, кому он нужен не для защиты. Но ограниченный доступ не отменяет старую проблему облачной эпохи. Чем больше посредников между компанией и продуктом, тем больше шансов, что кто-то однажды нажмёт не ту кнопку.

Для Anthropic это ещё и репутационный удар по самому сюжету, на котором продаются подобные системы. Компания фактически говорит клиентам: мы умеем защищать вас от угроз с помощью ИИ. После такого инцидента клиент неизбежно смотрит на эту фразу чуть холоднее, чем хотелось бы пиару.

Пока расследование продолжается, и именно от его результатов станет ясно, был ли это разовый пролом или симптом более широкой проблемы в том, как компания раздаёт доступ к своим экспериментальным моделям. Но уже сейчас видно другое: граница между «защитным» и «опасным» ИИ снова оказалась тоньше, чем хотелось бы разработчикам.

Источник: Ixbt
Сергей Кузнецов
Главный редактор itzine.ru и технический журналист с 15-летним стажем. Специализируется на глубоком тестировании аудиооборудования, фототехники и потребительской электроники. Автор более 5000 материалов, охватывающих широкий спектр тем: от обзоров игровых кресел и сетевого оборудования до аналитики рынка смартфонов и носимых гаджетов. На платформе курирует экспертные разделы и формирует редакционную политику издания.

Leave a reply