
Anthropic на этой неделе внезапно оказалась в роли, которую обычно раздаёт другим: в сеть утёк фрагмент исходного кода её агентного инструмента Claude Code, а компания быстро отправила запрос на удаление по DMCA. История вышла далеко за рамки обычной неловкости: код разошёлся по GitHub, собрал миллионы просмотров и тут же стал сырьём для чужих форков и разборов.
Ирония прозрачна даже без спецэффектов. Крупнейшие ИИ-компании годами спорят о том, можно ли обучать модели на чужих книгах, статьях и постах без явного согласия, а теперь Anthropic сама опирается на авторское право, чтобы закрыть доступ к собственным наработкам. Для отрасли это ещё и напоминание: чем быстрее ИИ помогает строить продукты, тем быстрее он же помогает утащить то, что лучше бы не покидало внутренний репозиторий.
По словам специалиста по кибербезопасности Пола Прайса, инцидент не выглядит катастрофой. По его оценке, утечка затронула не самые чувствительные элементы системы, а скорее «harness» — программную надстройку, которая связывает языковую модель с внешним контекстом и рабочими процессами.
Это неприятно, но не смертельно: конкурентам куда интереснее не оболочка, а то, как внутри устроены переходы между моделью, инструментами и логикой исполнения. Именно такие детали обычно и отличают просто работающий ИИ-продукт от того, что потом называют «лучшим агентом на рынке» — пока кто-то не откроет исходники и не убедится, что магия, как обычно, держалась на инженерной дисциплине.
Anthropic в этом году уже сама была объектом нескольких громких судебных атак. В сентябре суд обязал компанию выплатить $1,5 млрд по коллективному иску авторов и издателей, а ранее Reddit обвинил её в скрапинге пользовательского контента, а Universal Music Group, Concord и ABKCO подали иск из-за загрузки более 20 000 защищённых авторским правом песен для обучения моделей.
На этом фоне попытка компании защитить собственный код выглядит не просто юридической формальностью, а почти учебником по жанру «когда закон вдруг нравится». ИИ-отрасль давно живёт по правилу взаимного подозрения: сегодня ты споришь о чужом контенте, завтра защищаешь уже свой репозиторий и надеешься, что форк не успеет стать вирусным раньше письма юристов.
Claude Code — один из самых заметных ИИ-агентов Anthropic, и именно такие продукты сейчас стали новой ареной конкуренции между Anthropic, OpenAI и Google. Утечки здесь бьют не только по репутации: они дают соперникам возможность подсмотреть, как устроены практические компромиссы, которые обычно скрыты за маркетингом про «умного помощника».
Самый вероятный итог этого эпизода — не крах, а ужесточение внутренней дисциплины. Вопрос теперь в другом: если даже компании, которая строит инструменты для работы с кодом и контекстом, не удаётся удержать собственный исходник в стенах, насколько устойчивой вообще окажется следующая волна ИИ-агентов, когда они станут ещё ближе к данным и инфраструктуре?