Anthropic случайно раскрыла слежку Claude за негативом

Утечка исходного кода Claude Code показала, что Anthropic не только спешно закрывает дыру, но и собирает очень конкретную телеметрию о пользователях: в логах отмечается, как часто они ругаются на ассистента и меняется ли их настроение. Для компании это обычная аналитика, для всех остальных — очередное напоминание, что «дружелюбный» ИИ любит считать ваши эмоции, пока вы печатаете.
В слитых фрагментах обнаружили регулярки для фраз вроде «wtf», «ffs» и более жёсткой брани, после чего система тихо помечает запись как «is_negative: true». В индустрии это уже знакомый приём: OpenAI, Google и другие игроки тоже измеряют качество ответов через пользовательские сигналы, но здесь всплыл почти карикатурный маркер — внутренний «f***s» chart. Параллельно всплыли намёки на новые модели и экспериментальную функцию «buddy», которая сидит рядом с полем ввода и реагирует на код.
Что именно нашли в утечке Claude Code
По словам разработчика Рахата Чоудхури, Claude Code отслеживает не только токсичную лексику, но и внутренние сигналы настроения, причём часть классификации доступна только сотрудникам. Когда сотрудник Anthropic выглядит раздражённым, система даже предлагает отправить транскрипт и оформить баг-репорт — почти терапия, только с корпоративной формой.
Самое забавное здесь не в списке ругательств, а в том, насколько буднично это устроено: модель не меняет поведение, а молча складывает метку в аналитику. Такой подход обычно продают как заботу о продукте, но на практике он показывает, что AI-ассистенты всё меньше похожи на магию и всё больше — на очень внимательный сборщик обратной связи.
Как Anthropic объясняет утечку
Создатель Claude Code Борис Черны прямо назвал инцидент человеческой ошибкой: в процессе деплоя не выполнили один из ручных шагов. Он также пообещал больше автоматизации и дополнительных проверок, что звучит логично ровно до момента, когда компания предлагает лечить сбой ещё большим количеством ИИ.
После утечки команда, по его словам, никого не уволила. Это важная деталь не столько из гуманизма, сколько из корпоративной мифологии: в крупных ИИ-компаниях каждая публичная промашка тут же превращается в тест на зрелость процессов, а не только на скорость пресс-реакции.
Почему разработчики уже копируют слитый код
Пока Anthropic рассылает запросы на удаление копий, сообщество делает обратное: репозиторий Claw Code, созданный студентом-разработчиком Сигрид Джин, уже был форкнут почти 100 000 раз. И это не просто цифровое мародёрство — такие утечки моментально снижают барьер входа для тех, кто хотел бы собрать собственный агент, не проходя через закрытый корпоративный фильтр.
Джин утверждает, что подобные инструменты всё чаще используются не только программистами: он упомянул кардиологов, создающих приложения для ухода за пациентами, и юристов, автоматизирующих согласование разрешений. В этом и есть главный эффект истории: как только код вываливается наружу, он перестаёт быть только проблемой безопасности и становится бесплатным учебником по тому, как устроен новый слой софта.
Теперь вопрос не в том, исчезнет ли «f***s chart» из внутренних панелей Anthropic, а в том, сколько ещё таких метрик прячется в ассистентах, которые обещают помогать человеку, а заодно старательно измеряют его раздражение. И если следующий крупный слив покажет не только аналитику настроения, но и более тонкие профили поведения, пиар-отделам снова придётся делать вид, что это «обычная практика».




