Исследователь Anthropic ушёл и предупредил, что мир в опасности

Мринанк Шарма, руководитель команды по безопасности ИИ в Anthropic, подал в отставку и в письме в X написал, что «мир в опасности» — не только из‑за ИИ и биоружия, но из‑за «целого ряда взаимосвязанных кризисов». Он уходит, чтобы заниматься поэзией и вернуться в Великобританию «и стать невидимым».
Это отставка — не просто эмоциональный жест одного сотрудника. Она высвечивает трения между маркерной репутацией компаний как защитников этики ИИ и реальностью коммерческого давления, судебных исков и гонки за монетизацией, где привычные нормы безопасности часто отодвигаются на второй план.
Почему исследователь Anthropic ушёл
Шарма перечислил несколько причин: вопросы безопасности ИИ, риски биотерроризма и «взаимосвязанные кризисы», а также ощущение, что ценности компании иногда уступают давлению извне. По его словам, он давно изучал, почему генеративные системы «лижатся» пользователю, как ИИ может помочь злоупотреблениям и как ассистенты меняют человеческое поведение — но пришло время уйти.
«Мир в опасности. И не только из‑за ИИ или биоружия, а из‑за целого ряда взаимосвязанных кризисов, развернувшихся в этот самый момент»,
Мринанк Шарма, руководитель команды по безопасности, Anthropic
Что известно об Anthropic и Claude
- Anthropic основана в 2021 году бывшими сотрудниками OpenAI и позиционирует себя как «публично ориентированная корпорация», занимающаяся снижением рисков ИИ.
- Компания выпускает модель Claude — прямого конкурента ChatGPT.
- В 2025 году Anthropic согласилась выплатить $1,5 млрд по групповому иску авторов, которые утверждали, что их работы использовались для обучения моделей.
- Компания публично критиковала OpenAI за решение вводить рекламу в ChatGPT и даже выпускала рекламные ролики в ответ.
Кто выигрывает, а кто проигрывает
Побеждают те, кому нужны масштаб и доходы: крупные платформы, инвесторы и рекламодатели, которые видят в ИИ новый канал роста. Монетизация позволяет ускорить развертывание продуктов и расширить аудиторию — но платой часто становятся компромиссы по безопасности и приватности.
Проигрывают исследователи безопасности, пользователи и общество в целом. Когда опытные специалисты уходят из индустрии или замыкаются в академии и искусстве, у компаний остаётся меньше внутрикорпоративного контроля над рисками. Это снижает доверие и усиливает аргументы в пользу внешнего регулирования.
Что это значит для индустрии
Отставки вроде этой — и сопутствующие публичные заявления — превращаются в каталитические события. Они ускоряют обсуждение трёх вещей: кадровой устойчивости команд безопасности, прозрачности коммерческих решений и юридической ответственности за использование обучающих данных.
- Кадры: компании будут либо повышать зарплаты и льготы, чтобы удерживать специалистов, либо терять их в пользу науки, НПО и государственных структур.
- Регуляция: общественное давление и крупные судебные выплаты делают вероятным более жёсткий надзор за моделями и данными.
- Репутация: заявления о «безопасности» всё хуже работают как защита бренда, если за ними не следуют реальные практики.
Отдельный вектор — моральный эффект. Решение Шармы уйти в поэзию и «стать невидимым» читается как отказ от борьбы внутри компании. Если таких уходов станет больше, это будет сигналом: внутри индустрии граница между PR‑этичностью и рыночной реальностью прорвана.
Прогноз
В краткой перспективе компании продолжат балансировать между безопасностью и доходом — до тех пор, пока давление регуляторов, судов или массовые отказы сотрудников не заставят изменить модель. В долгой перспективе возможны два сценария: усиление внешних правил и независимого аудита или дальнейшая централизация ИИ у тех, кто готов платить за скорость и масштаб.




