658f9290 0806 11f1 b56b bf8bb0174edb

Мринанк Шарма, руководитель команды по безопасности ИИ в Anthropic, подал в отставку и в письме в X написал, что «мир в опасности» — не только из‑за ИИ и биоружия, но из‑за «целого ряда взаимосвязанных кризисов». Он уходит, чтобы заниматься поэзией и вернуться в Великобританию «и стать невидимым».

Это отставка — не просто эмоциональный жест одного сотрудника. Она высвечивает трения между маркерной репутацией компаний как защитников этики ИИ и реальностью коммерческого давления, судебных исков и гонки за монетизацией, где привычные нормы безопасности часто отодвигаются на второй план.

Почему исследователь Anthropic ушёл

Шарма перечислил несколько причин: вопросы безопасности ИИ, риски биотерроризма и «взаимосвязанные кризисы», а также ощущение, что ценности компании иногда уступают давлению извне. По его словам, он давно изучал, почему генеративные системы «лижатся» пользователю, как ИИ может помочь злоупотреблениям и как ассистенты меняют человеческое поведение — но пришло время уйти.

«Мир в опасности. И не только из‑за ИИ или биоружия, а из‑за целого ряда взаимосвязанных кризисов, развернувшихся в этот самый момент»,

Мринанк Шарма, руководитель команды по безопасности, Anthropic

Что известно об Anthropic и Claude

  • Anthropic основана в 2021 году бывшими сотрудниками OpenAI и позиционирует себя как «публично ориентированная корпорация», занимающаяся снижением рисков ИИ.
  • Компания выпускает модель Claude — прямого конкурента ChatGPT.
  • В 2025 году Anthropic согласилась выплатить $1,5 млрд по групповому иску авторов, которые утверждали, что их работы использовались для обучения моделей.
  • Компания публично критиковала OpenAI за решение вводить рекламу в ChatGPT и даже выпускала рекламные ролики в ответ.

Кто выигрывает, а кто проигрывает

Побеждают те, кому нужны масштаб и доходы: крупные платформы, инвесторы и рекламодатели, которые видят в ИИ новый канал роста. Монетизация позволяет ускорить развертывание продуктов и расширить аудиторию — но платой часто становятся компромиссы по безопасности и приватности.

Проигрывают исследователи безопасности, пользователи и общество в целом. Когда опытные специалисты уходят из индустрии или замыкаются в академии и искусстве, у компаний остаётся меньше внутрикорпоративного контроля над рисками. Это снижает доверие и усиливает аргументы в пользу внешнего регулирования.


Что это значит для индустрии

Отставки вроде этой — и сопутствующие публичные заявления — превращаются в каталитические события. Они ускоряют обсуждение трёх вещей: кадровой устойчивости команд безопасности, прозрачности коммерческих решений и юридической ответственности за использование обучающих данных.

  • Кадры: компании будут либо повышать зарплаты и льготы, чтобы удерживать специалистов, либо терять их в пользу науки, НПО и государственных структур.
  • Регуляция: общественное давление и крупные судебные выплаты делают вероятным более жёсткий надзор за моделями и данными.
  • Репутация: заявления о «безопасности» всё хуже работают как защита бренда, если за ними не следуют реальные практики.

Отдельный вектор — моральный эффект. Решение Шармы уйти в поэзию и «стать невидимым» читается как отказ от борьбы внутри компании. Если таких уходов станет больше, это будет сигналом: внутри индустрии граница между PR‑этичностью и рыночной реальностью прорвана.

Прогноз

В краткой перспективе компании продолжат балансировать между безопасностью и доходом — до тех пор, пока давление регуляторов, судов или массовые отказы сотрудников не заставят изменить модель. В долгой перспективе возможны два сценария: усиление внешних правил и независимого аудита или дальнейшая централизация ИИ у тех, кто готов платить за скорость и масштаб.

Leave a reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *