Логотип OpenAI на смартфоне около красной поверхности

OpenAI выпустила новый «план безопасности» для защиты детей от AI-контента, пытаясь одновременно успокоить регуляторов и не выглядеть так, будто проблема возникла вчера. Документ рассчитан на то, чтобы быстрее находить AI-генерируемый контент с сексуальной эксплуатацией детей, лучше передавать его властям и проще расследовать такие кейсы.

Повод у этой спешки неприятно конкретный. Internet Watch Foundation говорит, что в первой половине 2025 года обнаружила более 8 000 сообщений о AI-сгенерированном материале о сексуальном насилии над детьми, и это на 14% больше, чем годом ранее. Генеративный ИИ уже успел стать удобным инструментом для шантажа, grooming и фабрикации фальшивых «доказательств», так что индустрия закономерно получила тот самый побочный эффект, о котором в пресс-релизах обычно пишут шёпотом.

Что входит в Child Safety Blueprint

У OpenAI есть три основных направления. Первое — подогнать законодательство под AI-сгенерированный материал о насилии. Второе — сделать отчёты для правоохранителей менее бесполезными и более пригодными для работы. Третье — встроить защитные механизмы прямо в модели, а не клеить их сверху, как временную заплатку.

Компания подготовила этот план вместе с National Center for Missing and Exploited Children и Attorney General Alliance, а также с участием генеральных прокуроров Северной Каролины Джеффа Джексона и Юты Дерека Брауна. Это важная деталь не потому, что у документа красивые соавторы, а потому, что OpenAI явно пытается показать: дальше разговор идёт не только с пользователями, но и с людьми, которые могут устроить ей очень неприятный день в суде.

Почему OpenAI торопится

План появился на фоне куда более широкой тревоги вокруг того, как чат-боты влияют на подростков. В прошлом ноябре Social Media Victims Law Center и Tech Justice Law Project подали в Калифорнии 7 исков, утверждая, что OpenAI выпустила GPT-4o слишком рано, а его «психологически манипулятивная» природа сыграла роль в смертях и тяжёлых психозах после долгого общения с ботом. Содержательная сторона этих претензий ещё будет разбираться отдельно, но пиар-кризис у компании уже оформился вполне самостоятельно.

У OpenAI это уже не первая попытка написать себе правила поведения задним числом. Ранее компания обновляла рекомендации для общения с пользователями младше 18 лет, запрещая генерацию неприемлемого контента, подталкивание к самоповреждению и советы, как скрывать опасное поведение от родителей. Недавно она также выпустила похожий план для подростков в Индии. Судя по всему, следующий этап для всей отрасли будет не про «смелый ИИ», а про очень дорогую и очень запоздалую работу над безопасностью.

Источник: Techcrunch

Leave a reply