OpenAI выпустила план по защите детей от AI-контента

OpenAI выпустила новый «план безопасности» для защиты детей от AI-контента, пытаясь одновременно успокоить регуляторов и не выглядеть так, будто проблема возникла вчера. Документ рассчитан на то, чтобы быстрее находить AI-генерируемый контент с сексуальной эксплуатацией детей, лучше передавать его властям и проще расследовать такие кейсы.
Повод у этой спешки неприятно конкретный. Internet Watch Foundation говорит, что в первой половине 2025 года обнаружила более 8 000 сообщений о AI-сгенерированном материале о сексуальном насилии над детьми, и это на 14% больше, чем годом ранее. Генеративный ИИ уже успел стать удобным инструментом для шантажа, grooming и фабрикации фальшивых «доказательств», так что индустрия закономерно получила тот самый побочный эффект, о котором в пресс-релизах обычно пишут шёпотом.
Что входит в Child Safety Blueprint
У OpenAI есть три основных направления. Первое — подогнать законодательство под AI-сгенерированный материал о насилии. Второе — сделать отчёты для правоохранителей менее бесполезными и более пригодными для работы. Третье — встроить защитные механизмы прямо в модели, а не клеить их сверху, как временную заплатку.
Компания подготовила этот план вместе с National Center for Missing and Exploited Children и Attorney General Alliance, а также с участием генеральных прокуроров Северной Каролины Джеффа Джексона и Юты Дерека Брауна. Это важная деталь не потому, что у документа красивые соавторы, а потому, что OpenAI явно пытается показать: дальше разговор идёт не только с пользователями, но и с людьми, которые могут устроить ей очень неприятный день в суде.
Почему OpenAI торопится
План появился на фоне куда более широкой тревоги вокруг того, как чат-боты влияют на подростков. В прошлом ноябре Social Media Victims Law Center и Tech Justice Law Project подали в Калифорнии 7 исков, утверждая, что OpenAI выпустила GPT-4o слишком рано, а его «психологически манипулятивная» природа сыграла роль в смертях и тяжёлых психозах после долгого общения с ботом. Содержательная сторона этих претензий ещё будет разбираться отдельно, но пиар-кризис у компании уже оформился вполне самостоятельно.
У OpenAI это уже не первая попытка написать себе правила поведения задним числом. Ранее компания обновляла рекомендации для общения с пользователями младше 18 лет, запрещая генерацию неприемлемого контента, подталкивание к самоповреждению и советы, как скрывать опасное поведение от родителей. Недавно она также выпустила похожий план для подростков в Индии. Судя по всему, следующий этап для всей отрасли будет не про «смелый ИИ», а про очень дорогую и очень запоздалую работу над безопасностью.




