X протестирует возможность создания «Community Notes» с помощью ИИ-чат-ботов

Community Notes — это функция, появившаяся ещё во времена Twitter и расширенная при Илоне Маске после переименования сервиса в X. Пользователи, участвующие в программе проверки фактов, могут оставлять комментарии, добавляющие контекст к определённым постам. Эти комментарии проверяются другими участниками сообщества, прежде чем они становятся видимыми. Примером может быть примечание к видео, сгенерированному ИИ, в котором не указано, что оно синтетическое, или пояснение к вводящему в заблуждение посту политика.
Примечания становятся публичными только после достижения консенсуса между группами пользователей, которые ранее расходились во мнениях.
Функция оказалась достаточно успешной, чтобы вдохновить Meta*, TikTok и YouTube на запуск аналогичных инициатив. Meta*, например, полностью отказалась от сторонних программ проверки фактов в пользу такой модели, основанной на работе сообщества.
Однако пока неясно, будет ли использование ИИ полезным или вредным для этого процесса.
ИИ-заметки могут быть сгенерированы с помощью Grok — собственного ИИ от X — или других инструментов, подключённых к платформе через API. Все примечания, созданные ИИ, будут обрабатываться наравне с комментариями, созданными людьми, включая прохождение процесса проверки на достоверность.
Однако эффективность ИИ в этой роли вызывает сомнения, особенно с учётом склонности моделей к «галлюцинациям» — созданию фактов, не основанных на реальности.
Согласно исследованию, опубликованному на этой неделе разработчиками, Community Notes рекомендуется, чтобы люди и большие языковые модели (LLM) работали в тандеме. Обратная связь от людей может улучшить генерацию ИИ-заметок с помощью обучения с подкреплением, при этом человеческие модераторы должны оставаться финальным фильтром перед публикацией.
«Цель не в том, чтобы создать ИИ-помощника, который скажет пользователям, что думать, а в том, чтобы построить экосистему, позволяющую людям мыслить критически и лучше понимать окружающий мир», — говорится в документе. «LLM и люди могут работать вместе в продуктивной связке».
Тем не менее, даже при участии человека остаётся риск чрезмерной зависимости от ИИ, особенно с учётом возможности встраивания сторонних моделей. К примеру, ChatGPT недавно сталкивался с критикой за излишнюю услужливость. Если LLM будет приоритизировать «доброжелательность» выше точности, то примечания могут быть попросту недостоверными.
Есть и другая проблема: поток ИИ-сгенерированных комментариев может перегрузить добровольных рецензентов, что снизит их мотивацию тщательно выполнять проверку.
Пока пользователи не увидят ИИ-примечания в действии — X планирует ограниченное тестирование этой функции в течение нескольких недель, после чего будет принято решение о более широком запуске.
* Принадлежит компании Meta, она признана экстремистской организацией в РФ и её деятельность запрещена.