X

Community Notes — это функция, появившаяся ещё во времена Twitter и расширенная при Илоне Маске после переименования сервиса в X. Пользователи, участвующие в программе проверки фактов, могут оставлять комментарии, добавляющие контекст к определённым постам. Эти комментарии проверяются другими участниками сообщества, прежде чем они становятся видимыми. Примером может быть примечание к видео, сгенерированному ИИ, в котором не указано, что оно синтетическое, или пояснение к вводящему в заблуждение посту политика.

Примечания становятся публичными только после достижения консенсуса между группами пользователей, которые ранее расходились во мнениях.

Функция оказалась достаточно успешной, чтобы вдохновить Meta*, TikTok и YouTube на запуск аналогичных инициатив. Meta*, например, полностью отказалась от сторонних программ проверки фактов в пользу такой модели, основанной на работе сообщества.

threads dms reply

Однако пока неясно, будет ли использование ИИ полезным или вредным для этого процесса.


ИИ-заметки могут быть сгенерированы с помощью Grok — собственного ИИ от X — или других инструментов, подключённых к платформе через API. Все примечания, созданные ИИ, будут обрабатываться наравне с комментариями, созданными людьми, включая прохождение процесса проверки на достоверность.

Однако эффективность ИИ в этой роли вызывает сомнения, особенно с учётом склонности моделей к «галлюцинациям» — созданию фактов, не основанных на реальности.


Согласно исследованию, опубликованному на этой неделе разработчиками, Community Notes рекомендуется, чтобы люди и большие языковые модели (LLM) работали в тандеме. Обратная связь от людей может улучшить генерацию ИИ-заметок с помощью обучения с подкреплением, при этом человеческие модераторы должны оставаться финальным фильтром перед публикацией.

«Цель не в том, чтобы создать ИИ-помощника, который скажет пользователям, что думать, а в том, чтобы построить экосистему, позволяющую людям мыслить критически и лучше понимать окружающий мир», — говорится в документе. «LLM и люди могут работать вместе в продуктивной связке».


Тем не менее, даже при участии человека остаётся риск чрезмерной зависимости от ИИ, особенно с учётом возможности встраивания сторонних моделей. К примеру, ChatGPT недавно сталкивался с критикой за излишнюю услужливость. Если LLM будет приоритизировать «доброжелательность» выше точности, то примечания могут быть попросту недостоверными.

Есть и другая проблема: поток ИИ-сгенерированных комментариев может перегрузить добровольных рецензентов, что снизит их мотивацию тщательно выполнять проверку.

Пока пользователи не увидят ИИ-примечания в действии — X планирует ограниченное тестирование этой функции в течение нескольких недель, после чего будет принято решение о более широком запуске.

* Принадлежит компании Meta, она признана экстремистской организацией в РФ и её деятельность запрещена.

Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии