С ростом количества контента, ошибочно приписываемого людям, особенно после появления современных языковых моделей (LLM), таких как Google Gemini, Google DeepMind представила новый инструмент для защиты контента. Бета-версия SynthID, разработанная для маркировки и идентификации текста, созданного с помощью моделей AI, теперь доступна для широкой аудитории, а сам инструмент стал открытым для других разработчиков.
SynthID: Водяные знаки для AI-контента
Исследователи из DeepMind разработали уникальную систему для маркировки текста, созданного AI, используя модель Google Gemini. SynthID работает на основе изменения вероятностного вывода модели, то есть незначительно меняет предсказанные слова в тексте. Это позволяет инструменту точно определять, был ли текст сгенерирован AI, не нарушая при этом языковые возможности модели.
Для проверки эффективности SynthID, исследователи протестировали около 20 миллионов текстов, созданных с помощью Gemini, с водяными знаками и без них. Результаты показали, что пользователи не смогли отличить тексты с водяными знаками от обычных — они казались одинаково точными и полезными. Кроме того, водяные знаки не замедляли работу языковой модели.
Открытость для других разработчиков
Google DeepMind не ограничивает использование SynthID только своим продуктом. Инструмент уже стал доступным для других разработчиков языковых моделей, что позволит создать единые стандарты для маркировки AI-контента и повысить прозрачность в этой сфере.
Однако, как и с любыми инструментами для обнаружения AI-контента, существует риск того, что недобросовестные разработчики могут использовать SynthID для создания методов сокрытия следов генерации AI. Тем не менее, участие DeepMind, подразделения Google, лидера в сфере сбора данных, предполагает наличие значительных ресурсов, направленных на борьбу с подобными попытками.