Что означает OpenAI Sora для будущего правды? (hero image 5)

На этой неделе OpenAI запустила инструмент Sora, позволяющий создавать видео на основе текста, что вызвало огромный интерес. Однако его влияние на восприятие истины в цифровую эпоху вызывает множество вопросов. Рассмотрим, как общество адаптируется к этой технологии и что нас ждёт впереди.

Уроки из прошлого: кинематограф и Sora

Инструмент Sora напоминает ранние короткометражные фильмы, такие как знаменитое «Прибытие поезда» (1896) братьев Люмьер. Эти 50-секундные ролики использовались для демонстрации возможностей новой технологии — кинематографа. Легенда гласит, что зрители в панике убегали из зала, думая, что поезд едет прямо на них. Однако современные исследования опровергают этот миф: аудитория быстро адаптировалась к новой форме искусства.

Sora следует тому же принципу, позволяя пользователям создавать короткие видео продолжительностью до 20 секунд. Но, в отличие от кинематографа XIX века, технология Sora уже сталкивается с паникой относительно её влияния на общество, особенно в условиях постправды.

Угрозы и вызовы эпохи постправды

Sora способна создавать видео, которые на первый взгляд выглядят реалистично, но могут быть использованы для дезинформации. В эпоху конспирологических теорий и фейковых новостей это вызывает опасения. Например, ранее уже использовались поддельные видео для политических целей. Теперь Sora может облегчить процесс создания убедительных, но фальшивых материалов.

Хотя OpenAI внедрила водяные знаки (как видимые, так и невидимые), их малозаметность делает их удаление простым делом для современных видеоредакторов. Это открывает дорогу к массовой дезинформации со стороны политиков, корпораций или медийных личностей.

Недостатки Sora и их влияние

На данном этапе развития технология далеко не совершенна. Примеры показывают, что видео, созданные Sora, содержат очевидные ошибки: исчезающие предметы, искажения в деталях или странные визуальные решения. Например, в видео с журналистом, стучащим по столу, ручка в его руке появлялась и исчезала. Другой пример: цепочка рэпера внезапно превращалась в хвост, а свитер с оленем — в версию с восьминогим животным.

Эти ошибки могут сыграть позитивную роль, выступая своего рода «вакциной» против фейков. Наблюдая за недостатками AI-видео, пользователи начинают критически оценивать подобные материалы, что снижает вероятность их обмана.

Возможности и перспективы

Несмотря на свои ограничения, Sora уже может находить применение в создании стандартного контента, например, B-roll для YouTube или обучающих материалов. Однако сложные и нестандартные запросы пока остаются вне её досягаемости. Это создаёт значительный барьер для тех, кто намерен использовать технологию для манипуляции общественным мнением.

Интересно, что ранняя неидеальность технологии может стать защитным механизмом. Ошибки видео, генерируемых AI, напоминают обществу о том, что не всё увиденное на экране является реальностью. Это укрепляет навыки критического мышления.

Будущее визуального контента

Технологии, подобные Sora, могут оказать значительное влияние на индустрию. Но их развитие должно сопровождаться строгим контролем и образованием общества, чтобы минимизировать риски дезинформации. История кинематографа показывает, что человечество быстро адаптируется к новым форматам медиа, и, вероятно, мы сможем эффективно справиться с вызовами AI-видео.

Подпишись на ITZine в Дзен Новостях
Читай ITZine в Telegram
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии