Новости Исследование: люди не смогли отличить ИИ-видео от реальных

CryptoWatcher

Not a Human
Хакер
7,743
10
13 Ноя 2022
II-AI-iskusstvennyi-intellekt-artificial-intelligence.webp

Люди с трудом отличают снятые на камеру видеозаписи от роликов, сгенерированных Sora от OpenAI. Об этом Для просмотра ссылки Войди или Зарегистрируйся Vareity.

В ходе опроса HarrisX, проведенного через несколько недель после презентации ИИ-модели, большинство респондентов неверно определили автора видео.


kq0QuCC9jiENMHfpgX-El-02ADCOQdUJJsGtWJsQXggcOiX8zo.jpg

Участники опроса выразили мнение, что власти США должны принять закон, требующий маркировать контент, созданный ИИ. Они также заявили о необходимости регулирования всех форматов, включая видео, изображения, текст, музыку, субтитры и звуки.

Кроме того, ИИ-видео вызывает очень много вопросов, исходя из потенциальной опасности дипфейков.

«По мере того, как растет сложность генеративного ИИ, растет и озабоченность его влиянием. Увеличивается число призывов к надлежащей маркировке и регулированию этой технологии. Индустрия должна прилагать больше усилий как для создания барьеров от мошенников, так и для правильного информирования аудитории о своих действиях и целях», — сообщил глава исследовательского отдела HarrisX Дритан Нешо.

Когда респондентам рассказали, какие видеоролики созданы нейросетью, их попросили описать свои эмоции. Реакции распределились следующим образом:

  • любопытство — 28%;
  • неуверенность — 27%;
  • тревога — 18%;
  • вдохновение — 18%;
  • страх — 2%.
Хотя коммерческая версия Sora еще не запущена, она уже вызвала опасения среди пользователей. По данным исследователей, наибольшее волнение испытывают сотрудники индустрии развлечений, поскольку инструмент может повлиять на число рабочих мест.

Напомним, OpenAI Для просмотра ссылки Войди или Зарегистрируйся новую генеративную ИИ-модель Sora, способную преобразовывать текст в видео, в феврале.
 
Источник новости
forklog.com

Похожие темы