Люди не отличали видео, сделанные OpenAI Sora, от реальных
Несколько недель назад компания Open AI представила нейросеть под названием Sora, способную создавать реалистичное видео продолжительностью до одной минуты и разрешением 1920 × 1080 пикселей по текстовому описанию. В дальнейшем компания HarrisX провела опрос среди взрослых американцев, предложив им отличить сгенерированные ИИ видеоролики от настоящих. Оказалось, что большая часть участников опроса ошиблась в 5 из 8 предложенных роликов.
Участникам показывали эти ролики в случайном порядке с целью определить, сгенерированы ли они человеком или ИИ. Мнения участников разделились, но в 5 из 8 случаев большинство ответивших ошиблись.
Это исследование указывает на то, что контент, создаваемый с помощью генеративных нейросетей, становится все более реалистичным, и его всё труднее отличить от реального. Это приводит к росту призывов к властям различных стран о необходимости законодательного регулирования данной области. В частности, предлагается обязать пользователей нейросетей маркировать генерируемый контент, чтобы избежать его использования в качестве источника дезинформации.
Хотя алгоритм Sora пока не доступен широкой публике, уже сейчас он вызывает серьезные обеспокоенности в обществе, особенно в индустрии развлечений, где развитие технологий генерации видео может иметь негативные последствия, например, для киностудий. Кроме того, возрастает опасение, что подобные алгоритмы, аналогичные Sora, могут использоваться для создания фейковых видео с участием политиков и знаменитостей, что может привести к непредсказуемым последствиям.