ПОСЛЕДНИЕ НОВОСТИ
$
10
За просмотр новости вы заработаете
10 баллов

Участвуй в работе сайта и зарабатывай!
Узнать подробности и свой рейтинг

Искусственный интеллект научили создавать реалистичные видеофальшивоки

В интернете появляются отредактированные видеоролики, на которых люди произносят определённые слова (хотя в действительности их не произносили) или совершают какие-то действия (хотя в действительности их не совершали).

Искусственный интеллект нучили создавать реалистичные видеофальшивоки
Искусственный интеллект нучили создавать реалистичные видеофальшивоки

 Благодаря новым разработкам на основе искусственного интеллекта качество подобных видеофальшивок возрастёт в разы.

Сегодня технологии создания поддельных видеороликов не ограничиваются движениями губ и лица человека на исходных кадрах – система на основе искусственного интеллекта способна подготовить реалистичную видеозапись, на которой отредактированное цифровое изображение человека может двигать головой в разные стороны, моргать и проявлять эмоции. Все действия и слова актёра, который снимется в исходном видеоролике, будут перенесены в поддельный видеоролик.

Команда разработчиков сравнила новый алгоритм с существующими системами по изменению видео и фото, к созданию которых имеют отношение Facebook и Google. Новый алгоритм превзошёл существующие техники, а участники эксперимента с трудом могли определить подлинность видеороликов.

Работу исследователей частично профинансировала компания Google. Создатели системы надеются, что с помощью новой технологии удастся улучшить виртуальную реальность. Чтобы приступить к созданию изменённого ролика, искусственному интеллекту необходимо изучить всего несколько минут исходного материала. Поэтому исследователи утверждают, что программы для высококачественного редактирования видео станут более доступными.

Разработчики понимают, что их изобретение может вызвать некоторые опасения в обществе.

Исследователь Юстус Тис сообщил изданию The Register, что переживает по поводу этической стороны вопроса. По словам Тиса, результаты исследования были опубликованы, чтобы предупредить людей о достижениях техники манипуляции.

Учёные в очередной раз «предупредили об опасности», но продолжили совершенствовать подозрительную технологию. В тексте исследования об этической проблеме упомянуто лишь вскользь: разработчики считают, что кто-то должен улучшить систему водяных знаков или придумать другой способ для выявления видеоподделок.

Сами исследователи этим вопросом заниматься не желают, так как они заняты работой над улучшением инструмента для создания поддельных видео.

Поделитесь информацией с друзьями!

Просто нажми на кнопки соцсетей внизу!

Источник

Добавить комментарий

Filtered HTML

  • Разрешённые HTML-теги: <em> <strong> <cite> <blockquote> <ul> <ol> <li> <dl> <dt> <dd> <br> <br />
  • Строки и параграфы переносятся автоматически.
  • Search Engines will index and follow ONLY links to allowed domains.

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки. Ссылки на сторонние не рекламные источники необходимо вставлять в виде http://orskportal.ru/outlink/адрес...
  • Строки и параграфы переносятся автоматически.
4 + 9 =
Введите ответ в пустое поле. Например для 1+3 введите 4.