Jump to content

Author

  • entries
    18
  • comments
    5
  • views
    3221

Contributors to this blog

Эксперимент показал ограниченную способность обнаруживать дипфейки, даже если людей предварительно предупредили


(Фото предоставлено Adobe Stock)

Эксперимент, проведенный в Великобритании, показал, что люди обычно с трудом отличают дипфейк-видео от подлинных. Участники, просматривающие все подлинные видео, почти с такой же вероятностью сообщали о чем-то необычном, как и те, кто смотрел смесь реального и дипфейк-контента. Когда их попросили выбрать дипфейк-видео из набора из пяти, только 21,6% участников правильно идентифицировали обработанное видео. Исследование было опубликовано в журнале Royal Society Open Science...

Изначально разработанные для развлекательных и творческих целей, дипфейки теперь вызывают опасения по поводу этики и безопасности из-за их возможности неправомерного использования. Они могут быть использованы для манипулирования общественным мнением, нанесения вреда репутации или совершения мошенничества, помещая людей в сфабрикованные сценарии. Несмотря на свои риски, дипфейки также имеют законное применение в кино, образовании и создании цифрового контента.

Автор исследования Эндрю Льюис и его коллеги хотели выяснить, способны ли люди распознавать дипфейк-видео. Их интересовало, могут ли люди указать на них без предупреждения (без того, чтобы кто-то сказал им, что среди просматриваемого ими контента могут быть дипфейки) и меняет ли ситуацию предупреждение о возможных дипфейках. Например, исследователи хотели узнать, смогут ли участники определить, в каком видео в серии используется технология дипфейка, если им скажут, что хотя бы одно видео было изменено. Чтобы проверить это, они разработали контролируемый эксперимент.

В исследовании приняли участие 1093 жителя Великобритании через Lucid Marketplace, онлайн-платформу для сбора участников опроса. Участники были разделены на три экспериментальные группы, а опрос проводился с помощью Qualtrics.

В первой группе участники посмотрели пять аутентичных видео без дипфейков. Вторая группа просматривала тот же набор видео, но одно из них было дипфейком, и участников не предупредили о его наличии. После просмотра видео участников спросили, заметили ли они что-то необычное.

Третья группа также посмотрела тот же набор видео с одним дипфейком, но их заранее предупредили, что как минимум одно из видео будет подделано. Им дали краткое объяснение дипфейков, описанных как «манипулируемые видео, которые используют искусственный интеллект глубокого обучения для создания поддельных видео, которые кажутся реальными», и прямо сказали: «На следующих страницах представлена серия из пяти дополнительных видео с мистером Крузом, по крайней мере одно из которых является дипфейк-видео». После просмотра участников попросили выбрать, какое видео или видео они считают поддельными.

В дипфейк-видео в исследовании фигурировал актер Том Круз, а другие видео были подлинными клипами с его участием, взятыми с YouTube. Чтобы учесть знакомство с актером, все участники сначала посмотрели минутный отрывок интервью с Томом Крузом, чтобы дать базовое представление о его внешности и речевых оборотах.

Результаты показали, что участники в значительной степени не смогли обнаружить дипфейки. В группе, которая смотрела только аутентичные видео, 34% сообщили, что заметили что-то необычное, по сравнению с 33% в группе, которая по незнанию смотрела дипфейк. Эта небольшая разница говорит о том, что люди не лучше справляются с обнаружением дипфейков, чем с выявлением несоответствий в подлинных видео.

В группе, получившей предупреждение о дипфейках, 78,4%  не смогли правильно идентифицировать обработанное видео. Участники, как правило, с большей вероятностью принимали одно из подлинных видео за дипфейк, чем правильно определяли настоящую подделку. Однако среди тех, кто выбрал только одно видео, 39% правильно идентифицировали дипфейк, что несколько выше, чем случайное угадывание.

«Мы показываем, что в естественном контексте просмотра люди вряд ли заметят что-то необычное, когда столкнутся с дипфейком. Это согласуется с некоторыми предыдущими выводами, указывающими на то, что люди испытывают трудности с обнаружением высококачественных дипфейков», — заключили авторы исследования.

Статья «Обнаружение дипфейков с предупреждениями о контенте и без них» была написана Эндрю Льюисом, Патриком Ву, Раймондом М. Дачом и Ариком Чоудхури.

1 Comment


Recommended Comments

Jove

Posted

Мужчина, который использовал ИИ для создания изображений жестокого обращения с детьми, заключен в тюрьму на 18 лет

Мужчина, который использовал искусственный интеллект для создания изображений жестокого обращения с детьми с использованием фотографий реальных детей, приговорен к 18 годам тюремного заключения.

В августе 27-летний Хью Нельсон из Болтона был признан виновным в 16 преступлениях, связанных с сексуальным насилием над детьми, после расследования, проведенного полицией Большого Манчестера (GMP).

По словам полиции Большого Манчестера, Нельсон использовал Daz 3D, компьютерную программу с функцией искусственного интеллекта, чтобы преобразовать «обычные» изображения детей в изображения сексуального насилия. В некоторых случаях педофилы заказывали изображения, предоставляя фотографии детей, с которыми они контактировали в реальной жизни.

Он также был признан виновным в подстрекательстве других преступников к совершению изнасилования.

Он продавал свои изображения в интернет-чатах, где также обсуждал сексуальное насилие над детьми с другими преступниками, заработав около 5000 фунтов стерлингов за 18-месячный период, продавая изображения в Интернете.

Хотя ранее были судимости за «дипфейки», которые обычно включают в себя перенос одного лица на другое тело, Нельсон создавал 3D-«персонажей» из невинных фотографий.

Вынося приговор Нельсону в королевском суде Болтона в понедельник, судья Мартин Уолш сказал, что «невозможно узнать», были ли дети изнасилованы в результате его изображений. Уолш сказал, что Нельсон не обращал внимания на вред, причиненный распространением «душераздирающего и отвратительного» материала.

Он добавил: «Кажется, нет предела глубине разврата, проявляющейся в образах, которые вы были готовы создать и показать другим»...

Man who used AI to create child abuse images jailed for 18 years | Crime | The Guardian

Guest
Add a comment...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...