deepfake

Deepfake: игра в кошки-мышки с поддельными изображениями

Способность искусственного интеллекта (ИИ) генерировать поддельные фото- и видеоизображения — это еще одна темная сторона технологий и назревающая проблема. Технология deepfake позволяет заменять лица на видеозаписях при помощи противопоставления двух генеративно-состязательных сетей (GAN).

Курс по Machine Learning
Идет набор в группу 3 800₽ в месяц

И хотя эта форма ИИ была в центре внимания большую часть 2019, но по-настоящему обсуждаемой темой ее сделали новости о юзере LinkedIn под именем Кэти Джонс, которая зарегистрировалась на платформе и начала контактировать с ключевыми фигурами политической элиты Вашингтона.

Простота с которой глубокое обучение создало реалистичное изображение человека и внедрило его в социальные сети встревожило не только законодателей, но и общественность в целом. Законодатели особенно взволнованы тем, как это может повлиять на президентские выборы в США в 2020 или даже манипулировать ими. Люди оказываются жертвами дезинформации и это может подорвать прозрачность процессов в условиях демократии. 

За прошедший год GAN стали так хороши в генерации изображений, что возможно уже очень скоро люди не будут способны отличить правду от подделки. Так что экспертам придется попотеть, чтобы найти рабочие решения этой проблемы. Законодатели США летом встретились с такими гигантами индустрии как Google и Facebook, чтобы обсудить последствия появления этой опасной и вводящей в заблуждение технологии и, что более важно, найти более эффективные способы распознавания deepfake.

С тех пор крупные IT-компании пытаются бороться с этой проблемой, создавая свои собственные deepfake видеоизображения. Facebook объединил усилия с  Microsoft и семью академическими институтами США в создании “Deepfake Detection Challenge”, цель которого — создание технологии распознавания deepfake. Начало конкурса запланировано на конец 2019, и он будет продолжаться весь 2020.

Однако чтобы обучить алгоритм ИИ распознаванию поддельных видео, необходимо огромное количество данных. Для этого Facebook решил создать свою базу отредактированных видео при помощи нанятых актеров. Эти видео затем будут использованы для создания новых инструментов, которые смогут более эффективно бороться с этой угрозой.

Курс по нейронным сетям
Идет набор в группу 4 200₽ в месяц

Над аналогичной задачей трудится и Google, который привлек 28 актеров, чтобы выпустить огромную базу deepfake видео. Получившиеся 3000 сгенерированных ИИ видео были выложены в открытый доступ. Open-source база данных должна помочь активизировать усилия по созданию инструментов распознавания.

Ранее в этом году команда под руководством исследователя из Мюнхенского технического университета создала похожую базу данных из 1000 обработанных видео с YouTube под названием FaceForensics++. Мотивированы эти усилия тем же — идеей создания больших наборов данных для обучения и тестирования автоматизированных инструментов распознавания deepfake.

И это все прекрасно, но проблема возникнет в тот момент, когда такой инструмент будет создан, основываясь на слабых местах deepfake алгоритма этого поколения. Но алгоритм может быть легко обновлен, чтобы устранить уязвимость и обойти созданный способ распознавания.

В то же время, deepfake ресурсы становятся только доступнее. Компания Icons8 запустила веб-сайт, на котором можно найти 100 000 сгенерированных ИИ лиц, которые могут быть использованы кем угодно — без лицензионных отчислений. Компания, стоящая за проектом, указана как дизайнерская торговая площадка для иконок и фотографий. В конечном итоге они намерены создать API, с помощью которого можно будет генерировать новые фотографии на основе различных исходников, не беспокоясь об авторских правах.

Это не первый раз, когда поддельные фото, сгенерированные искусственным интеллектом, были размещены в сети. Ранее в этом году появился другой веб-сайт под названием ThisPersonDoesNotExist.com, созданный Филиппом Вангом, программистом из Uber. Каждый раз, когда вы обновляете веб-сайт, он создает новое реалистичное изображение несуществующего человека. И хотя целью создания веб-сайта было ознакомление с технологией deepfake, подобные ресурсы легко можно использовать со злым умыслом.

Похоже, что игра в кошки-мышки, где IT-гиганты и политики пытаются угнаться за непрерывно совершенствующейся технологией, началась.

Оригинал: Deepfakes are becoming a bigger issue

Перевод: Ухарова Елена

Поделиться: