Технологии

Как deepfakes повлияют на общественно-политическую жизнь общества

Расизм, Трамп и порно: чем опасны видеофейки

Эксперты в сфере искусственного интеллекта бьют тревогу — по их мнению, в будущем стоит опасаться не фейковых новостей, а фейковых видео, которые создают у зрителей эффект присутствия, а потому зачастую воспринимаются как непреложная истина. В руках злоумышленников уже существуют необходимые инструменты, чтобы делать порно со звездами или интервью с политиками, которых на самом деле никогда не было.

Нейросети сделали все хуже

Deepfakes — это термин, который на самом деле является никнеймом. Именно так звали пользователя форума Reddit, догадавшегося использовать нейросеть для замены лиц порноактрис на лица знаменитостей. Он породил волну подражателей и заставил всех задуматься о границах реального и виртуального.

Первый громкий скандал, произошедший по вине Deepfakes, случился с актрисой Галь Гадот, которая сыграла главную роль в фильме «Чудо-женщина». На Reddit был размещен порноролик, в котором модель с лицом Гадот занималась сексом. Скандал был настолько большим, что администрация Reddit через некоторое время, вопреки своим правилам, заблокировала Deepfakes.

Кроме того, в 2018 году бельгийской политической партией Socialistische Partij Anders с целью привлечения внимания к экологическим проблемам было размещено фейковое видео с Дональдом Трампом, в котором политик негативно высказался о Парижском климатическом соглашении.

Этот «экологический креатив» был принят большинством смотрящих за чистую монету, и в интернете на американского президента посыпались настоящие проклятия от бельгийских «зеленых». В результате в Бельгии разразился большой политический скандал.

Процесс создания искусственных изображений, маскирующихся под реальные, далеко не нов. Термину «фотожаба», обозначающего совмещение различных изображений в реалистичное забавное или скандальное фото, уже не один десяток лет. Более того, современная цифровая фотография, особенно в смартфонах, уже давно перестала быть технологией двухмерного отображения реальности и превратилась в процесс создания изображения с помощью фотокамеры и софта.

Интернет-пользователи уже успели выработать в себе скептический рефлект относительно экстравагантных фотографий, особенно с участием звезд, и уже не воспринимают такие изображения с безоговорочным доверием.

Во многом эта ситуация повторяется и с видеороликами, но уже на новом, более высоком технологическом уровне. Сам процесс послойного совмещения реального и виртуального видео называется композитингом, и это хорошо известная профессионалам техника. В современном контексте это почти всегда связано с добавлением в отснятую картинку компьютерной графики. Данное направление видеопродакшена широко распространено и используется для создания визуальных эффектов в кино и телевидении. Главная его задача — заставить зрителя поверить в то, что все, что он видит на экране, является частью единой, отснятой картинки.

Что же изменилось за последние годы, и почему Deepfakes привлек к себе такое внимание? Прежде всего, это связано с появлением инструментов и компьютерных мощностей, которые сделали технологию композитинга доступной для широкого круга энтузиастов. Появились готовые программные библиотеки и рендер-фермы, которые могут использовать талантливые одиночки для создания спецэффектов.

В 2016-2018 годах обработка видео вышла на новый уровень — нейронные сети, начав свое победное шествие по миру, затронули и мир видеоиндустрии. Их научились использовать при создании текстур, трекинге лиц, маскировании.

Именно возможность быстрого и малозатратного создания реалистичных масок лиц стало ключевым фактором популярности Deepfakes. Особенность человеческого восприятия такова, что мы узнаем человека в первую очередь по его лицу, и относительно небольшие программные манипуляции с картинкой дают очень мощный и убедительный эффект.

Фейки разобщают общество

Угроза настолько реальна, что Агентство перспективных исследовательских проектов в области обороны США (DARPA) профинансировало проект Media Forensics, направленный на автоматический поиск фейковых видео, вводящих в заблуждение общество и прессу.

«Мы видим тот факт, что стало вполне реально имитировать голос и изображение Обамы или видео Трампа. Очевидно, что будет большой финансовый интерес к используемой технологии», — говорит Тим Хванг, руководитель центра по изучению этики управления искусственным интеллектом в Гарвардском Центре Беркмана-Кляйна и Медиа-лаборатории в Массачусетском Технологическом Университетете.

Опасения американских экспертов связаны в первую очередь с президентскими выборами 2020 года и с тем хаосом, который могут принести в американское общество фальшивые ролики с кандидатами в президенты.

Технология композитинга может стать мощным оружием для создания информационных фейков и компрометации новостного контента или публичных людей. В эпоху соцсетей убедительно сделанное фейк-видео «работает» без его верификации, даже когда доказано, что это фейк. Такая ситуация скорее всего продлится еще несколько лет, до тех пор пока люди не привыкнут «не верить своим глазам» в буквальном смысле.

Даниэль Цитрон, профессор права в Университете штата Мэриленд, заинтересовавшаяся этическим и правовыми вопросами использования фейковых видео, говорит о том, что первоначально она видела в этом только проблему, связанную с унижением женщин: «Но, как только я начала изучать тему глубже, я поняла, что если эта технология распространятся за пределы троллей из Reddit, она станет по-настоящему опасной. В 2015 году в Балтиморе, после смерти чернокожего Фредди Грея, погибшего по вине полицейских, появление такого фейкового видео, где, например, начальник полиции говорит что-то расистское, просто взорвало бы город».

По мнению Цитрон и ее коллеги Бобби Чесни, подобное использование новых технологий несет не только угрозу частной жизни и национальной безопасности многих стран.

Оба исследователя считают, что Deepfakes и ее аналоги могут катастрофически разрушить доверие между различными фракциями общества в и без того поляризованном современном политическом климате.

Угроза может выходить за рамки злонамеренных политических хакеров, пытающихся подорвать существующие политические институты с помощью Deepfake. Скучающие интернет-пользователи, ищущие развлечения, могут вызвать еще больше проблем, если технология станет такой же общедоступной, как современные приложения, генерирующие мемы. Правительственные структуры, отвечающие за кибербезопасность, могут оказаться беспомощными перед лицом интернет-толпы, заполняющей социальные сети фейковыми видео.

Лекарства пока нет

Есть ли способ отличить искусственно созданное видео от настоящего? Опытные профессионалы увидят недостаточно хорошо «вклеенные» маски, «спилы», «канты», остатки хромакея, серые линии по краям маски. Для создания качественного композитинга важно правильное сведение реальных и искусственных слоев по цвету и свету, важно также чтобы «шум», создаваемый камерой, совпадал с «шумом» вклейки. То есть, несмотря на удешевление процесса, от создателей видеофейков требуется определенный профессионализм.

На текущий момент не существует специальных инструментов для определения видеофейков, а эксперты отличают их по целому комплексу признаков.

Проблема заключается в том, что с помощью обучаемых нейросетей со временем можно будет создавать сверхубедительные изображения, способные поставить в тупик даже профессионального видеомонтажера.

Более того, пока большая часть таких фальшивых видео создается энтузиастами-троллями. Что будет, когда созданием видеофейков «на заказ» займутся настоящие профессионалы со студийным оборудованием и соответствующим опытом работы, сказать сложно. Проводить экспертизу каждого видео, попадаемого в медиаполе, невозможно, и очевидно, что еще несколько лет, пока не потеряется острота и эпатажность этого приема, скандальные фейк-видео будут вызывать широкий общественный резонанс.

Источник

Похожие записи