Информация из Швейцарии на 10 языках

Как deepfakes влияют на наше представление о реальности?

immagine volti digitali
Недавно жертвой deepfakes стал депутат Европейского парламента, обманутый препарированными видеозвонками от якобы российских оппозиционеров. Цель такой акции - дискредитировать команду Алексея Навального. Brain Light / Alamy Stock Photo

Скоро вас изобразят в образе порнозвезды, и вы ничего не сможете доказать. Ничего? А что говорит наука?

Русскоязычную оригинальную версию материала подготовил Игорь Петров.

Чрезвычайно правдоподобные поддельные видеоролики и соответствующие технологии качественно «демократизировали» процесс манипулирования визуальным контентом с целью влияния на общественное мнение и распространения дезинформации. Там, где раньше Дж. Кэмерон годами работал над созданием невероятной визуальной вселенной, сегодня достаточно мощного персонального компьютера и одного студента-технаря. А завтра? Ведущие швейцарские эксперты в области визуальных фейков объясняют, почему обмануть человеческий глаз становится все легче.

Манипуляция визуальным контентом стара как мир. Авраам Линкольн использовал ретушь с целью усиления своей президентской харизмы. Сталин умело удалял своих вчерашних соратников и сегодняшних политических противников с фотографий и картин. Но если раньше обманывать человеческий глаз могли только самые опытные мастера кисти и фотокамеры, то сегодня это стало почти уже детской забавой. Достаточно загрузить соответствующее программное обеспечение из интернета, взять несколько изображений из поисковых систем или социальных сетей — и готово фальшивое видео, которое вскоре распространится по Сети как лесной пожар, уничтожая репутации и очерняя невинных. 

Слияние слов «глубинное обучение» (deep learning) и «подделка» (fake) – методика синтеза изображения, основанная на технологиях искусственного интеллекта. Используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. 

В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определенного объекта и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом.

Deepfake может быть использован для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для «порномести». Однако в будущем такие подделки смогут быть все более активно задействованы в политических и экономических целях. 

Возьмем, к примеру, известное вирусное фальшивое видео Тома КрузаВнешняя ссылка, якобы играющего в гольф, или Королевы Елизаветы, танцующейВнешняя ссылка во время своей ежегодной Рождественской речи. «Сегодня для создания хорошего видео методами deepfake достаточно исходника в виде фотографии», — говорит Турадж Эбрахими (Touradj EbrahimiВнешняя ссылка), возглавляющий Лабораторию по обработке мультимедийного контента (Multimedia Signal Processing LaboratoryВнешняя ссылка) в Швейцарском федеральном технологическом институте в Лозанне (EPFL). 

Лаборатория Тураджа Эбрахими уже 20 лет работает над проблемами безопасности мультимедиа с использованием изображений, видео, аудио и речи, а также над проверкой их аутентичности. В этой истории тоже есть свое развитие. Первоначально манипуляции были в основном проблемой авторского права. Позже проблема сместилась в сторону конфиденциальности и видеонаблюдения, пока не появились социальные сети, которые особенно поспособствовали массовому распространению фиктивного контента, причём такие подделки уже вполне способны обманывать программы и прочие детекторы, как раз призванные выявлять подделки.

Россия — один из главных изготовителей фейков

Но неужели тут так все безнадежно? Не совсем. В лаборатории Тураджа Эбрахими была разработана так называемая «технология провенанса», которая позволяет определить, как был создан тот или иной фрагмент контента и какие манипуляции были применены в ходе его генерирования. «Но, чтобы такая технология проверки „провенанса“ действительно работала, она должна использоваться большим количеством участников в сети, ей должны пользоваться все, от Google и Mozilla до Abode, Microsoft и всех социальных сетей, — говорит эксперт. — Цель состоит в том, чтобы договориться о стандарте создания изображений, который будет применяться во всем мире». А это не так-то просто. 

Показать больше

Показать больше

Как швейцарские ученые хотят помешать нейросетям копировать реальность

Этот контент был опубликован на Технология Deepfake может быть использована для эффективного вмешательства в политические процессы. Как противодействовать этому вызову?

Читать далее Как швейцарские ученые хотят помешать нейросетям копировать реальность

В течение вот уже нескольких лет команда Т. Эбрахими занимается «глубокими подделками» и разрабатывает современные системы для проверки подлинности фотографий, видеоконтента и вообще всех изображений, распространяемых в Интернете. Технология deepfake использует потенциал искусственного интеллекта для создания фиктивных изображений, которые настолько реальны, что они способны обманывать не только наши глаза, но даже и алгоритмы, используемые для их распознавания. Манипулирование информацией превратилось сейчас во многом в проблему национальной безопасности. 

Ведь свободно создавать контент, получать к нему доступ и манипулировать им могут теперь миллионы людей, а также коммерческие компании и правительства. С помощью этой технологии уже можно накладывать друг на друга и комбинировать лица двух разных реальных людей с целью создания ложного профиля в соцсети или фальшивой идентичности. По словам Тураджа Эбрахими, такие страны, как Россия, а также Китай, Иран и Северная Корея, считаются очень активными распространителями фейковых новостей, созданных с помощью технологии deepfake, причем как внутри своих национальных границ, так и за их пределами.

Как EPFL использует ИИ для создания программного обеспечения, помогающего выявлять фейковые видео. 

Опорочить Навального!

Недавно жертвой deepfakesВнешняя ссылка стал депутат Европейского парламента, обманутый препарированными звонкамиВнешняя ссылка от якобы российских оппозиционеров. Целью такой акции было дискредитировать команду Алексея Навального, одного из ведущих критиков Кремля. Исследования Массачусетского технологического института (МИТ) показали, что фальшивые новости распространяются по соцсетям в шесть раз быстрееВнешняя ссылка, чем правдивый новостной контент, а это как раз и делает феномен deepfake источником особых тревог. «Глубокие подделки» — это очень мощное средство дезинформации, потому что люди все еще склонны верить тому, что видят собственными глазами», — говорит Т. Эбрахими.

Показать больше
Gesicht eines Cyborgs

Показать больше

Искусственный интеллект возник в итальянской Швейцарии

Этот контент был опубликован на Искусственный интеллект (ИИ) однажды раз и на всегда победит человека. В этом убежден Юрген Шмидхубер, эксперт, который, фактически его придумал.

Читать далее Искусственный интеллект возник в итальянской Швейцарии

Качество таких «видео со спецэффектами» также продолжает неуклонно расти, что усложняет решение задачи по поиску надежного метода, позволившего бы точно отличать реальность от манипуляции. «Государства с их неограниченными или почти неограниченными ресурсами уже могут создавать фальшивые видео, которые настолько реальны, что способны обмануть даже самые опытный глаз», — говорит Т. Эбрахими. Сложное программное обеспечение еще может сейчас распознать следы манипуляций, но уже через два-пять лет даже самые умные машины не смогут отличить настоящий контент от поддельного. 

А начиналось все довольно смешно и даже фривольно: поддельные видео использовались в основном для создания порнороликов и смешных клипов. «Такой контент вполне даже способен иметь определенный положительный эффект, поэтому он уже использовался, например, в психотерапииВнешняя ссылка, с тем чтобы сгладить страдания людей, потерявших родных или близких», — говорит она и приводит в пример случай в Нидерландах, когда убитый горем отец создал изображение своей преждевременно умершей дочери, дабы попрощаться с ней. Потом этот сюжет был переработан в культовом сериале Алекса Гарленда «Разрабы» (Devs). Делать нечто подобное, «воскрешая» умерших родственников с помощью программы DeepNostalgia, может и вполне реальный сайт MyHeritageВнешняя ссылка

Однако по мере совершенствования технологий «глубоких подделок» они вскоре стали эффективным инструментом кибертравли, а также способом вымогательства денегВнешняя ссылка и манипулирования общественным мнением. «На данный момент число таких манипуляций невелико, но по мере развития такого рода технологий мы будем сталкиваться с ними все чаще», — прогнозирует Себастьен Марсель (Sébastien MarcelВнешняя ссылка), старший научный сотрудник швейцарского научно-исследовательского института Idiap Research Institute в городе Мартини (Martigny, кантон Вале). Он объясняет, что нынешняя технология deepfake пока позволяет манипулировать только визуальным контентом, но не аудио. Голоса, если они не взяты из других видео, заимствуются в таких роликах обычно у актеров-профессионалов. В институте Idiap Себастьен Марсель возглавляет рабочую группу по биометрической безопасности и конфиденциальности персональных данных. 

Показать больше

Это одна из немногих лабораторий в Швейцарии, да и в мире, которая занимается исследованиями в области биометрии для оценки степени уязвимости систем распознавания отпечатков пальцев и лиц и разработки методов удаления этих уязвимостей. «Исследований в области распознавания лиц и биометрии в целом в Швейцарии все еще довольно мало, — говорит С. Марсель. — Аудиоподделки все еще представляют собой проблему, их сделать не так-то просто, но в будущем мы непременно увидим сверхреалистичные «глубокие подделки», возникнут технологии, способные точно воспроизводить чье-либо изображение и голос в режиме реального времени».

Критическое мышление

И тогда легко можно будет просто «уничтожать» репутацию людей или бизнес-конкурентов, потому что скандал интересует всех, а тот факт, что какие-то скандалы или какие-то обвинения оказались фейками, в СМИ и соцсети уже, как правило, не попадает. Но может возникнуть и обратная ситуация, когда любой преступник или подозреваемый может сказать, что все эти видеофайлы и фотографии, на которых я, условно говоря, проламываю кому-то голову, суть фейки и попробуйте теперь, в соответствии с принципом презумпции невиновности, доказать обратное. Так может возникнуть «культура правдоподобного отрицания», — говорит эксперт и специалистка в области компьютерных технологий Нина Шик (Nina SchickВнешняя ссылка) в своей книге «Фальшивки: Грядущий инфокалипсис» (Deepfakes: The Coming InfocalypseВнешняя ссылка). 

Показать больше

Так, например, недавно в ГабонеВнешняя ссылка видео с президентом Али Бонго (Ali Bongo), который несколько недель не появлялся на публике из-за болезни, было принято за фейк и привело к военному перевороту. «Такие технологии могут дать кому угодно возможность фальсифицировать что угодно, а если все на свете подвержено манипуляциям, то тогда любой сможет использовать метод „правдоподобного отрицания“ для каких угодно личных целей», — утверждает далее Нина Шик. Она считает, что манипуляция контентом есть одна из самых больших опасностей для общества. Недаром Европейский союз давно уже относится к этой проблеме со всей серьезностью. 

Такие инициативы, как Horizon Europe, нацелены специально на поддержку исследований феномена манипулированных видео. «Мы ожидаем, что в ближайшие годы ЕС все чаще будет сталкиваться с видео-фальшивками, – говорит С. Марсель. – Это означает, что нам уже сейчас нужно действовать на опережение, сосредоточившись на выявлении уязвимостей в существующих цифровых и коммуникационных системах. Но процедуры получения финансирования порой реализуются слишком медленно, тогда как сами технологии, лежащие в основе «глубоких подделок», продолжают развиваться опережающими темпами». И Турадж Эбрахими, и Себастьян Марсель согласны с тем, что для борьбы с фальшивками «нам необходимо прежде всего развивать у людей привычку к критическому мышлению и чувство личной гражданской ответственности за судьбы общества».

В соответствии со стандартами JTI

Показать больше: Сертификат по нормам JTI для портала SWI swissinfo.ch

Обзор текущих дебатов с нашими журналистами можно найти здесь. Пожалуйста, присоединяйтесь к нам!

Если вы хотите начать разговор на тему, поднятую в этой статье, или хотите сообщить о фактических ошибках, напишите нам по адресу russian@swissinfo.ch.

swissinfo.ch - подразделение Швейцарской национальной теле- и радиокомпании SRG SSR

swissinfo.ch - подразделение Швейцарской национальной теле- и радиокомпании SRG SSR