Perspectivas suíças em 10 idiomas

“Deepfake” dificulta reconhecer a realidade

immagine volti digitali
Brain Light / Alamy Stock Photo

Vídeos manipulados que aparentam realismo - ou "deepfakes" - utilizam técnicas digitais avançadas para influenciar a opinião pública e disseminar a desinformação. Dois especialistas explicam como é fácil enganar o olho humano.

Abraham Lincoln, o 16. ° presidente dos Estados Unidos, usou a técnica para melhorar sua imagem. Através dela, ditadores como Joseph Stalin e Mao Tsé Tung “apagavam” seus oponentes políticos da história. A manipulação da imagem é tão antiga como a própria fotografia.

Mas quando era preciso ser um especialista para conseguir enganar o olho humano, hoje a técnica se tornou uma brincadeira de criança. Tudo o que é preciso é um programa que pode ser baixado da internet, algumas imagens encontradas nos motores de busca ou nas mídias sociais. Qualquer um pode manipular vídeos e disseminá-los nas redes. “Hoje em dia, basta uma foto para criar uma boa falsificação”, diz Touradj Ebrahimi, chefe do laboratório de Processamento de Sinais MultimídiaLink externo da Escola Politécnica Federal em Lausanne (EPFL).  

O que significa “deepfake”?

O termo surgiu em 2017 e vem da contração de “aprendizagem profunda” (a aprendizagem “profunda” da máquina que se baseia na inteligência artificial) e “fake” (falso em inglês).

Deepfake usa a inteligência artificial para gerar imagens tão reais que enganam não só nossos olhos, mas também os algoritmos usados para os reconhecer. Há alguns anos, a equipe do Ebrahimi pesquisa o fenômeno e desenvolve sistemas para verificar a integridade de fotos, vídeos, imagens e áudio.

Mostrar mais
portrait

Mostrar mais

Como pesquisadores suíços tentam reconhecer manipulações digitais

Este conteúdo foi publicado em Em um laboratório de informática em um vasto campus da Escola Politécnica Federal de Lausanne (EPFL), alguns informáticos analisam a imagem de um homem sorridente, de óculos, com a pele rosada e cabelos castanhos. “Sim, é muito boa”, concorda o coordenador da equipe, Touradj Ebrahimi, cuja fisionomia lembra vagamente a do homem na imagem. Seus…

ler mais Como pesquisadores suíços tentam reconhecer manipulações digitais

Mas é uma corrida contra o tempo e a tecnologia: a manipulação de informações se popularizou e hoje é uma questão de segurança nacional, especialmente graças à popularização das mídias sociais. Milhões de pessoas, assim como empresas e governos, podem criar conteúdo e acessá-lo livremente, mas também manipulá-lo. Países como Rússia, China, Irã e Coréia do Norte são considerados particularmente ativos na divulgação de notícias falsas, inclusive através do uso de deepfakes, tanto dentro como fora de suas fronteiras nacionais, explica Ebrahimi.

Dificuldade de reconhecer

Geralmente é difícil para uma pessoa comum reconhecer a veracidade do que é visto. Um estudo do MITLink externo mostrou que as notícias falsas (fake news) se espalham até seis vezes mais rápido do que notícias verdadeiras através da plataforma Twitter. Isto torna o fenômeno da falsificação particularmente preocupante, segundo Ebrahimi. “Os deepfakes são um meio muito poderoso de desinformação, já que as pessoas tendem a acreditar no que veem”.

A qualidade dos vídeos também continua a aumentar, tornando cada vez mais difícil distinguir o real do falso. “Um país com recursos já pode criar vídeos falsificados que são tão reais que enganam até mesmo os olhos dos especialistas”, acrescenta Ebrahimi, ressaltando que existem programas capazes de reconhecer manipulações, mas que têm dificuldade de acompanhar os avanços no setor.

Direitos autorais

O laboratório de Touradj Ebrahimi pesquisa há 20 anos sobre os problemas de segurança de mídia envolvendo imagens, vídeos, áudio e fala, e na verificação de sua integridade. No início as manipulações eram mais uma questão de direitos autorais. Mais tarde, a questão mudou para a privacidade e a vigilância por vídeo até o advento das mídias sociais, o que contribuiu para uma difusão maciça de conteúdo manipulado.

“Deepfakes” são capazes de contornar os detectores utilizados para identificar falsificações. Para isso, o laboratório do Ebrahimi usa um ‘paradigma’ chamado ‘tecnologia de proveniência’ para determinar anonimamente como um conteúdo foi criado e que manipulação foi aplicada. “Mas para que a tecnologia de ‘proveniência’ funcione, tem que ser utilizada por um grande número de atores na Web: do Google ao Mozilla, Abode, Microsoft a todas as mídias sociais, para citar apenas algumas”, diz o especialista. “‘O objetivo é chegar a um acordo sobre um padrão JPEG [arquivos de imagem e vídeo] a ser aplicado globalmente’, acrescenta ele.

De piada a guerra

No início, os vídeos manipulados eram usados principalmente para criar clipes engraçados de atores e outras pessoas conhecidas. Ou também em videogames. Porém estes se tornaram uma ferramenta eficaz para a atacar a integridade de pessoas, manipular a opinião pública e uso em atividades criminosas.

Os deepfakes provaram ser capazes de sobrepor as faces de duas pessoas diferentes para criar um perfil falso, por exemplo, ou mesmo uma identidade falsa. Os criminosos cibernéticos utilizam a técnica para enganar as empresas a fim de extorquir dinheiroLink externo, fazendo-se passar pelo administrador e fingindo um pedido urgente de transferência de dinheiro.

“No momento existem apenas algumas manipulações desse tipo, mas à medida que a tecnologia amadurecer veremos mais e mais delas”, prevê Sébastien MarcelLink externo, pesquisador do Instituto Diap. Marcel explica que a atual tecnologia só permite a manipulação do conteúdo visual, mas não do áudio. As vozes, quando não retiradas de outros vídeos, são imitadas por um profissional. “As falsificações de áudio ainda são um desafio, mas no futuro veremos falsificações absolutamente realistas, capazes de reproduzir fielmente a imagem e a voz de qualquer pessoa em tempo real”. Isso permitirá, por exemplo, bloquear fusões de empresas e negócios, criando um escândalo falso sobre um concorrente.

Biometria na Suíça

Sébastien Marcel dirige o grupo de segurança e privacidade biométrica do DiapLink externo, um dos poucos laboratórios do país que se concentra na pesquisa biométrica para avaliar e fortalecer a vulnerabilidade dos sistemas de reconhecimento de impressão digital e facial. “A pesquisa no setor ainda é bastante negligenciada», diz Marcel.

A manipulação digital de vídeos também pode ter aplicações positivas, aponta Ebrahim. “Deepfakes já foram usados em psicoterapia para aliviar o sofrimento de pessoas que perderam um ente querido”. Na Holanda um homem produziu um vídeoLink externo para lembrar da filha falecida prematuramente. O site de genealogia MyHeritage utiliza a ferramenta “DeepNostalgiaLink externo” para “ressuscitar” parentes falecidos, animando seus rostos em fotografias.

Mas à medida que a conscientização do problema do deepfake aumenta, até mesmo vídeos reais podem ser confundidos com conteúdo manipulado. No Gabão, o presidente Ali Bongo, ausente da cena pública durante semanas devido a doenças, foi confundido com uma imagem transmitida nas redes, provocando convulsões sociais.  Link externo

A incerteza sobre o que é real e o irreal pode ter um efeito não intencional e criar uma cultura de “negação plausível” na qual ninguém está disposto a assumir a responsabilidade, pois tudo pode ser manipulável, argumenta a pesquisadora Nina Schick em seu livro Deepfakes: The Coming InfocalypseLink externo.

“Deepfakes poderia dar a qualquer um o poder de falsificar qualquer coisa. E se tudo pode ser falsificado, então qualquer um pode alegar uma negação plausível”, argumenta Schick. Ela acredita que este é um dos maiores perigos sociais representados pelo fenômeno.  

Combater “notícias falsas

A União Europeia quer combater o problema. Projetos como o “Horizon Europe” incentivam a pesquisa de vídeos manipulados. “Esperamos descobrir mais sobre os deepfakes nos próximos anos”, diz Marcel. Em nível técnico, enfrentar manipulações digitais significa ser proativo e focar nas vulnerabilidades dos sistemas. “Mas nem sempre é tão simples”, argumenta o pesquisador do Idiap. “Os processos acadêmicos para obter financiamento são lentos”.

O envolvimento da sociedade civil também é primordial. Ebrahimi e Marcel concordam que, para combater notícias falsas, é essencial criar consciência e educar a população para desenvolver uma consciência crítica e um senso mais profundo de responsabilidade cívica. “Precisamos ensinar nossos filhos a questionar o que eles veem na Internet e não espalhar nenhum conteúdo indiscriminadamente”, diz Ebrahimi.

A Finlândia já o faz com sucessoLink externo. O país escandinavo combate as notícias falsas nas escolas, o que o torna um modelo para as democracias ocidentais. A primeira linha de defesa contra a desinformação, dizem especialistas do governo finlandês, é o professor do jardim-de-infância.

Adaptação: Alexander Thoele

Certificação JTI para a SWI swissinfo.ch

Mostrar mais: Certificação JTI para a SWI swissinfo.ch

Veja aqui uma visão geral dos debates em curso com os nossos jornalistas. Junte-se a nós!

Se quiser iniciar uma conversa sobre um tema abordado neste artigo ou se quiser comunicar erros factuais, envie-nos um e-mail para portuguese@swissinfo.ch.

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR