The Swiss voice in the world since 1935

Pesquisadores suíços usam IA para testar desinformação no Reddit

Pessoa trajando camiseta com inscrição "Fake news".
A pesquisa sobre "fake news" no Reddit não informou os participantes com antecedência. Keystone-SDA

Pesquisadores ligados à Universidade de Zurique conduziram um experimento no Reddit, utilizando inteligência artificial para disseminar opiniões fictícias e testar a manipulação da opinião pública. A ausência de consentimento dos participantes e a violação das regras da plataforma provocaram críticas éticas e legais, levando a universidade a revisar seus protocolos de pesquisa.

Assine AQUI a nossa newsletter sobre o que a imprensa suíça escreve sobre o Brasil, Portugal e a África lusófona.

A equipe de pesquisa, vinculada à Universidade de Zurique, testou secretamente a capacidade da inteligência artificial (IA) de manipular a opinião pública com desinformação em um grupo do subreddit.

Por vários meses, os pesquisadores forçaram os limites éticos da observação do comportamento social além do limite. Eles usaram Modelos de Linguagem de Grande Escala (LLMs) para inventar opiniões sobre uma variedade de assuntos, desde possuir cães perigosos até o aumento dos custos de moradia, o Oriente Médio e iniciativas de diversidade.

Os robôs de IA se esconderam atrás de pseudônimos fictícios enquanto produziam pontos de debate no subreddit r/changemyview. Os membros do grupo então argumentaram a favor ou contra as opiniões compostas pela IA, sem saber que faziam parte de um projeto de pesquisa até que os pesquisadores confessassem sua conclusão.

+ Até que ponto estamos protegidos da IA?

A revelação provocou uma onda de críticas no Reddit, na comunidade científica e na mídia internacional.

A princípio, os pesquisadores, que não revelarão suas identidades por medo de represálias, defenderam suas ações, pois a “alta importância social deste tópico” tornava “crucial conduzir um estudo deste tipo, mesmo que isso significasse desobedecer às regras” do canal, que incluíam a proibição de robôs de IA.

Posteriormente, eles divulgaram um “pedido de desculpas completo e sincero”, pois “as reações de decepção e frustração da comunidade nos fizeram lamentar o desconforto que o estudo pode ter causado”.

“Ciência ruim é ética ruim”

“A questão aqui não é apenas conduzir pesquisas envolvendo enganação”, disse o professor Dominique Sprumont, presidente da Comissão Cantonal de Ética em Pesquisa do cantão (estado) de Vaud, na Suíça. “Trata-se de quebrar intencionalmente as regras de uma comunidade de seres humanos que constroem confiança em sua rede com base nessas regras”, diz e conclui: “Além disso, a qualidade científica do projeto é mais do que duvidosa. Ciência ruim é ética ruim.”

A equipe suíça se deparou com um problema familiar a muitos pesquisadores: quanta informação ocultar dos participantes para tornar o estudo realista.

Mostrar mais

Pesquisas anteriores sobre notícias falsas enfrentaram o mesmo dilema, de acordo com Gillian Murphy e Ciara M. Greene, da Universidade de Cork, e da Universidade de Dublin, na Irlanda, que conduziram suas próprias pesquisas sobre desinformação e examinaram os resultados de outros estudos.

Às vezes, os pesquisadores disfarçam o propósito exato do estudo desde o início e só informam os participantes após sua conclusão, escreveram em um artigo publicado na revista ScienceDirect em 2023. Por exemplo, afirmando desde o início que a pesquisa trata do consumo de notícias em geral, e não especificamente de notícias falsas.

Limites da enganação

“Para algumas pesquisas sobre desinformação, seria impossível estudar como os participantes respondem naturalmente à desinformação sem empregar esse tipo de mentira, pois as suspeitas, motivações e comportamentos dos participantes podem mudar quando eles sabem que as informações que lhes serão mostradas podem ser enganosas”, escreveram os autores.

Mas os autores também observam que há limites para a mentira. Pesquisadores têm o dever moral de respeitar os direitos humanos e a privacidade dos participantes do teste, informá-los desde o início de que estão participando da pesquisa, obter consentimento explícito para o uso de seus dados e tomar medidas para evitar causar danos às pessoas.

Mostrar mais

Em 2014, o Facebook foi criticado por acadêmicos, advogados e políticos por manipular secretamente milhares de feeds de notícias para testar como o efeito emocional sobre os usuários de postagens negativas ou positivas enviadas por seus amigos.

A plataforma de mídia social afirmou que o experimento era importante para testar o impacto emocional de seu serviço de feed de notícias nos usuários, mas posteriormente admitiu que havia conduzido o estudo de forma equivocada.

Responsabilidade não esclarecida

O estudo suíço sobre notícias falsas no Reddit também foi condenado por não informar as pessoas com antecedência sobre a participação em um projeto de pesquisa.

Também gerou confusão sobre quem é o responsável. O estudo foi concebido por um pesquisador da Universidade de Zurique e apresentado ao Comitê de Ética da Faculdade de Artes e Ciências Sociais em abril do ano passado como um dos quatro testes, sendo este o único dos quatro que envolveu robôs de IA.

Na época, o comitê de ética classificou o estudo do Reddit como “excepcionalmente desafiador”, de acordo com a universidade. Recomendou que os pesquisadores informassem os participantes “o máximo possível” e cumprissem integralmente as regras do Reddit.

Mas o pesquisador principal deixou a universidade em setembro e só iniciou o estudo depois de sair, afirma a universidade, acrescentando que a responsabilidade pelo projeto e pela publicação, portanto, cabe aos pesquisadores e não à universidade. “Não havia pesquisadores ou estudantes da Universidade de Zurique envolvidos no projeto do Reddit na época em que ele foi realizado.”

As descobertas preliminares da equipe de pesquisa foram publicadas inicialmente, mas posteriormente foram retiradas da internet.

+ Dilema suíço: inovar ou regular a inteligência artificial?

Processo de revisão mais rigoroso

A Comissária de Proteção de Dados do cantão de Zurique, Dominka Blonski, ainda não iniciou uma investigação formal sobre o assunto, mas seu gabinete está ciente da controvérsia. “Não sabemos se a pesquisa foi conduzida pela Universidade de Zurique ou por seu corpo docente, ou por pesquisadores individuais por iniciativa própria”, disse.

Blonski precisa primeiro decidir se investigará a universidade ou os indivíduos. Mas ela está preocupada com evidências em reportagens da mídia que apontam para potenciais violações das leis de proteção de dados, particularmente relacionadas à aparente criação de perfis de alguns usuários do Reddit.

A universidade também precisa lidar com “demandas legais formais” não especificadas do Reddit e está investigando o incidente internamente. “Diante desses eventos, o Comitê de Ética da Faculdade de Letras e Ciências Sociais pretende adotar um processo de revisão mais rigoroso no futuro e, em particular, coordenar com as comunidades nas plataformas antes dos estudos experimentais”, disse uma porta-voz.

Adaptação: DvSperling

Mostrar mais

Debate
Moderador: Sara Ibrahim

A Inteligência artificial está aí para facilitar nossas vidas – ou é uma ameaça?

Devemos delegar poderes às máquinas? A inteligência artificial é problema ou a solução para muitos problemas da nossa sociedade?

3 Curtidas
69 Comentários
Visualizar a discussão

Mais lidos

Os mais discutidos

Certificação JTI para a SWI swissinfo.ch

Mostrar mais: Certificação JTI para a SWI swissinfo.ch

Veja aqui uma visão geral dos debates em curso com os nossos jornalistas. Junte-se a nós!

Se quiser iniciar uma conversa sobre um tema abordado neste artigo ou se quiser comunicar erros factuais, envie-nos um e-mail para portuguese@swissinfo.ch.

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR