The Swiss voice in the world since 1935

Democracia pode ser impactada por IA com decisões enviesadas

Multidão vista do alto
No experimento, os modelos de IA apresentaram "comportamento mais uniforme" do que os humanos. László D. / Unsplash

Um experimento realizado pela Escola Politécnica Federal de Zurique (ETH) mostrou que o ChatGPT toma decisões de voto distintas das de seres humanos, favorecendo escolhas mais previsíveis e homogêneas. O estudo propõe cautela na adoção desses sistemas em votações públicas.

Assine AQUI a nossa newsletter sobre o que a imprensa suíça escreve sobre o Brasil, Portugal e a África lusófona.

Se o usuário deixasse o Chat-GPT participar de uma eleição, o voto iria provavelmente para partidos antigos e conhecidos. Isso é o que demonstra um estudo científico da ETH de Zurique, segundo o qual o Chat-GPT toma decisões mais lineares e padronizadas do que os humanos.

Mas como a equipe de Ciências Sociais Computacionais da ETH de Zurique conseguiu constatar isso? Os grandes modelos de linguagem são programados para reagir de forma evasiva a questões de teor político. “Quando você perguntava ao Chat-GPT se deveria votar em Donald Trump ou Kamala Harris, a IA afirmava ser neutra e não dava resposta”, relata à SWI swissinfo.ch Joshua Yang, cientista da computação da ETH.

Chat-GPT, LLaMa e 180 pessoas

Um jovem com bigode
Joshua Yang estuda informática na ETH e está envolvido em diversas pesquisas. cortesia

A equipe de Ciências Sociais Computacionais não solicitou à IA, portanto, decisões importantes sobre macropolítica, mas pediu aos modelos Chat-GPT4 e LLaMA-2 suas opiniões sobre projetos locais de desenvolvimento urbano, que não são essencialmente políticos à primeira vista.

Entre eles estão o projeto de uma Langstrasse, célebre rua de Zurique, sem carros; um festival multicultural na Sechseläutenplatz; e um festival para o público infantil no Leutschenpark. Quais dos 24 projetos a IA escolheria para tornar Zurique melhor para suas cidadãs e seus cidadãos?

Os cientistas compararam então os resultados dos modelos de IA com os de 180 participantes humanos de um experimento analógico com os mesmos projetos envolvidos.

Os participantes humanos e os de IA tomaram suas decisões em rodadas com diferentes configurações e procedimentos eleitorais. Às vezes atribuindo pontos aos projetos, às vezes escolhendo quantos projetos quisessem. Também foram realizados testesLink externo com votação por ordem de preferência.

Os resultados desse experimento podem ser aplicados, acima de tudo, a decisões orçamentárias participativas e a eleições com vários vencedores – como por exemplo as eleições de representação proporcional, em que os partidos enviam representantes de suas listas eleitorais para o Parlamento de acordo com seus resultados.

O estudo da ETH tem significância limitada em caso de eleições com apenas um único nome vencedor – como as eleições presidenciais dos EUA, por exemplo.

IA tem “comportamento mais uniforme”

De maneira geral, as diferenças entre humanos e IA foram grandes – mesmo quando a IA foi solicitada a assumir o papel de um ser humano.

Os modelos de IA optaram com frequência pelo mesmo número de projetos e apresentaram “comportamento mais uniforme” do que os humanos, de acordo com o estudoLink externo.

gráfico
gráfico SWI / Kai Reusser

O Chat-GPT selecionava quase sempre quatro ou cinco projetos, enquanto as 180 pessoas conseguiam se entusiasmar com quantidades totalmente diferentes de projetos.

Segundo o estudo, esse resultado confirma que “as amostras sintéticas simuladas por IA têm um viés WEIRD (ocidental, educado, industrializado, rico, democrático)”, com frequência não apresentando “variação (ou diversidade) significativa em seus julgamentos”.

Ao mesmo tempo, a IA se deixou influenciar, em sua decisão, até mesmo pela ordem dos projetos na lista. Isso revela os limites da competência para tomada de decisão: imagine se as pessoas fossem trocar suas intenções de voto por outro partido só porque este estaria mais acima na cédula eleitoral.

IA somente com “abordagem centrada no ser humano” em uma democracia

De qualquer forma, os modelos de IA optaram com mais frequência por projetos mais baratos. O estudo reconhece essa predileção, ressaltando que eleitoras e eleitores humanos normalmente não têm consciência dos custos.

A pesquisa da equipe da ETH faz referência às ideias de César Hidalgo sobre gêmeos digitais de IA, que substituiriam políticos; e à proposta de dois economistas de atribuir um gêmeo digital a cada pessoa com direito a voto.

Leia abaixo o artigo sobre uma nova tecnologia e sua influência no processo político

Mostrar mais
Mulher olhando para um gráfico de um coração

Mostrar mais

Como gêmeos digitais podem ajudar a salvar a democracia

Este conteúdo foi publicado em Gêmeos digitais podem revolucionar a medicina – e até a democracia! Cientistas propõem que IA aprenda nossas opiniões para referendos mais informados. Seria o futuro da democracia direta?

ler mais Como gêmeos digitais podem ajudar a salvar a democracia

O estudo,Link externo que Yang apresentou na Conferência sobre IA, Ética e Sociedade em San José, na Califórnia, recomenda cautela. Segundo ele, uma “abordagem centrada no ser humano” é “essencial” para garantir que a IA apoie e não comprometa a “inteligência coletiva que deriva das diversas preferências humanas na sociedade”.

Em vez disso, os modelos de IA deveriam ser aplicados “em HITL”, ou seja, em uma estrutura que tenha um ser humano envolvido no processo de decisão. Assim, um agente de IA poderia melhorar a tomada de decisão do ser humano – preparando, resumindo ou explicando o conhecimento prévio sobre um determinado assunto, por exemplo.

Como regulamentar a conduta frente a dados pessoais sensíveis?

“Nosso interesse era descobrir como os modelos de linguagem afetam a democracia como a conhecemos”, diz Joshua Yang. “Muita gente já está fazendo perguntas ao Chat-GPT. O modelo de linguagem dá informações e, portanto, influencia as decisões políticas de quem pergunta”, completa.

A questão delicada continua sendo a conduta frente a dados pessoais. “Com quais informações alimentamos uma IA, quando pedimos a ela para adotar a perspectiva de uma pessoa?” Há possibilidade de usar dados demográficos sensíveis como base, a exemplo de cor da pele e religião, ou até mesmo a transcrição de uma conversa longa e pessoal com a pessoa.

As “personas” podem ser também criadas com base em uma pesquisa de opinião, de forma semelhante ao Smartvote. Em seu experimento, a equipe da ETH optou por essa abordagem. De acordo com Yang, isso não deve ser menos eficiente. Ele espera que haja diretrizes éticas e legais claras e uma discussão social sobre onde traçar a linha entre funcionalidade e privacidade.

Democracia suíça é “campo ideal de testes” para agentes de IA

Embora o estudo tenda a enfatizar os aspectos críticos, o entusiasmo pelos modelos de IA fica evidente na conversa com Yang: “Estou cautelosamente otimista de que a IA carrega muito potencial para a democracia”, aposta. Segundo ele, ela poderia ajudar as pessoas a tomar decisões mais frequentes e melhores – sem tirar seu poder de escolha.

Com seus frequentes referendos, a Suíça é, de acordo com Yang, “um campo ideal de testes” para as tecnologias de IA. Pois os modelos de IA são melhores para ajudar em caso de plebiscitos, que podem ser analisados racionalmente, do que de eleições movidas por emoções. Isso poderia eventualmente aumentar a baixa participação dos eleitores justamente em questões locais.

Seria possível criar um livreto de votação digital, que as suíças e os suíços pudessem não apenas ler, mas também consultar. Isso poderia motivar aqueles que se afastam da votação por falta de conhecimento.

“Se um agente específico de IA, com a abundância de dados relevantes para a tarefa, for criado com essa finalidade, haverá também um risco significativamente menor de que ele transmita fatos incorretos. Os agentes de IA têm alucinações é quando eles não têm acesso à resposta correta”, explica Yang.

No entanto, modelos de linguagem grandes, como o Chat-GPT, não são adequados para isso, pois dependem na mesma medida de dados relevantes e enganosos.

Yang, que atua em projetos de democracia local na Suíça e em Taiwan, vê, do ponto de vista global, uma oportunidade para a IA impulsionar instrumentos democráticos diretos (e deliberativos). De início, acredita Yang, políticos individuais e grupos vão apostar em agentes de IA para analisar discussões, bem como para preparar argumentos, compromissos e opções de atuação.

Aos poucos, os agentes de IA poderão se tornar parte das instituições.

Edição: Mark Livingston

Adaptação: Soraia Vilela

Mais lidos

Os mais discutidos

Certificação JTI para a SWI swissinfo.ch

Mostrar mais: Certificação JTI para a SWI swissinfo.ch

Veja aqui uma visão geral dos debates em curso com os nossos jornalistas. Junte-se a nós!

Se quiser iniciar uma conversa sobre um tema abordado neste artigo ou se quiser comunicar erros factuais, envie-nos um e-mail para portuguese@swissinfo.ch.

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR