Perspectivas suíças em 10 idiomas

ChatGPT: inteligência, estupidez ou malícia artificiais?

Enfants derrière un ordinateur
"Não há limite de idade para falar comigo", escreve ChatGPT ao ser questionado. Copyright 2023 The Associated Press. All Rights Reserved.

Ele tem respostas para tudo e escreve como um ser humano. O chatbot com inteligência artificial desenvolvido pela OpenAI abre uma nova era da tecnologia. No entanto, o sistema ainda não trabalha como um cérebro humano. E precisa ser regulamentado, alertam os especialistas.

Quem pôde escapar da onda do ChatGPT? Desde o seu lançamento, há quatro meses, e apenas na Suíça, toda a mídia impressa dedicou a ele uma média de 10 artigos por dia. Se contarmos também rádio, televisão, mídia online e redes sociais, pode-se dizer que poucas vezes um produto se beneficiou de uma tal campanha.

Entusiásticos no início, os comentários, no entanto, rapidamente azedaram, pois a máquina revelou suas falhas e os perigos que representa tanto pela confiabilidade das informações quanto para a proteção dos dados do usuário.

Em 29 de março, mil especialistas pediramLink externo a empresas e governos que congelassem o desenvolvimento da IA por seis meses, citando “grandes riscos para a humanidade”. Entre eles Steve Wozniak, co-fundador da Apple e Elon Musk, que é um dos financiadores iniciais da OpenAILink externo, a empresa que desenvolve o ChatGPT.

Três dias depois, a autoridade nacional italiana de proteção de dados decidiu bloquear o acesso ao bot. Ela acusaLink externo o ChatGPT de coletar e armazenar informações para treinar seus algoritmos sem qualquer base legal. A autoridade pediu à OpenAI que comunique no prazo de 20 dias as medidas tomadas para remediar esta situação, ou enfrente uma multa de até 20 milhões de euros.

Em 27 de março, a Europol, a agência policial criminal européia, alertouLink externo em um boletim (em inglês) suas preocupações sobre a possível exploração do ChatGPT por cibercriminosos.

Conteúdo externo

“Sem surpresa, após o lançamento prematuro do ChatGPT e a corrida ao fundo em termos de segurança causada pela Microsoft, Google ou Facebook, o GPT-4 está fora”. El Mahdi El Mhamdi é uma das vozes contra a falta de regulamentação em torno da IA. Professor da Escola Politécnica de Paris, ele fez sua tese na Escola Politécnica Federal de Lausanne (EPFL) sob a supervisão de Rachid Guerraoui. Dois nomes que poderão ser encontrados mais adiante neste artigo.

O chatbot seria tão perigoso? Com sua interface sóbria e até despojada e sua polidez um pouco compassada, ele não se parece, no entanto, com Siri, Cortana, OK Google e outros. Para entender melhor, devemos examinar um pouco o que é essa máquina e, acima de tudo, o que ela não é.

Um cérebro eletrônico?

Quando perguntado diretamente, o ChatGPT não faz segredo sobre sua natureza: “Como um programa de computador, sou fundamentalmente diferente de um cérebro humano”. Em seguida, ele explica que pode processar grandes quantidades de dados muito mais rápido do que um ser humano, que sua memória nada esquece, mas que ele não tem inteligência emocional, autoconsciência, inspiração, pensamento criativo e a capacidade de tomar decisões autônomas.

Isso ocorre porque a própria arquitetura da IA não tem nada a ver com a do cérebro, como brilhantemente explicado em um livro a ser publicado em 13 de abril na versão francesa. “Mil CérebrosLink externo” é o resultado de um trabalho recente das equipes de Jeff Hawkins. Este engenheiro informático americano foi, nos anos 1990, um dos pais do Palm, um assistente pessoal de bolso que precedeu o smartphone. Reconvertido para a neurociência, Hawkins é hoje o chefe da empresa de IA Numenta.

Uma das principais ideias do livro é que o cérebro cria referenciais com centenas de milhares de “mapas” de tudo o que sabemos, que ele modifica constantemente com as informações que recebe de nossos sentidos. Uma IA, por outro lado, não tem olhos nem ouvidos e se alimenta apenas dos dados que lhe são fornecidos, que permanecem congelados e não evoluem.

Hawkins ilustra sua tese com exemplos simples. Assim, uma IA que indexa imagens é capaz de reconhecer um gato. Mas ela não sabe que é um animal, que ele tem cauda, pernas e pulmões, que alguns humanos preferem gatos a cães, ou que o gato ronrona ou perde pelo. Em outras palavras, a máquina sabe muito menos sobre gatos do que uma criança de cinco anos.

Ele erra. Às vezes, persiste

Pergunte ao ChatGPT se o personagem de histórias em quadrinhos Tintim andou na Lua. A armadilha é considerável, mas a máquina não cai nela, especificando desde o início que o álbum de Hergé é uma obra de ficção. Mas ela acrescenta que a missão lunar foi “organizada por Syldavia e Borduria”.

Sério? No universo de Hergé, Syldavia e Borduria são um pouco como a Ucrânia e a Rússia no momento, menos a guerra… A esta observação, o ChatGPT admite que estes dois países imaginários “são muitas vezes apresentados como inimigos e rivais”, mas persiste: o foguete é uma colaboração entre a Syldavia e o “Zbroïa Airfix de Borduria” (incrível, ou melhor, crível já que nem o Google sabia disso!!?)

Então, neste caso, o que faz o coronel Boris, espião a bordo do foguete que ele deve sequestrar? Sem decepcionar, o ChatGPT concorda: Boris é de fato um espião, embarcado como um clandestino, mas o foguete ainda é uma colaboração entre Syldavia e o que é agora o “Centro Espacial de Borduria”.

Na quarta resposta, a máquina finalmente descobriu que Borduria não tem nada a ver com a construção do foguete lunar. E como os bots são programados para aprender com seus erros, ele jura que não vamos mais pegá-lo com esse truque. Uma hora depois, para a mesma pergunta, ChatGPT esqueceu Borduria (e Syldavia), mas nos diz que o foguete foi construído pelo Professor Girassol, possivelmente no laboratório onde ele trabalha “localizado na Suíça, nas montanhas” (!!?)

Teste realizado com a versão paga do ChatGPT em 31 de março de 2023

E por quê? Porque a criança já viu um gato, o acariciou, ouviu seu ronronar e toda esta informação veio enriquecer o “mapa” do gato que ela tem em seu cérebro. Por sua vez, um chatbot como o ChatGPT depende apenas de cadeias de palavras e da probabilidade de que elas acabem próximas umas das outras.

>>No vídeo abaixo (em francês), Le Nguyên Hoang, coautor dos livros de El Mahdi El Mhamdi e Rachid Guerraoui (citado abaixo) expõe o que ele acredita ser o perigo real do ChatGPT.

Conteúdo externo

Esses limites da IA como ela ainda é construída hoje já foram previstos há mais de 70 anos por Alan Turing, o brilhante matemático britânico que lançou as bases da ciência da computação. Em 1950, em seu artigo “Computing Machinery and Intelligence”, Turing já via que, se quisermos construir uma máquina que pense, não será suficiente programá-la para fazer deduções de massas de dados. Para realmente merecer seu nome, as Inteligências Artificiais também terão que ser capazes de raciocinar por indução, ou partir de um caso particular para chegar a uma generalização. E ainda estamos muito longe disso.

É bem dito, e muitas vezes é verdade

Rachid Guerraoui dirige o Laboratório de computação da EPFL. Com o seu colaborador Le Nguyen Hoang, que também dirige o canal de Youtube “Science4AllLink externo“, publicou em 2020 ” Turing na praia – AI em uma espreguiçadeiraLink externo“, um livro cujo editor promete que, depois de lê-lo, “você não verá o seu computador da mesma forma”.

“Na maioria das vezes, o ChatGPT diz é verdade. Mas ele também comete regularmente grandes erros. Portanto, não se deve confiar cegamente nele.” Rachid Guerraoui, EPFL

Para Guerraoui, um dos principais riscos do ChatGPT é o excesso de confiança. “Na maioria das vezes, o que ele diz é verdade, ou pelo menos está tão bem escrito que soa completamente verdadeiro. Mas ele também comete regularmente grandes erros. Portanto, não se deve confiar cegamente nele.” Infelizmente, nem todo mundo tem a mente crítica para questionar o que a máquina diz, especialmente quando ela o diz claramente, sem erros ortográficos ou gramaticais. “Outro perigo que vejo é que isso tira a responsabilidade das pessoas”, continua o professor. “E até as empresas vão usá-lo. Mas qual é a fonte, quem é responsável se a informação dada é problemática? Não está nada claro.”

Será que Guerraoui teme que as IAs substituam jornalistas, escritores ou mesmo professores, como muitas vezes ouvimos? Ainda não, mas ele imagina que “alguns empregos podem mudar. O professor ou jornalista será o responsável por verificar, cruzar fontes, porque a máquina sairá com um texto que parecerá plausível e que será verdade na maioria das vezes. Mas ainda teremos que verificar tudo.”

Possível regulamentação

“O grande desafio hoje para a IA não é o desempenho, mas a governança, a regulamentação e a exigência de confiabilidade”, disse El Mahdi El Mhamdi, ex-aluno de doutorado da EPFL e agora professor de matemática e ciência de dados na Escola Politécnica de Paris.

“Na minha opinião, o ChatGPT não é simplesmente superestimado, mas sua implementação precoce é irresponsável e perigosa” El Mahdi El Mhamdi, Politécnica, Paris

Em 2019, ele publicou juntamente com Le Nguyên Hoang “O fabuloso projeto: tornar a inteligência artificial robustamente benéficaLink externo“, um livro que trata em particular dos perigos dos chamados algoritmos de recomendação, aqueles que permitem que as redes sociais lhe ofereçam conteúdo que supostamente lhe interessa de acordo com o seu perfil. El Mhamdi não esperou que o ChatGPT denunciasse o impacto desses algoritmos no “caos informacional de nossas sociedades”.

“Na minha opinião, o ChatGPT não é apenas superestimado, mas sua implementação precoce é irresponsável e perigosa”, adverte o professor. “Quando vejo o entusiasmo incondicional por trás dessa ferramenta, inclusive entre alguns colegas, me pergunto se vivemos no mesmo planeta.” Vale lembrar os escândalos de indexação de perfis realizada pela Cambridge Analytica ou a proliferação de spyware como o Pegasus, que pode ser instalado secretamente em telefones celulares.

El Mhamdi admite que o ChatGPT pode ser uma boa ajuda ao trabalho, mas lembra que a ciência que permitiu a sua criação “é o resultado de uma acumulação do que foi publicado por milhares de investigadores ao longo da última década, e também de recursos de engenharia colossais, bem como o trabalho eticamente muito problemático de trabalhadores mal pagos no Quénia (quadro abaixo)”.

Em última análise, para ele, “o verdadeiro gênio da OpenAI não está na ciência por trás do ChatGPT, mas no marketing, direcionado a um público animado com o gadget”. O público e a mídia, pode-se acrescentar, para retornar ao início deste artigo. Isso mesmo, todo mundo fala sobre isso, mas você já viu um anúncio para o ChatGPT?

O lado sombrio da IA

O ChatGPT não diferencia entre descrever um voo de andorinhas sobre um campo de tulipas e o estupro de uma criança por seu pai. Para ele, essas situações são apenas informações; como a dor para o Exterminador do Futuro (do filme The Terminator). Os designers de IA devem, portanto, ensinar a máquina, que não tem valores, nem consciência, nem moral, a reconhecer o que é permitido e o que não é. Para isso, é necessário dar-lhe exemplos das coisas mais abjetas que os seres humanos são capazes de produzir para que saibam reconhecê-las e eliminá-las.

Em janeiro de 2023, uma reportagemLink externo da revista Time revelou como a OpenAI havia terceirizado esse problema. A partir de novembro de 2021, a firma enviou dezenas de milhares de trechos de textos tóxicos encontrados na internet para a empresa americana SamaLink externo, que os dissecou, principalmente em sua filial de Nairobi, no Quênia. Lá, cerca de trinta pessoas tinham que passar nove horas por dia lendo e indexando estupros, torturas, atos zoófilos e pedocriminosos, descritos com precisão clínica. Isso, por apenas dois dólares por hora.

Como ninguém sai ileso de tal onda de horrores, Sama, que exibe um rótulo “ético”, forneceu a esses trabalhadores das sombras apoio psicológico. Mas, de acordo com ex-funcionários, que concordaram em falar com o repórter da Time sob condição de anonimato, foi em grande parte insuficiente. Desde então, o contrato entre a OpenAI e a Sama foi quebrado.

O ChatGPT, por sua vez, não guardou uma memória dessa página inglória de sua concepção. Seja qual for a maneira como você perguntar a ele, todas as respostas giram em torno do famoso “desculpe, mas como modelo de linguagem, eu não tenho acesso …, eu não sou capaz …, eu não posso fornecer informações …, eu não tenho a capacidade …”

Edição: Sabrina Weiss

Adaptação: DvSperling

Nota da redação: abaixo um exemplo da criatividade do ChatGPT

ChatGPT
ChatGPT

Certificação JTI para a SWI swissinfo.ch

Mostrar mais: Certificação JTI para a SWI swissinfo.ch

Veja aqui uma visão geral dos debates em curso com os nossos jornalistas. Junte-se a nós!

Se quiser iniciar uma conversa sobre um tema abordado neste artigo ou se quiser comunicar erros factuais, envie-nos um e-mail para portuguese@swissinfo.ch.

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR

SWI swissinfo.ch - sucursal da sociedade suíça de radiodifusão SRG SSR