Notícias

‘Ei, @Grok, isso é verdade?’ Dá pra confiar em IA como checadora de fatos?

3 de junho de 2025

Créditos: LIONEL BONAVENTURE / AFP

Com as plataformas reduzindo o número de verificadores humanos, os usuários estão cada vez mais confiando em chatbots alimentados por IA. Mas as respostas muitas vezes estão repletas de desinformação

Fonte: Revista Fórum

Com a explosão da desinformação durante o conflito de quatro dias entre a Índia e o Paquistão, os usuários das redes sociais recorreram a um chatbot de IA para verificação — apenas para encontrar mais falsidades, ressaltando sua falta de confiabilidade como ferramenta de verificação de fatos.

Com as plataformas tecnológicas reduzindo o número de verificadores humanos, os usuários estão cada vez mais confiando em chatbots alimentados por IA — incluindo o Grok da xAI, o ChatGPT da OpenAI e o Gemini do Google — em busca de informações confiáveis.

“Ei, @Grok, isso é verdade?” tornou-se uma pergunta comum na plataforma X de Elon Musk, onde o assistente de IA está integrado, refletindo a tendência crescente de buscar desmascaramentos instantâneos nas redes sociais.

Mas as respostas muitas vezes estão repletas de desinformação.https://d-12464555902379646879.ampproject.net/2505022142002/frame.html

O Grok — agora sob novo escrutínio por inserir “genocídio branco”, uma teoria da conspiração da extrema direita, em perguntas não relacionadas — identificou erroneamente imagens antigas do aeroporto de Cartum, no Sudão, como um ataque com mísseis à base aérea de Nur Khan, no Paquistão, durante o recente conflito do país com a Índia.

Imagens não relacionadas de um prédio em chamas no Nepal foram erroneamente identificadas como “provavelmente” mostrando a resposta militar do Paquistão aos ataques indianos.

“A crescente dependência do Grok como verificador de fatos ocorre no momento em que a X e outras grandes empresas de tecnologia reduziram os investimentos em verificadores de fatos humanos”, disse McKenzie Sadeghi, pesquisadora da NewsGuard, órgão de fiscalização de desinformação, à AFP.

“Nossa pesquisa descobriu repetidamente que os chatbots de IA não são fontes confiáveis de notícias e informações, especialmente quando se trata de notícias de última hora”, alertou ela.

Fabricado

A pesquisa da NewsGuard descobriu que 10 chatbots líderes eram propensos a repetir falsidades, incluindo narrativas de desinformação russas e alegações falsas ou enganosas relacionadas às recentes eleições australianas.

Em um estudo recente com oito ferramentas de busca de IA, o Tow Center for Digital Journalism da Universidade de Columbia descobriu que os chatbots eram “geralmente ruins em recusar-se a responder perguntas que não podiam responder com precisão, oferecendo respostas incorretas ou especulativas”.

Quando os verificadores de fatos da AFP no Uruguai perguntaram ao Gemini sobre uma imagem gerada por IA de uma mulher, ele não apenas confirmou sua autenticidade, mas também inventou detalhes sobre sua identidade e onde a imagem provavelmente foi tirada.

O Grok recentemente classificou um suposto vídeo de uma anaconda gigante nadando no rio Amazonas como “genuíno”, citando até mesmo expedições científicas que pareciam confiáveis para apoiar sua afirmação falsa.

Na realidade, o vídeo foi gerado por IA, relataram os verificadores de fatos da AFP na América Latina, observando que muitos usuários citaram a avaliação do Grok como prova de que o clipe era real.

Essas descobertas levantaram preocupações, pois pesquisas mostram que os usuários online estão cada vez mais migrando dos mecanismos de busca tradicionais para chatbots de IA para coleta e verificação de informações.

A mudança também ocorre no momento em que a Meta anunciou no início deste ano que estava encerrando seu programa de verificação de fatos por terceiros nos Estados Unidos, transferindo a tarefa de desmascarar falsidades para usuários comuns sob um modelo conhecido como “Notas da Comunidade”, popularizado pela X.

Pesquisadores têm questionado repetidamente a eficácia das “Notas da Comunidade” no combate às falsidades.

Respostas tendenciosas

A verificação de fatos por humanos é um ponto de discórdia em um clima político hiperpolarizado, particularmente nos Estados Unidos, onde defensores conservadores afirmam que ela suprime a liberdade de expressão e censura conteúdo de direita — algo que verificadores de fatos profissionais rejeitam veementemente.

A AFP atualmente trabalha em 26 idiomas com o programa de verificação de fatos do Facebook, incluindo na Ásia, América Latina e União Europeia.

A qualidade e a precisão dos chatbots de IA podem variar, dependendo de como são treinados e programados, o que suscita preocupações de que seus resultados possam estar sujeitos a influência ou controle político.

A xAI de Musk recentemente culpou uma “modificação não autorizada” por fazer com que o Grok gerasse postagens não solicitadas referindo-se ao “genocídio branco” na África do Sul.

Quando o especialista em IA David Caswell perguntou ao Grok quem poderia ter modificado o prompt do sistema, o chatbot apontou Musk como o culpado “mais provável”.

Musk, o bilionário nascido na África do Sul que apoia o presidente Donald Trump, já havia divulgado a alegação infundada de que os líderes da África do Sul estavam “promovendo abertamente o genocídio” dos brancos.

“Vimos como os assistentes de IA podem fabricar resultados ou dar respostas tendenciosas depois que programadores humanos alteram especificamente suas instruções“, disse Angie Holan, diretora da Rede Internacional de Verificação de Fatos, à AFP.

???Estou especialmente preocupada com a maneira como o Grok lidou mal com solicitações relativas a assuntos muito delicados depois de receber instruções para fornecer respostas pré-autorizadas.”

© Agence France-Presse

Cadastre-se e receba e-mail com notícias do SINDPD