Grok: imagens fakes de políticos explodem no X e desinformação ganha combustível
Créditos: Reprodução X/ Brian Roemmele
Relatório mostra que conteúdos tiveram milhões de interações e 63 milhões de visualizações em apenas 15 dias
Imagens falsas e altamente realistas geradas pela inteligência artificial Grok, de Elon Musk, já se tornaram virais nas redes sociais e no cenário político brasileiro. Embora a ferramenta seja empregada para criar conteúdos de humor em contextos fictícios, ela também pode ser vista como um instrumento para alimentar a desinformação na plataforma.
A inteligência artificial foi liberada para todos os usuários do X há apenas duas semanas. Lançada em 2023 e habilitada para geração de imagens em agosto, a ferramenta inicialmente era exclusiva para assinantes do X Premium. Ao contrário de outras inteligências artificiais do tipo “Texto para Imagem”, o Grok foi criticado pela ausência de limites na criação de imagens, conteúdos violentos e diretrizes de segurança.
De acordo com um relatório da consultoria Bites, entre 1º e 16 de dezembro foram registrados 21 mil tuítes com essas imagens, acumulando 1,47 milhão de interações e 63,8 milhões de visualizações. O pico de publicações aconteceu em 11 de dezembro, com 8,1 mil tuítes, no dia seguinte à cirurgia de Lula para drenar uma hemorragia interna decorrente de uma queda no banheiro do Palácio do Alvorada em outubro.
Nas redes sociais, as imagens falsas mais virais sobre o tratamento do presidente mostravam Lula com a cabeça enfaixada e recebendo visitas inusitadas no Hospital Sírio-Libanês, incluindo o apresentador Faustão e o ex-presidente Bolsonaro. De acordo com um levantamento da agência Lupa, vídeos e imagens relacionadas se espalham pelo TikTok e aplicativos de mensagens, alcançando mais de 1 milhão de usuários só nos dias 9 e 10 de dezembro.
LEIA TAMBÉM: Atestado de óbito: bolsonaristas produzem fake news perturbadora sobre Lula
A Lupa também identificou pelo menos dez postagens manipuladas no X, contendo ilustrações falsas de Lula no hospital. A ferramenta Grok, que cria imagens com IA, é de fácil acesso, e o usuário obtém o resultado rapidamente. Apesar das imagens terem marca d’água, essa indicação é muitas vezes ignorada pelos usuários da rede.
Após a prisão do general Braga Netto, candidato a vice na chapa de reeleição de Bolsonaro em 2022, um vídeo falso do ex-presidente, gerado por uma ferramenta não identificada, se espalhou, atingindo mais de 123 mil usuários. A desinformação envolvendo a IA não se limitou ao Palácio do Planalto nem ao uso da ferramenta do X. Nas imagens manipuladas, Bolsonaro faz um apelo para não ser preso devido à sua saúde: “Estou me recuperando de uma facada. Por favor, leve isso em consideração.”
No último dia 16, Tarcísio de Freitas ainda publicou uma imagem gerada pelo Grok, em que aparece ao lado de Musk. A falta de clareza sobre o uso da IA para criar a foto gerou críticas de usuários do X e do Instagram. A legenda sugeria que era uma cena falsa, mas não fornecia um aviso explícito.
“Talvez digam por aí que é inteligência artificial, mas a verdade é que sou eu levando o Elon Musk para dar uma volta no centro da capital e mostrar onde vai ficar a nova sede do Governo do Estado por lá!”, escreveu o governador em uma postagem que alcançou mais de 176 mil usuários.
No Google Trends, as pesquisas pela IA de Musk superaram, por exemplo, a plataforma de imagens Dall-E, da OpenAI após se tornar pública. Ao contrário de seus concorrentes, o Grok não oferece proteção contra abusos, como roubo de identidade, privacidade e pode ser utilizada para infringir seis dos 17 riscos relacionados à inteligência artificial.
Regulamentação da IA
O Senado Federal, em sessão realizada no dia 10 de dezembro, aprovou um marco regulatório histórico para a inteligência artificial (IA) no Brasil, o PL 2338/2023. A proposta estabelece um conjunto de normas para o desenvolvimento e utilização de sistemas de IA em todo o território nacional. O projeto foi apresentado em 2023 pelo presidente do Senado, Rodrigo Pacheco (PSD-MG) e integra as prioridades que o parlamentar buscou aprovar antes do término de seu mandato à frente da Presidência da Casa, previsto para fevereiro.
Como mostrou a Fórum, organizações da sociedade civil, representada por mais de 30 conjuntos da Coalizão Direitos na Rede, alertaram para a necessidade de aprimoramentos urgentes no texto na última sexta-feira (29). As entidades sinalizaram que a versão atual do projeto continha retrocessos que podiam comprometer a proteção dos direitos dos cidadãos no ambiente digital.
Com a aprovação, a principal divergência ocorre justamente em relação à classificação de algoritmos de redes sociais como sistemas de alto risco, uma das partes mais importantes do projeto e enfatizada pelas entidades. As big techs ou gigantes da tecnologia, como Google, Microsoft, X e Meta, ficaram de fora da categoria e agora o lobby será favorecido.
FONTE: REVISTA FÓRUM