Notícias

Democracia em risco: o avanço da IA e a ameaça dos deepfakes nas eleições de 2026

4 de junho de 2025

Créditos: Agência Brasil

Fonte: Revista Fórum

Sem regulamentação específica e com a proliferação de conteúdos falsos gerados por inteligência artificial, especialistas alertam para o uso político das deepfakes e a urgência de ações concretas para proteger o processo eleitoral brasileiro

Pipocam nas redes sociais diversos vídeos gerados por Inteligências Artificial (IA), em especial os mais recentes produzidos pela IA Veo 3 do Google, que chamam a atenção não apenas por suas capacidades técnicas, mas também pelos desafios legais e sociais que impõem – principalmente frente às eleições do próximo ano. O vazio legal e o preparo das instituições é posto à prova quando vídeos manipulados por IA, conhecidos como deepfakes, circulam nas redes sociais e surgem como uma nova forma de se veicular fake news.

O especialista em transformação digital e CEO da Ikhon, Fabiano Carvalho, considera que cada nova geração de IA se beneficia de melhorias contínuas, porém as ferramentas de IA generativa (que são capazes de gerar imagens, vídeos, textos e afins) trazem consigo novos riscos – e é preciso uma regularização específica para essa tecnologia.

“É um fenômeno comum em tecnologia. O uso constante revela oportunidades de aprimoramento e atrai investimentos técnicos e financeiros”, afirma Fabiano Carvalho. “É preciso atenção especial à forma como essas ferramentas coletam dados, evitam o uso indevido para fake news e protegem a identidade de pessoas reais”, alerta Fabiano.

O fluxo constante de informações alimenta modelos baseados em deep learning, que se tornam cada vez mais sofisticados e autônomos e essa evolução exige que empresas adotem estruturas institucionais e tecnológicas robustas para proteger a privacidade dos usuários, especialmente com base na Lei Geral de Proteção de Dados Pessoais (LGPD), segundo a diretora de Privacidade e Inovação da Every Cybersecurity, Sâmya Massari.

Quando o assunto é IA generativa, Sâmya destaca que os maiores empecilhos legais no Brasil estão ligados justamente ao uso e manipulação de dados pessoais. “A LGPD impõe critérios rigorosos para o tratamento de dados, e a criação de conteúdos que simulam pessoas, mesmo que fictícias, pode ferir direitos dos titulares”, alerta. Em casos de descumprimento, as sanções podem ser severas, com empresas sendo multadas ou responsabilizadas judicialmente.

Eleições de 2026 e a IA gerando deepfakes

Com o aumento de vídeos virais que mostram pessoas fictícias ou manipuladas, Fabiano Carvalho vê um alerta para as próximas eleições. “As deepfakes devem se tornar uma prática mais comum na disseminação de desinformação. O Tribunal Superior Eleitoral (TSE) precisa preparar um plano de ação”, sugere Carvalho. “Desconfie de conteúdos extremos e sempre busque confirmar em veículos confiáveis. Assim, evitamos, mesmo sem intenção, espalhar desinformação”, analisa.

Com relação às eleições de 2026, Sâmya Massari é categórica: “As deepfakes não são novidade, mas sua presença será ainda mais estratégica e perigosa no próximo pleito”. Ela lembra que o TSE já se antecipou, com a Resolução nº 23.732/2024, que obriga a identificação explícita de conteúdos gerados por IA em propagandas eleitorais. A manipulação digital, se não for sinalizada, pode resultar na cassação do mandato e outras punições legais.

Para enfrentar o problema, Sâmya defende uma atuação ativa da sociedade. “É fundamental denunciar conteúdos suspeitos e usar ferramentas de verificação de fatos”, recomenda. Além disso, alerta que a criação e disseminação de deepfakes pode configurar violação grave da LGPD, especialmente ao usar imagem, voz e traços pessoais sem consentimento. “O combate às deepfakes é essencial para a proteção da democracia e para garantir a integridade do processo eleitoral brasileiro”, conclui a especialista.

O que é a IA generativa

Inteligência artificial generativa é um tipo de IA capaz de criar novos conteúdos a partir de exemplos e padrões aprendidos durante seu treinamento. Isso inclui textos, imagens, vídeos, músicas e até códigos de computador.

Diferente de outras formas de IA que apenas analisam dados ou fazem previsões, a IA generativa “inventa” algo novo com base no que aprendeu. Ela funciona a partir de modelos matemáticos avançados, como as redes neurais, e é treinada com grandes volumes de informação, o que lhe permite simular a criatividade humana em diferentes formatos.

Como a lei se aplica no Brasil à IA generativa

No Brasil, ainda não há uma legislação específica para a IA generativa, mas ela já é alcançada por leis existentes, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD) e normas de direitos autorais.

Essas leis ajudam a regulamentar o uso de dados pessoais, a responsabilidade por conteúdos falsos e a proteção da imagem e da identidade de indivíduos.

No entanto, especialistas alertam que é urgente criar regras específicas para lidar com os desafios únicos e específicos dessas tecnologias, como a geração de deepfakes e a autoria de conteúdos produzidos por máquinas. O ex-chefe da Meta, por exemplo, chegou a admitir publicamente que “respeitar os direitos autorais poderia matar a IA do dia para a noite”.

A advogada Raíssa Varrasquim Pavon, especialista em Direito Digital e Proteção de Dados explica que, embora essas imagens sejam de indivíduos “inexistentes”, os sistemas são muitas vezes treinados com dados reais, o que pode infringir a Lei Geral de Proteção de Dados (LGPD). “Há riscos quando há semelhança com pessoas reais ou uso para fins comerciais ou difamatórios”, alerta. Projetos como o PL 2338/2023 tentam classificar essas tecnologias como de alto risco e exigem medidas como testes de impacto social e documentação técnica antes de sua liberação.

Sobre os vídeos gerados por IA que circulam nas redes, Raíssa vê neles não apenas entretenimento, mas também um sinal claro dos riscos iminentes para as eleições de 2026. “O TSE já proibiu o uso de deepfakes em campanhas, reconhecendo seu potencial nocivo. Esses vídeos servem como alerta para a necessidade de medidas preventivas urgentes”, diz.

A proteção contra deepfakes eleitorais, segundo ela, deve combinar legislação, tecnologia e educação. Além das proibições legais já em vigor, a especialista defende o letramento digital da população e das equipes de campanha, além da checagem ativa de conteúdos suspeitos. “É uma questão de preservar a integridade do processo democrático em um cenário cada vez mais manipulado por tecnologias de difícil detecção”, conclui.

Cadastre-se e receba e-mail com notícias do SINDPD