Youtube flexibiliza regras de moderação sem comunicar aos usuários: entenda as novas diretrizes

Créditos: Reprodução/ Agência PT
Plataforma passa a manter no ar conteúdos antes removidos por violar políticas
Fonte: Revista Fórum
Desde a volta de Donald Trump à Casa Branca, o YouTube adotou uma nova abordagem na moderação de conteúdo. Agora, vídeos com trechos que poderiam infringir suas diretrizes estão sendo mantidos na plataforma, desde que tenham relevância pública — como debates políticos, campanhas eleitorais e audiências públicas.
Essa mudança, implementada discretamente em dezembro, representa um afastamento da política mais rígida aplicada durante a pandemia, quando até encontros com autoridades locais e discussões entre governadores e especialistas eram retirados do ar por conterem informações médicas questionáveis.
A nova diretriz foi revelada em materiais de treinamento obtidos pelo The New York Times. Neles, a empresa orienta os moderadores a permitir vídeos com até metade do conteúdo em desacordo com as regras, desde que considerados de interesse jornalístico ou social. A medida acompanha a tendência de outras plataformas como o X (ex-Twitter) e o Facebook, que também reduziram seus programas de verificação de fatos após pressões de setores conservadores.
Porta-voz do YouTube, Nicole Bell afirmou que a empresa atualiza suas diretrizes conforme o contexto social muda, e que a prioridade é equilibrar liberdade de expressão e segurança. Só nos três primeiros meses do ano, mais de 190 mil vídeos foram removidos por discurso de ódio.
Críticos, no entanto, alertam que essa flexibilização pode alimentar a circulação de desinformação e discursos de ódio. Especialistas apontam que, apesar de alegar defesa da liberdade de expressão, as plataformas estão mais interessadas em reduzir custos e manter o engajamento do público — o que, no fim das contas, significa mais lucro.