Meta está mudando seu sistema de moderação de conteúdo para um modelo de “notas da comunidade”, que pode arriscar verificação de fatos
A Meta, empresa controladora do Facebook, Instagram, Threads e WhatsApp, anunciou nesta terça-feira (07) mais uma mudança radical em sua política de moderação de conteúdo, que pode ter profundas implicações para a disseminação de informações falsas nas redes sociais.
A principal alteração é o fim do programa de verificação de fatos por terceiros. No lugar, a empresa adotará um sistema de “notas da comunidade”, similar ao modelo implementado pelo X (antigo Twitter). Segundo a big tech, essa mudança visa promover a liberdade de expressão e reduzir a censura de conteúdos legítimos.
Mark Zuckerberg, CEO da Meta, explicou a decisão: para a empresa, os verificadores de fatos “têm sido muito politicamente tendenciosos e destruíram mais confiança do que criaram”. Além disso, o sistema anterior removia conteúdos considerados inofensivos com frequência, em boa parte por razão ideológica. A decisão da Meta coincide com uma mudança ideológica mais ampla dentro da big tech, marcada pela aproximação com figuras políticas conservadoras, incluindo o presidente eleito Donald Trump.
Sobre o assunto, conversamos com Roberto Pena Spinelli, que é físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de Inteligência Artificial.
OLHAR DIGITAL