O organismo, criado em 2020, considerou que a decisão da Meta de abandonar as parceiras com as organizações de verificação independentes tinha sido tomada "apressadamente, rompendo com o procedimento normal", avança a agência de notícias AFP.
Em particular, não foi acompanhada de "qualquer informação pública sobre as avaliações, caso existam, do seu impacto nos direitos humanos" nas redes sociais Facebook, Instagram e Threads.
A Meta anunciou em janeiro o fim da verificação de factos nos Estados Unidos e atualizou as suas regras e práticas de moderação de conteúdo, passando a existir as chamadas notas da comunidade.
Deste modo, o grupo decidiu excluir menos mensagens e publicações suscetíveis de violar as suas normas, nomeadamente no que se refere a comentários dirigidos a minorias, argumentando que até agora "demasiados conteúdos eram censurados quando não o deviam ser".
Em reposta, várias organizações alertaram para as consequências destas alterações para as minorias, nomeadamente para a comunidade LGBTQ+.
"É agora essencial que a Meta identifique e resolva quaisquer impactos negativos nos direitos humanos que possam resultar", apelou o conselho, sugerindo que a tecnológica avalie o impacto das notas da comunidade em situações onde a desinformação representa um risco para a segurança das pessoas.
Leia Também: Apple e Meta multadas na Europa. Valor chega aos 700 milhões de euros