De acordo com o estudo, intitulado "Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos", a estratégia da plataforma dona do Facebook, Instagram e WhatsApp "cria o potencial para que desinformação e ódio se espalhem sem controlo".
"Um sistema assim [notas da comunidade] não conseguirá lidar com a quantidade de conteúdo compartilhado nas plataformas da empresa", pelo que o novo sistema "deixará passar falsidades e pode amplificar conteúdo de ódio".
Os autores do estudo alertam para o facto de as 'notas da comunidade' só ficarem visíveis depois dos conteúdos serem sinalizados de forma oportuna, o que pode demorar muito tempo e contribuir para a disseminação de informação falsa.
"Uma nota torna-se visível para a base de utilizadores mais ampla apenas quando um número suficiente de colaboradores concorda que ela é relevante através de votos", refere o estudo.
Outro dos aspetos realçados diz respeito ao apoio que deve ser dado aos moderadores comunitários, pois "além de serem expostos a conteúdos horríveis, também sofrem frequentemente assédio e abuso por serem membros identificáveis da comunidade".
"Se os voluntários forem expostos a conteúdos considerados perturbadores, será que a Meta oferecerá auxílio social e psicológico?", é a questão levantada pelos investigadores.
Neste sentido, o novo sistema de "notas da comunidade" não pode funcionar sem proteções e salvaguardas, até porque a moderação não se resume apenas a tomar decisões sobre o que é "verdadeiro" ou "falso".
Assim, de acordo com o estudo, o novo modelo da Meta pode não ser suficiente para conter 'fake news' e conteúdos prejudiciais.
A MIT - Technology Review Brasil conta com 125 anos de atividade na área da análise tecnológica, bem como nos seus impactos sociais, políticos e económicos.
Leia Também: Musk tem cura para a diabetes? Anúncios falsos avistados no Facebook