Tecnologia G1 - Tecnologia

Mudanças podem fazer Instagram e Facebook virarem novos 'X' e até inibir liberdade de expressão, dizem especialistas

.

Por Rede Vida Brasil

10/01/2025 às 02:12:21 - Atualizado há
Foto: G1 - Globo
Seguindo caminho da rede social de Elon Musk, dona do Instagram e do Facebook vai trocar programa profissional de verificação de fatos por denúncias feitas por usuários, além de permitir mais discursos ofensivos. Estudiosos falam em menos transparência, ambiente tóxico e futuro incerto. Meta, dona de Instagram e Facebook, encerrará sistema de checagem de fatos

As recentes mudanças anunciadas pela Meta na moderação de conteúdo, que a empresa diz que servirão para aumentar a liberdade de expressão, podem ter um efeito contrário, causando desconforto e inibindo alguns usuários.

"Um ambiente mais violento, por exemplo, onde circule mais discurso de ódio, pode ser mais hostil para determinada participação política, o que, no limite, pode prejudicar a liberdade de expressão", explica Francisco Brito Cruz, diretor do Internet Lab.

"Algumas pessoas que vão pensar: 'Poxa, porque eu vou falar nessa plataforma e receber uma chuva de comentários ofensivos que a plataforma diz que é liberdade de expressão? Melhor eu não falar nada'", exemplifica.

Ao anunciar as mudanças, o presidente-executivo da big tech, Mark Zuckerberg , disse que esse é o momento de a empresa "voltar às raízes em torno da liberdade de expressão". A decisão foi celebrada por Elon Musk, dono do X, e pelo presidente eleito Donald Trump.

Mas Cruz e outros especialistas ouvidos pelo g1 entendem que o fim do sistema terceirizado de verificação de fatos, a redução dos temas que podem ser alvo de filtros de conteúdo e uma permissividade para discursos ofensivos vão prejudicar os usuários.

Para David Nemer, professor nos departamentos de Estudos de Mídia e Antropologia na Universidade da Virginia, nos EUA, essa mudança de rota leva o Facebook e o Instagram para o caminho do X. E isso não é bom.

Em 2022, já sob a gestão de Musk, o então Twitter intensificou o uso das "notas da comunidade", onde cabe aos usuários — e não a checadores especializados — denunciar conteúdos falsos, ofensivos ou problemáticos. Esse mesmo sistema será seguido agora pela Meta nas suas plataformas, que também incluem o Threads.

"O número de ataques antissemitas e racistas cresceu exponencialmente no X. Então, é possível esperar que isso se repita na Meta", diz Nemer.

Para Pablo Ortellado, professor de gestão de políticas públicas da Universidade de São Paulo (USP), a moderação de conteúdo é indispensável para o funcionamento das mídias digitais. "Caso contrário, elas seriam rapidamente inundadas por spam, pornografia e propaganda ilícita", exemplificou no podcast O Assunto (ouça abaixo).

Em nota assinada por mais de 70 entidades, incluindo o Instituto de Defesa de Consumidor (Idec), divulgada nesta quarta-feira (8), as organizações fazem um alerta no mesmo sentido.

"Sob o pretexto de 'restaurar a liberdade de expressão', as propostas delineadas não apenas colocam em risco grupos vulnerabilizados que usam esses serviços, mas também enfraquecem anos de esforços globais para promover um espaço digital um pouco mais seguro, inclusivo e democrático", diz o texto.

Como era o serviço de checagem da Meta e quais tipos de postagens eram barradas que agora podem aparecer

Menos transparência

Ao anunciar o fim do programa de checagem de fatos, Zuckerberg disse que os moderadores independentes, que exerciam essa função, são "muito tendenciosos politicamente".

Mas, os checadores não tinham poder de derrubar conteúdo, apenas sinalizavam o que consideravam potencialmente falso para a plataforma, segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia (EUA).

Os checadores atuam a partir de uma série de critérios, como identificação de fatos e dados oficiais, eles são essenciais para reduzir o grau de incerteza das ações de verificação e moderação da plataforma, argumenta Helena Martins, professora da Universidade Federal do Ceará (UFC) e integrante da Coalizão Direitos na Rede.

Além disso, como o programa de checagem de fatos funcionava através de organizações externas à Meta, ele tinha um papel essencial de possibilitar uma governança mais democrática, plural dos e transparente dos conteúdos, segundo Clara Iglesias Keller, líder de pesquisa em tecnologia, poder e dominação no Instituto Weizenbaum, na Alemanha.

'Nova era': entenda o vai e vem na relação de Zuckerberg e Trump

Afrouxamento do 'coração' da moderação de conteúdo

A Meta anunciou também "afrouxamento" dos filtros de verificação, ferramentas de moderação de conteúdos programadas por inteligência artificial para analisar se as publicações estão dentro das regras da plataforma.

Para Cruz, esse sistema de filtro é o "coração da máquina de moderação de conteúdo" e mudanças nele têm potencial de influência muito grande no que circula nas redes.

"Esses sistemas automatizados não checam um ou dois posts, mas atuam no sistema todo. Um afrouxamento no seu controle de regras pode significar um aumento significativo na circulação de conteúdos que não seguem as regras da plataforma e, eventualmente, contêm discursos de ódio e desinformação", descreve.

Uma das principais críticas da Meta em relação a esse sistema é que ele erra e acaba denunciando e removendo conteúdos que estão de acordo com as regras da plataforma, o que era amenizado pelos checadores independentes, segundo Yasmin Curzi.

"As parcerias com agências de checagem sempre foram uma recomendação para evitar a remoção arbitrária de conteúdo", descreve.

Mudanças anunciadas pela Meta:

a Meta deixa de ter os parceiros de verificação de fatos ("fact checking", em inglês) que auxiliam na moderação de postagens, além da equipe interna dedicada a essa função;

em vez de pegar qualquer violação à política do Instagram e do Facebook, os filtros de verificação passarão a focar em combater violações legais e de alta gravidade.

para casos de menor gravidade, as plataformas dependerão de denúncias feitas por usuários, antes de qualquer ação ser tomada pela empresa;

em casos de conteúdos considerados como de "menor gravidade", os próprios usuários poderão adicionar correções aos posts, como complemento ao conteúdo, de forma semelhante às "notas da comunidade" do X;

Instagram e Facebook voltarão a recomendar mais conteúdo de política;

a equipe de "confiança, segurança e moderação de conteúdo" deixará a Califórnia, e a de revisão dos conteúdos postados nos EUA será centralizada no Texas (EUA).

Como era o serviço de checagem da Meta e quais tipos de postagens eram barradas que agora podem aparecer

Mark Zuckerberg anuncia que Meta vai encerrar sistema de checagem de fatos

Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021

Justin Sullivan / Getty Images North America / Getty Images via AFP
Comunicar erro
Rede Vida Brasil

© 2025 REDE VIDA BRASIL
Av Sebastião Lourenço esquina com a rua da paz Jardim Brasília

•   Política de Cookies •   Política de Privacidade    •   Contato   •

Rede Vida Brasil