Meta quer apresentar seu próximo verificador de fatos – um que detectará mentiras, corrigirá convicções escritas e alertará outras pessoas sobre conteúdo enganoso.
É você.
Mark Zuckerberg, CEO da Meta, Foi anunciado na terça-feira Que ele está encerrando muitos dos esforços de moderação da empresa, como verificação de fatos de terceiros e restrições de conteúdo. Em vez disso, disse ele, a empresa transferirá as responsabilidades de verificação de fatos aos usuários comuns sob um modelo chamado Community Notes. que foi popularizado por X e permite que os usuários verifiquem os fatos ou editem uma postagem nas redes sociais
O anúncio sinalizou o fim de uma era de moderação de conteúdo e a adoção de diretrizes mais flexíveis que até mesmo Zuckerberg reconheceu que aumentariam a quantidade de conteúdo falso e enganoso na maior rede social do mundo.
“Acho que será um fracasso espetacular”, disse Alex Mahadevan, diretor de um programa de alfabetização midiática do Instituto Poynter chamado MediaWise, que pesquisou notas da comunidade sobre X. . Eles podem transferir a responsabilidade para os próprios usuários.”
Tal viragem era impensável após as eleições presidenciais de 2016 ou mesmo de 2020, quando as empresas de redes sociais se viam como combatentes relutantes na linha da frente de uma guerra de desinformação. As falsidades generalizadas durante as eleições presidenciais de 2016 provocaram uma reação pública e um debate interno sobre o seu papel nas empresas de redes sociais. Espalhando as chamadas notícias falsas.
As empresas responderam investindo milhões em esforços de moderação de conteúdo, pagando verificadores de factos a terceiros, desenvolvendo algoritmos complexos para limitar o conteúdo tóxico e publicando rótulos de advertência para retardar a propagação de falsidades – medidas consideradas necessárias para restaurar a confiança do público.
Os esforços funcionaram até certo ponto: os rótulos de verificação de factos foram eficazes na redução da crença em mentiras, descobriram os investigadores, embora tenham sido menos eficazes nos americanos conservadores. Mas os esforços colocaram as plataformas – e Zuckerberg em particular – sob o comando do presidente eleito Donald J. Tornou alvos políticos para Trump e seus aliados, que dizem que a moderação de conteúdo nada mais é do que censura
Agora o ambiente político mudou. Com Trump pronto para assumir o controle da Casa Branca e das agências reguladoras que supervisionam o Meta, Zuckerberg se concentrou em reparar seu relacionamento com Trump, Jantar no Mar-a-Lago, Os aliados de Trump estão sendo adicionados O conselho de administração de Mater e uma doação de US$ 1 milhão para o fundo inaugural do Sr.
“As recentes eleições parecem ser um ponto de inflexão cultural para priorizar novamente o discurso”, disse Zuckerberg em um vídeo anunciando as mudanças de moderação.
A aposta de Zuckerberg no uso de Community Notes para substituir verificadores de fatos profissionais foi inspirada por um experimento semelhante no X, que permitiu que seu proprietário bilionário, Elon Musk, terceirizasse a verificação de fatos da empresa para os usuários.
X agora pede aos usuários comuns que identifiquem mentiras e escrevam correções ou adicionem informações adicionais às postagens nas redes sociais. Os detalhes exatos do programa Mater não são conhecidos, mas no X, as notas são inicialmente visíveis apenas para usuários que se registram no programa Community Notes. Assim que uma nota recebe votos suficientes para ser considerada valiosa, ela é adicionada à postagem na mídia social para que todos possam ver.
“O sonho de uma plataforma de mídia social é a moderação totalmente automatizada pela qual eles, primeiro, não precisam assumir responsabilidade e, segundo, não precisam pagar ninguém”, disse Mahadevan, diretor da MediaWise. “Portanto, as notas da comunidade são o sonho absoluto dessas pessoas – elas estão basicamente tentando projetar um sistema que verifique automaticamente a autenticidade.”
Musk, outro assessor de Trump, foi um dos primeiros defensores das Notas Comunitárias. Ele melhorou rapidamente o programa depois de demitir a maior parte da equipe de confiança e segurança da empresa.
Estudos mostraram que as notas da comunidade funcionam para dissipar algumas mentiras virais O método funciona melhor para tópicos sobre os quais há amplo consenso, descobriram os pesquisadores, como a desinformação sobre a vacina Covid.
A este respeito, as notas “emergiram como uma solução inovadora, fornecendo informações de saúde precisas e credíveis”, disse John W. Ayers, vice-chefe de inovação da Divisão de Doenças Infecciosas e Saúde Pública Global da Universidade da Califórnia. San Diego, Faculdade de Medicina, que escreveu UM Relatório Em abril sobre o assunto.
Mas os usuários com opiniões políticas diferentes devem concordar com uma verificação de fatos antes de adicionar uma postagem publicamente, o que significa que postagens enganosas sobre tópicos politicamente divisivos muitas vezes não são verificadas. A MediaWise descobriu que menos de 10% das notas da comunidade elaboradas pelos usuários resultaram em postagens ofensivas. O número é ainda menor para questões delicadas como imigração e aborto.
Os pesquisadores descobriram que a maioria das postagens no X recebe a maior parte do tráfego nas primeiras horas, mas pode levar dias para que uma nota da comunidade seja aprovada para que todos possam vê-la.
Desde sua estreia em 2021, o programa despertou o interesse de outras plataformas. YouTube anunciou no ano passado que estava iniciando um projeto piloto que permitiria aos usuários enviar notas que aparecem abaixo de vídeos enganosos. A utilidade dessas verificações de fatos ainda é avaliada por avaliadores terceirizados, disse o YouTube em uma postagem no blog.
As ferramentas existentes de moderação de conteúdo do Meta parecem estar sobrecarregadas por um dilúvio de conteúdo falso e enganoso, mas as intervenções são vistas pelos pesquisadores como bastante eficazes. uma pesquisa Publicado no ano passado na revista Nature Human Behavior mostraram que rótulos de advertência, como aqueles usados pelo Facebook para alertar os usuários sobre informações falsas, reduziram a crença em mentiras em 28% e o conteúdo compartilhado em cerca de 25%. Os investigadores descobriram que os utilizadores de direita eram mais desconfiados da verificação de factos, mas as intervenções ainda foram eficazes na redução da sua crença em conteúdos falsos.
“Todas as pesquisas mostram que quanto mais lombadas, basicamente, quanto mais atrito há em uma plataforma, menos informações de baixa qualidade você obtém”, disse Claire Wardle, professora associada de comunicações na Universidade Cornell.
Os pesquisadores acreditam que a verificação de fatos da comunidade é eficaz quando combinada com esforços internos de moderação de conteúdo. Mas a abordagem indiferente de Mater pode ser arriscada.
“A abordagem baseada na comunidade é uma peça do quebra-cabeça”, disse Valerie Wirtschafter, pesquisadora da Brookings Institution que pesquisou Community Notes. “Mas não pode ser a única coisa e certamente não pode ser implementada como uma solução completa e de tamanho único.”


















