WASHINGTON – A Meta suspendeu uma investigação interna sobre os efeitos do Facebook e do Instagram na saúde mental depois de encontrar evidências causais de que seus produtos prejudicam a saúde mental dos usuários, de acordo com registros não editados em uma ação coletiva movida por um distrito escolar dos EUA contra a Meta e outras plataformas de mídia social.
Em um projeto de pesquisa de 2020 denominado Projeto Mercury Meta, os cientistas trabalharam com a empresa de pesquisa Nielsen para medir o impacto da “desativação” do Facebook e do Instagram, de acordo com metadocumentos obtidos através do Discovery. Infelizmente, a empresa observa em um documento interno: “Pessoas que pararam de usar o Facebook por uma semana relataram menores sentimentos de depressão, ansiedade, solidão e comparação social”.
Em vez de divulgar essas descobertas ou realizar pesquisas adicionais, a Meta interrompeu o trabalho e declarou internamente que as descobertas negativas foram contaminadas pelo “discurso existente na mídia” em torno da empresa, de acordo com o documento.
Mas a equipe garantiu em particular a Nick Clegg, então chefe de políticas públicas internacionais da Meta, que as conclusões do estudo eram válidas.
“O estudo da Nielsen mostra uma ligação causal com a comparação social” (emoji de rosto infeliz), escreveu um pesquisador anônimo da equipe. Outro funcionário temia que permanecer em silêncio sobre as descobertas negativas seria o mesmo que a indústria do tabaco “fazer pesquisas e saber que os cigarros são prejudiciais e manter essa informação em segredo”.
Apesar da própria investigação da Meta documentar uma ligação causal entre os seus produtos e os efeitos negativos para a saúde mental, a Meta testemunhou ao Congresso que não tinha capacidade para quantificar se os seus produtos eram prejudiciais para as adolescentes, alega o processo.
O porta-voz da Meta, Andy Stone, disse em comunicado de 22 de novembro que o estudo foi interrompido devido a uma metodologia falha e que a empresa trabalhou diligentemente para melhorar a segurança de seu produto.
“O registo completo mostrará que durante mais de uma década ouvimos os pais, investigámos as questões que mais importam e fizemos mudanças reais para proteger os nossos adolescentes”, disse ele.
A alegação de que Mehta ocultou provas de danos nas redes sociais é apenas uma de uma série de queixas apresentadas no final de 21 de novembro pelo escritório de advogados Motley Rice, que está a processar Mehta, Google, TikTok e Snapchat em nome de distritos escolares em todo o país. Em termos gerais, os demandantes alegam que as empresas escondem intencionalmente dos utilizadores, pais e professores os riscos percebidos nos seus produtos.
TikTok, Google e Snapchat não responderam aos pedidos de comentários.
As alegações contra a Meta e os seus rivais incluem encorajar implicitamente crianças com menos de 13 anos a utilizarem as suas plataformas, não abordando conteúdos de abuso sexual infantil e procurando expandir a utilização de produtos de redes sociais por adolescentes na escola. Os demandantes também alegam que a plataforma tentou pagar organizações centradas na criança para proteger a segurança de seus produtos em público.
Num exemplo, a TikTok patrocinou um PTA nacional e vangloriou-se internamente da sua capacidade de influenciar organizações centradas na criança. De acordo com o documento, os funcionários do TikTok disseram que o PTA “fará tudo o que quisermos daqui para frente no outono… Eles anunciarão as coisas publicamente e o CEO emitirá um comunicado de imprensa em nosso nome”.
No entanto, em geral, as reclamações contra outras plataformas de redes sociais não são tão detalhadas como as contra a Meta. Os documentos internos citados pelos demandantes afirmam o seguinte:
-
Mehta projetou intencionalmente recursos de segurança para que os jovens fossem ineficazes e raramente usados, e bloqueou testes de recursos de segurança que ele temia que pudessem impactar negativamente o desenvolvimento.
-
Meta exige que os usuários sejam pegos tentando tráfico sexual 17 vezes antes de removê-los da plataforma, o que o documento descreve como um “limiar muito, muito, muito alto para violações”.
-
A Meta sabia que otimizar seu produto para aumentar o envolvimento dos adolescentes significaria veicular mais conteúdo prejudicial, mas o fez mesmo assim.
-
A Meta paralisou durante anos os esforços internos para evitar que crianças predadoras entrassem em contacto com menores durante anos, citando preocupações de crescimento e pressionando as autoridades de segurança a promover argumentos que justificassem decisões de não tomar medidas.
-
Mark Zuckerberg disse em uma mensagem de texto de 2021 que não diria que a segurança infantil é sua principal preocupação “quando há tantas outras áreas nas quais estamos mais focados, como a construção do metaverso”. Zuckerberg também rejeitou ou ignorou os apelos de Clegg por um melhor financiamento para os esforços de segurança infantil.
Metaz Stone contesta essas afirmações, dizendo que as medidas de segurança para adolescentes da empresa são eficazes e que é política atual da empresa excluir imediatamente contas quando sinalizadas por tráfico sexual.
Ele disse que o processo deturpa os esforços da empresa para criar recursos de segurança para adolescentes e pais, e disse que as medidas de segurança da empresa são “amplamente eficazes”.
“Discordamos veementemente dessas afirmações, que se baseiam em citações escolhidas a dedo e em desinformação”, disse Stone em comunicado.
Os documentos Meta subjacentes citados no processo são privados, e a Meta entrou com uma moção para cancelar os documentos. Stone disse que a objeção é à natureza excessivamente ampla do que os demandantes estão tentando revelar, e não totalmente.
Uma audiência sobre o pedido está marcada para 26 de janeiro no Tribunal Distrital do Norte da Califórnia. Reuters


















