Meta adotou no STF tom oposto ao de Mark Zuckerberg
Em declaração apresentada ao STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta adotou um posicionamento oposto ao atualmente expresso por Mark Zuckerberg, CEO da companhia, sobre suas atividades de moderação.
Em vez de mencionar “censura” ou apontar a existência de uma quantidade elevada de erros e restrições excessivas – como fez agora o CEO –, no contexto da ação que pode ampliar a responsabilização das redes sociais no Brasil, a Meta defendeu sua abordagem proativa.
Com afirmações como a de que a “moderação de conteúdo realizada pela Meta é eficaz” e que a aplicação de suas políticas “adota uma abordagem consistente e abrangente”, a empresa buscava refutar a ideia de que havia inércia no combate a conteúdos prejudiciais.
A postura é bem diferente da de Zuckerberg. “Construímos diversos sistemas complexos para moderar o conteúdo. Porém, o problema com sistemas complexos é que eles falham”, afirmou ele no último dia 7, ao anunciar uma mudança de estratégia da empresa. “Chegamos a um ponto em que há muitos erros e censura em excesso.”
Ele também revelou que deixará de utilizar filtros automáticos para violações de baixa gravidade: “O problema é que os filtros cometem falhas e acabam removendo muitos conteúdos que não deveriam”, disse o executivo.
Já no documento enviado ao STF, apenas dois meses antes, a empresa enfatizava que sua atividade de moderação se baseava na “detecção de violações com apoio de denúncias de usuários, tecnologia (incluindo inteligência artificial) e análise humana” e que “os resultados desses esforços são expressivos”.
O texto ainda destacava que isso “demonstra que, para situações objetivas previstas nos termos de uso, as ferramentas existentes são eficientes no combate à disseminação de conteúdos nocivos. Ressalta-se que 98,30% desses conteúdos foram removidos de forma proativa”.
A Meta informou que não iria comentar.
O Facebook – integrante da Meta, junto com Instagram, Threads e WhatsApp – é uma das partes da ação iniciada no fim de 2024 no STF, que discute o Marco Civil da Internet.
O artigo 19, centro da disputa, estabelece que as plataformas só podem ser responsabilizadas por um conteúdo de terceiros caso mantenham o material no ar após uma decisão judicial determinando sua remoção.
Quando aprovada, a regra visava proteger a liberdade de expressão. Uma das justificativas era evitar que as redes fossem levadas a remover conteúdos legítimos por receio de punições.
Críticos argumentam que a norma desestimula as empresas a combaterem conteúdos prejudiciais, defendendo a ampliação das hipóteses de responsabilização.
A Meta apoia a constitucionalidade da regra atual, enquanto tenta se resguardar das críticas de que só age para remover conteúdos problemáticos mediante ordem judicial.
“O artigo 19 do MCI não transforma a internet em um espaço anárquico. Como já afirmado, ele não impede a atuação preventiva dos provedores com o objetivo de reduzir o risco de uso ilícito da internet”, argumenta a empresa na mesma manifestação.
O discurso direcionado ao Judiciário também apresenta diferenças notáveis. Na ação perante o STF, ao sustentar o modelo do Marco Civil da Internet brasileiro, a empresa descreve o Judiciário como “órgão constitucionalmente designado para realizar esse juízo de ponderação, garantindo a harmonização justa e equilibrada de direitos fundamentais em conflito”.
Já Zuckerberg declara que “países da América Latina têm tribunais secretos que podem ordenar a remoção de conteúdos de forma discreta”.
Em nota e relatório publicados pela Meta em dezembro, a companhia voltou a defender sua atuação proativa durante o julgamento no STF, marcado até então por intensas críticas às redes.
Sob o título “Nosso trabalho proativo para proteger a integridade das eleições municipais no Brasil em 2024”, a empresa afirmava que “não há omissão da Meta na identificação e atuação contra conteúdos prejudiciais, ao contrário do que tem sido dito no debate público”.
“Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário.”
“Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%”, dizia ainda a nota.
Além disso, no relatório eleitoral divulgado na época, a empresa destacava, como uma de suas principais iniciativas no combate à desinformação, o programa de parceria com agências de checagem – que foi alvo de críticas de Zuckerberg no anúncio mais recente.
Fonte: Edup.ecowas