Meta adotou no STF tom oposto ao de Mark Zuckerberg

Em declaração apresentada ao STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta adotou um posicionamento oposto ao atualmente expresso por Mark Zuckerberg, CEO da companhia, sobre suas atividades de moderação.

Foto: Reprodução/Pinterest

Em vez de mencionar “censura” ou apontar a existência de uma quantidade elevada de erros e restrições excessivas – como fez agora o CEO –, no contexto da ação que pode ampliar a responsabilização das redes sociais no Brasil, a Meta defendeu sua abordagem proativa.

Com afirmações como a de que a “moderação de conteúdo realizada pela Meta é eficaz” e que a aplicação de suas políticas “adota uma abordagem consistente e abrangente”, a empresa buscava refutar a ideia de que havia inércia no combate a conteúdos prejudiciais.

A postura é bem diferente da de Zuckerberg. “Construímos diversos sistemas complexos para moderar o conteúdo. Porém, o problema com sistemas complexos é que eles falham”, afirmou ele no último dia 7, ao anunciar uma mudança de estratégia da empresa. “Chegamos a um ponto em que há muitos erros e censura em excesso.”

Ele também revelou que deixará de utilizar filtros automáticos para violações de baixa gravidade: “O problema é que os filtros cometem falhas e acabam removendo muitos conteúdos que não deveriam”, disse o executivo.

Já no documento enviado ao STF, apenas dois meses antes, a empresa enfatizava que sua atividade de moderação se baseava na “detecção de violações com apoio de denúncias de usuários, tecnologia (incluindo inteligência artificial) e análise humana” e que “os resultados desses esforços são expressivos”.

O texto ainda destacava que isso “demonstra que, para situações objetivas previstas nos termos de uso, as ferramentas existentes são eficientes no combate à disseminação de conteúdos nocivos. Ressalta-se que 98,30% desses conteúdos foram removidos de forma proativa”.

A Meta informou que não iria comentar.

O Facebook – integrante da Meta, junto com Instagram, Threads e WhatsApp – é uma das partes da ação iniciada no fim de 2024 no STF, que discute o Marco Civil da Internet.

O artigo 19, centro da disputa, estabelece que as plataformas só podem ser responsabilizadas por um conteúdo de terceiros caso mantenham o material no ar após uma decisão judicial determinando sua remoção.

Quando aprovada, a regra visava proteger a liberdade de expressão. Uma das justificativas era evitar que as redes fossem levadas a remover conteúdos legítimos por receio de punições.

Críticos argumentam que a norma desestimula as empresas a combaterem conteúdos prejudiciais, defendendo a ampliação das hipóteses de responsabilização.

A Meta apoia a constitucionalidade da regra atual, enquanto tenta se resguardar das críticas de que só age para remover conteúdos problemáticos mediante ordem judicial.

“O artigo 19 do MCI não transforma a internet em um espaço anárquico. Como já afirmado, ele não impede a atuação preventiva dos provedores com o objetivo de reduzir o risco de uso ilícito da internet”, argumenta a empresa na mesma manifestação.

O discurso direcionado ao Judiciário também apresenta diferenças notáveis. Na ação perante o STF, ao sustentar o modelo do Marco Civil da Internet brasileiro, a empresa descreve o Judiciário como “órgão constitucionalmente designado para realizar esse juízo de ponderação, garantindo a harmonização justa e equilibrada de direitos fundamentais em conflito”.

Já Zuckerberg declara que “países da América Latina têm tribunais secretos que podem ordenar a remoção de conteúdos de forma discreta”.

Em nota e relatório publicados pela Meta em dezembro, a companhia voltou a defender sua atuação proativa durante o julgamento no STF, marcado até então por intensas críticas às redes.

Sob o título “Nosso trabalho proativo para proteger a integridade das eleições municipais no Brasil em 2024”, a empresa afirmava que “não há omissão da Meta na identificação e atuação contra conteúdos prejudiciais, ao contrário do que tem sido dito no debate público”.

“Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário.”

“Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%”, dizia ainda a nota.

Além disso, no relatório eleitoral divulgado na época, a empresa destacava, como uma de suas principais iniciativas no combate à desinformação, o programa de parceria com agências de checagem – que foi alvo de críticas de Zuckerberg no anúncio mais recente.

Fonte: Edup.ecowas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *