Ícone do site Sentinela Brasil

Redes sociais não devem ser responsabilizadas por posts criminosos, afirmam especialistas

STF Amplia Responsabilidade das Redes Sociais por Conteúdos Ilegais

O Supremo Tribunal Federal (STF) estabeleceu novas diretrizes que aumentam a responsabilidade das plataformas digitais em relação à moderação de conteúdo, especialmente no que tange a publicações ilegais. No entanto, especialistas afirmam que a responsabilização destas plataformas ocorrerá apenas em casos de falhas sistêmicas identificadas.

Limitações na Responsabilidade

Antes da decisão, o Marco Civil da Internet no Brasil já previa a remoção de conteúdos, mas apenas em situações específicas, como publicações que exibem nudez ou atos sexuais sem consentimento. Com as novas diretrizes do STF, a moderação deve incluir outras categorias de conteúdo, mas a punição só se aplicará quando forem constatadas falhas recorrentes nas operações das plataformas.

"O caso individual ajuda a esclarecer a situação, mas a responsabilização efetiva dependerá da detecção de um padrão problemático", explicou Álvaro Palma, advogado constitucionalista e professor da FGV Direito Rio.

Novas Diretrizes para Remoção de Conteúdos

O julgamento realizado pelo STF foi concluído na quinta-feira (26), e os ministros definiram três categorias de removibilidade para conteúdos ilegais:

  1. Remoção Proativa: Para casos considerados graves, como discurso de ódio e pedofilia, as plataformas devem agir imediatamente, sem necessidade de ordem judicial.
  2. Remoção Após Ordem Judicial: Aplicável a crimes contra a honra, como injúria e calúnia.
  3. Remoção Após Notificação Extrajudicial: Para outros atos ilícitos, a remoção ocorrerá apenas após notificação de usuários ou advogados.

Falhas Sistêmicas e a Responsabilidade

De acordo com a nova decisão, conteúdos extremamente nocivos devem ser removidos proativamente; no entanto, a responsabilização civil das plataformas só será válida se uma falha sistêmica for comprovada. Carlos Affonso Souza, advogado e diretor do Instituto de Tecnologia e Sociedade do Rio, detalhou que esse conceito se refere a falhas recorrentes que permitem a propagação de conteúdos ilegais, resultando em danos coletivos.

“Não há um software que consiga detectar com 100% de precisão discursos antidemocráticos, por exemplo”, afirmou Souza, ressaltando a complexidade de monitorar o vasto volume de conteúdo gerado nas redes sociais.

Questões Emergentes

Uma das preocupações levantadas por especialistas é sobre quem terá a prerrogativa de determinar se houve falha sistêmica nas plataformas. O STF não especificou se essa decisão ficará a cargo de juízes, do Ministério Público ou de um novo órgão regulador.

Álvaro Palma alertou que o cenário pode levar à remoção excessiva de conteúdos lícitos, uma vez que as plataformas podem optar por apagar postagens para evitar possíveis penalizações.

Responsabilidade em Crimes Contra a Honra

Para crimes relacionados à honra, o STF decidiu que a remoção de conteúdo ainda exigirá uma ordem judicial prévia. Isso garante que a responsabilização das plataformas somente ocorra após uma decisão da Justiça, mantendo a integridade do processo legal.

A nova abordagem do STF pode provocar mudanças significativas na moderação de conteúdo nas redes sociais, mas a implementação efetiva dessas diretrizes ainda apresenta desafios que precisam ser endereçados.

Com informações de: G1

Sair da versão mobile