Brasil

STF retoma julgamento sobre responsabilidade das redes sociais por conteúdos ilegais

Corte analisa validade do Artigo 19 do Marco Civil da Internet; julgamento define limites da atuação das plataformas digitais

Marcello Casal Jr / ABR - 

Brasília - O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (4), às 14h, o julgamento que pode redefinir a forma como as redes sociais serão responsabilizadas por conteúdos ilegais postados por usuários no Brasil. O processo trata da constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que limita a responsabilidade das plataformas apenas em caso de descumprimento de ordem judicial.

A análise foi interrompida em dezembro de 2023, após pedido de vista do ministro André Mendonça, que será o primeiro a se manifestar na retomada do julgamento.

O que está em jogo

O Artigo 19 determina que provedores de aplicação de internet — como redes sociais — só podem ser responsabilizados civilmente por danos decorrentes de conteúdos de terceiros se não agirem após decisão judicial. A norma foi pensada para proteger a liberdade de expressão e evitar censura prévia, mas tem sido alvo de críticas diante do aumento da desinformação, discurso de ódio e ataques à democracia.

Três ministros já apresentaram seus votos:

  • Luís Roberto Barroso, presidente do STF, defendeu uma responsabilização parcial: as plataformas devem remover conteúdos como pornografia infantil, incitação ao suicídio, terrorismo, tráfico de pessoas e ataques à democracia, após serem notificadas pelas vítimas. No entanto, crimes contra a honra só devem ser removidos com decisão judicial, como prevê a regra atual.

  • Dias Toffoli e Luiz Fux votaram por uma responsabilização mais ampla, permitindo que conteúdos considerados ilegais sejam removidos após notificação extrajudicial, sem necessidade de ordem judicial, para mensagens que envolvam incitação à violência, racismo e ataques à democracia.

O STF está julgando dois recursos distintos:

  1. Recurso do Facebook, que questiona uma condenação por danos morais após a criação de um perfil falso. O caso é relatado por Dias Toffoli.

  2. Recurso do Google, que questiona se um provedor de hospedagem deve monitorar e retirar conteúdos ofensivos sem intervenção judicial. O relator é Luiz Fux.

Argumentos das plataformas

Durante as sessões anteriores, representantes das empresas de tecnologia defenderam a manutenção da regra atual. Alegaram que já atuam removendo conteúdos ilegais de forma voluntária, mas que qualquer exigência de monitoramento preventivo configuraria censura.

Além disso, apontaram que a responsabilização automática sem decisão judicial poderia inviabilizar a liberdade de expressão e o funcionamento das plataformas, diante do volume de conteúdos gerados por usuários diariamente.

Comentários