O Supremo Tribunal Federal (STF) retoma nesta próxima quarta-feira, 4, a análise de processos que podem alterar a maneira como redes sociais lidam com conteúdos publicados por usuários. Estão em pauta duas ações que tratam da eventual responsabilização civil dessas plataformas digitais.
O centro do debate é o artigo 19 do Marco Civil da Internet, que determina que plataformas só devem retirar publicações ilegais após ordem judicial, salvo em algumas exceções. Os ministros também discutem a possibilidade de provedores removerem conteúdos considerados ofensivos, que incitem ódio ou disseminem “fake news“, a partir de notificações extrajudiciais.
+ Leia mais notícias de Política em Oeste
O julgamento havia sido interrompido depois de pedido de vista do ministro André Mendonça, que devolveu os processos ao plenário no final de 2024. Até o adiamento, três ministros já haviam apresentado seus votos, cada um com entendimento distinto sobre a responsabilização das plataformas.


STF diverge sobre a responsabilidade das plataformas
O ministro Luiz Fux, relator de uma das ações no STF, defendeu que as plataformas devem ser responsabilizadas imediatamente em casos de conteúdos flagrantemente ilegais, como:
- Discurso de ódio;
- Racismo;
- Pedofilia;
- Incitação à violência; e
- Defesa de golpe de Estado.
Fux afirmou que, nessas situações, “as plataformas têm a obrigação de remover esse conteúdo imediatamente”.


O magistrado também defendeu o monitoramento ativo para prevenir a circulação desse tipo de publicação. Em casos de ataques à honra, imagem ou privacidade, Fux entende que a plataforma só precisa agir se for comunicada pela vítima.
Esse entendimento difere do voto do ministro Dias Toffoli, que propõe a inconstitucionalidade do artigo 19, responsabilizando provedores em diversas situações, principalmente quando são avisados e não removem conteúdos ilícitos em tempo razoável.


Toffoli argumentou que, em circunstâncias como impulsionamento de conteúdo, uso de contas falsas ou violação de direitos autorais, as plataformas devem agir imediatamente, sem necessidade de notificação prévia.
O ministro inclui, ainda, remoção automática para os seguintes casos:
- Ataques à democracia;
- Terrorismo;
- Incentivo ao suicídio;
- Racismo;
- Violência contra grupos vulneráveis;
- Quebra de regras sanitárias;
- Tráfico de pessoas;
- Incitação à violência e disseminação de “fake news” que coloquem vidas em risco ou ameacem eleições.
Voto de Barroso


Por sua vez, o presidente da Corte, ministro Luís Roberto Barroso, propôs uma abordagem intermediária, com regras diferentes para cada tipo de conteúdo. Para ofensas pessoais e crimes contra a honra, o magistrado sugere manter a exigência de ordem judicial para remoção. Em crimes graves, como racismo e terrorismo, defende que uma notificação simples seja suficiente para obrigar a exclusão rápida.
Barroso destacou que, para anúncios pagos ou impulsionados, as plataformas já têm conhecimento do conteúdo e podem ser responsabilizadas sem necessidade de aviso prévio, salvo se demonstrarem que removeram rapidamente o material.
O ministro ressaltou, ainda, a necessidade de um dever de cuidado maior dessas empresas para evitar riscos sérios à sociedade.