Por 8 votos a 3, o Supremo Tribunal Federal redefiniu a responsabilidade das redes sociais no Brasil
O Supremo Tribunal Federal (STF) alterou profundamente a forma como plataformas digitais respondem por conteúdos publicados por seus usuários. Com uma votação de 8 a 3, a Corte decidiu que as redes sociais podem ser responsabilizadas civilmente por postagens ilegais, mesmo sem ordem judicial prévia, em situações específicas.
Essa decisão modifica diretamente o artigo 19 do Marco Civil da Internet, considerado agora parcialmente inconstitucional. Assim, as grandes plataformas digitais terão a obrigação de agir rapidamente contra conteúdos que violem direitos fundamentais e ameacem a ordem democrática.
Revisão do Marco Civil da Internet
Desde sua criação, o Marco Civil da Internet estabeleceu que provedores de plataformas como Facebook, Instagram e Google só seriam responsabilizados se não cumprissem uma ordem judicial para remoção de conteúdo ilegal. Essa proteção era vista como um escudo legal para as big techs.
Com a nova interpretação do STF, essa regra perde força quando o conteúdo ameaça direitos fundamentais ou a democracia. Sem uma lei mais atualizada, as plataformas devem responder a notificações extrajudiciais para remoção imediata de postagens claramente criminosas.
Responsabilidade direta das plataformas digitais
O STF determinou que, até o Congresso aprovar uma nova legislação, as plataformas têm a obrigação legal de retirar conteúdos ilícitos assim que notificadas, independentemente de decisão judicial. Um simples aviso feito por usuários afetados ou autoridades cria essa obrigação.
Essa responsabilização atinge principalmente postagens relacionadas a:
- Discurso de ódio e incitação à violência
- Ameaças à democracia
- Incentivo ao terrorismo
- Conteúdos ofensivos graves
O tribunal reconheceu que o modelo anterior era lento demais para a dinâmica acelerada das redes sociais e seus impactos sociais.
Tipos de conteúdos que devem ser removidos imediatamente
Com a decisão, os provedores precisam agir rapidamente diante de conteúdos que incluam:
- Atos antidemocráticos
- Incitação ao terrorismo
- Promoção do suicídio ou automutilação
- Discriminação por raça, religião ou identidade de gênero
- Violência contra mulheres e misoginia
- Pornografia infantil
- Tráfico de seres humanos
O descumprimento dessas diretrizes gera risco de indenizações e sanções civis para as plataformas, reforçando a responsabilidade pelo monitoramento dos conteúdos.
Debate sobre liberdade de expressão
O ministro Nunes Marques, em voto divergente, defendeu a manutenção do modelo atual, que exige decisão judicial para remoção de conteúdo. Ele advertiu sobre o risco de censura prévia, ressaltando que a liberdade de expressão é um pilar essencial para o progresso social e democrático.
Votos discordantes e principais argumentos
Além de Nunes Marques, os ministros André Mendonça e Edson Fachin votaram pela validade do artigo 19, garantindo proteção às plataformas contra sanções sem ordem judicial.
Por outro lado, ministros como Cármen Lúcia, Gilmar Mendes e Alexandre de Moraes destacaram mudanças na realidade digital desde 2014. Eles apontaram que as redes sociais deixam de ser simples intermediárias e passam a amplificar conteúdos via algoritmos, influenciando significativamente a opinião pública.
“Plataformas hoje moldam o discurso público e comercializam informação, devendo ser responsabilizadas como agentes ativos”, afirmou Moraes.
Casos emblemáticos julgados pelo STF
O julgamento decorreu de dois recursos envolvendo grandes empresas:
- Caso Facebook: A plataforma foi condenada por não remover um perfil falso que causou danos morais a um usuário, contrariando a tese de que só responde após ordem judicial.
- Caso Google: A questão era se uma empresa hospedadora de sites poderia ser obrigada a remover conteúdo ofensivo sem decisão judicial. O STF determinou que sim.
Os ministros Dias Toffoli e Luiz Fux relataram os casos e defenderam o uso legítimo de notificações extrajudiciais para combater abusos e proteger direitos básicos.
Com essa nova interpretação, o Brasil se alinha a outras democracias que regulam mais rigorosamente o poder das big techs. A decisão também pressiona o Legislativo a criar uma norma específica para responsabilidade digital, evitando ambiguidades futuras.