Qual a responsabilidade das plataformas sobre os posts dos usuários? Explicamos o julgamento do STF

Corte discutiu possibilidades de remoção de conteúdo e estendeu a responsabiização das plataformas digitais. Saiba como era e como fica agora.

Qual a responsabilidade das plataformas sobre os posts dos usuários? Explicamos o julgamento do STF
Toffoli foi o 1º a votar e propôs ampliar rol de conteúdos capazes de responsabilizar as plataformas digitais caso não haja remoção por elas próprias / Imagem: Flickr/STF
Link copiado!

O plenário do STF (Supremo Tribunal Federal) concluiu no dia 26 de junho de 2025 o julgamento sobre a responsabilidade das plataformas digitais (como Google, Facebook e X [antigo Twitter], por exemplo) pelos posts de seus usuários e se o artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é ou não constitucional.

*Nota do editor sobre atualizações neste conteúdo

Para manter o conteúdo completo para você, o Correio Sabiá retornou a este material quando o STF concluiu o julgamento. Houve uma última atualização desta reportagem no dia 27.jun.2025, às 12h10. Por transparência jornalística, informamos.

O entendimento geral do STF foi o seguinte:

“Enquanto o Congresso Nacional não editar nova lei sobre o tema, a plataforma será responsabilizada civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de crimes em geral ou atos ilícitos se, após receber um pedido de retirada, deixar de remover o conteúdo. A regra também vale para os casos de contas denunciadas como falsas”, segundo nota do próprio STF.

A Corte entendeu que alguém pode ser acionado e condenado na Justiça por danos causados por ação ou omissão, sua ou de outra pessoa, tendo que pagar, por exemplo, indenizações.

  • Antes, as plataformas digitais só podiam ser responsabilizadas se descumprissem uma ordem judicial para retirada de determinado conteúdo do ar.
  • Agora, as plataformas podem ser responsabilizadas se não removerem o conteúdo criminoso (*detalhes abaixo sobre quais conteúdos são considerados criminosos), mesmo que tenham sido notificadas extrajudicialmente (pela própria vítima ou advogado). Neste caso, a Justiça depois tem que considerar que o conteúdo realmente era criminoso, concluindo a responsabilização da plataforma.

Ou seja:

  • Antes não era necessário agir com notificação extrajudicial. Agora, a notificação extrajudicial gera dever de agir.
  • Antes, as plataformas digitais não precisam monitorar ativamente o conteúdo que circulava em seus canais. Agora, não apenas devem monitorar ativamente o conteúdo, como devem ainda disponibilizar canais de denúncia sob sigilo para os usuários. Discurso de ódio, racismo e incitação à violência são terminantemente proibidos e passíveis de responsabilização.
  • Antes, para os casos de racismo ou apologia a golpe de Estado, as plataformas não tinham responsabilidade de remoção imediata e proativa do conteúdo. Agora, devem ser proativas a remover o conteúdo sem que nem mesmo precisem ser notificadas.

A decisão ainda define que os provedores de aplicações de internet vão ter que trabalhar de maneira proativa para combater conteúdos ilícitos quando forem distribuídos por anúncios e impulsionamentos pagos e/ou redes artificiais de distribuição (chatbots ou robôs).

Quais os crimes graves que as plataformas digitais devem ser proativas para coibir?

Eis a lista dos tipos de conteúdo que devem ser bloqueados imediata e proativamente pelas plataformas digitais:

  • Crimes contra o Estado democrático de Direito;
  • Atos de terrorismo ou preparatórios de terrorismo;
  • Crime de induzimento, instigação ou auxílio ao suicídio ou automutilação;
  • Racismo;
  • Violência contra criança, adolescentes e vulneráveis de modo geral;
  • Qualquer espécie de violação contra a mulher;
  • Infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medida sanitária em situação de emergência em saúde pública;
  • Tráfico de pessoas;
  • Incitação ou ameaça da prática de violência física ou sexual;
  • Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis; e
  • Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados com potencial para causar danos ao equilíbrio do pleito ou integridade do processo eleitoral.
💡
Obs.: A existência de um único e isolado conteúdo não é suficiente, por si só, para responsabilizar a plataforma. É necessário que haja circulação massiva. No entanto, a notificação privada já é suficiente para derrubar o post. Se discordar da derrubada, o autor pode solicitar seu restabelecimento, demonstrando que não há ilícito.

Em termos técnicos, entenda o julgamento no STF

O STF analisou duas ações ao mesmo tempo. Uma sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. Outra sobre a responsabilização das big techs

  • No Recurso Extraordinário 1.037.396 (Tema 987, relatoria de Toffoli), discute-se a constitucionalidade do artigo 19 do Marco Civil da Internet. O caso concreto é o de um perfil falso criado no Facebook.
  • No Recurso Extraordinário 1.057.258 (Tema 533, relatoria do ministro Luiz Fux), discute-se a responsabilidade de provedores de aplicativos pelo conteúdo publicado por usuários e a possibilidade de removê-los. O caso concreto trata da decisão que obrigou o Google a apagar uma comunidade do Orkut.

Além desses 2 casos, existe um 3º processo na agenda da Corte que não está em julgamento. Neste caso, a relatoria é do ministro Edson Fachin. Trata-se da ADPF (Arguição de Descumprimento de Preceito Fundamental) 403.

Nesse julgamento, os ministros discutiram se é possível bloquear aplicativos a partir de decisões judiciais ou se essa intervenção ofende os direitos à liberdade de expressão.

Histórico de votação

O 1º ministro a votar foi Dias Toffoli, numa quinta-feira (5.dez.2024). Ele defendeu a ampliação do rol de conteúdos capazes de responsabilizar as plataformas digitais, caso o material não fosse excluído por elas próprias, independentemente de notificação extrajudicial ou decisão judicial.

Pela legislação atual, conteúdos de usuários nas redes só podem ser removidos se houver ordem judicial. Para Toffoli, isto é inconstitucional.

Além disso, o artigo 19 do Marco Civil da Internet define que a responsabilização das redes por conteúdos dos usuários só ocorre se, mesmo depois de decisão judicial, elas não retirarem as publicações do ar.

Toffoli também não concorda. Para ele, as plataformas já devem fazer a retirada do conteúdo a partir do momento em que forem notificadas pelas vítimas dos posts ou por seus advogados. Isso amplia a notificação extrajudicial, que, por este entendimento, já bastaria para garantir a remoção.

Toffoli ainda defendeu que, em algumas situações graves, as plataformas já devem retirar o conteúdo do ar mesmo sem ordem judicial ou notificação extrajudicial. Assim, precisam agir por conta própria, com proatividade.

Em seu voto, o ministro também detalhou quais são os casos considerados "graves", já mencionados acima.

Punição por perfis falsos

Toffoli propôs que contas falsas também são responsabilidade das redes. Assim, as plataformas devem monitorar a criação de perfis fakes, sendo passíveis de punição por causa deles.

Quando Toffoli detalhava este tópico, o ministro Alexandre de Moraes pediu a palavra. Disse que existem formas de diferenciar robôs de humanos e falou que "falta boa vontade" das empresas para colocar medidas em prática..

"Para isso [identificar robôs] já existe [solução]. Por que não para os perfis inautênticos? Falta boa vontade. E falta boa vontade porque, na verdade, isso é o desenho do negócio", disse.

Imprensa também pode ser punida?

No caso da imprensa, como jornais e blogs jornalísticos, Toffoli defendeu a aplicação da Lei 13.188/2015, que trata do direito de resposta ou da retificação do da pessoa ofendida. Ou seja, já existe a legislação adequada para o tema.

"A lei que existe para a imprensa fora do mundo virtual é aplicável aos blogs, sites e plataformas jornalísticas no mundo virtual", afirmou.

Como ficam os aplicativos de mensagem privada?

Toffoli listou quem não está atingido pela decisão. Entre eles, os serviços de:

  • E-mail (Gmail, por exemplo);
  • Reuniões fechadas por vídeo ou voz (Google Meets e Zoom); e
  • Mensagens instantâneas, como WhatsApp e Telegram.

Apoie nossos voos

Fazemos um trabalho jornalístico diário e incansável desde 2018, porque é isso que amamos e não existe nada melhor do que fazer o que se ama. Somos movidos a combater a desinformação e divulgar conhecimento científico.

Fortalecemos a democracia e aumentamos a conscientização sobre a preservação ambiental. Acreditamos que uma sociedade bem-informada toma decisões melhores, baseadas em fatos, dados e evidências. Empoderamos a audiência pela informação de qualidade.

Por ser de alta qualidade, nossa operação tem um custo. Não recebemos grana de empresas, por isso precisamos de você para continuar fazendo o que mais gostamos: cumprir nossa missão de empoderar a sociedade civil e te bem-informado. Nosso jornalismo é independente porque ele depende de você.

Apoie o Correio Sabiá. Cancele quando quiser.