29
jul
2025

STF amplia responsabilidade das redes por conteúdo de terceiros

A crescente disseminação de conteúdos ilícitos nas redes sociais e demais plataformas digitais tem intensificado os debates sobre os limites da liberdade de expressão e a responsabilidade das empresas de tecnologia. Em 26 de junho de 2025, o Supremo Tribunal Federal (STF) concluiu o julgamento dos Recursos Extraordinários nº 1.037.396 (Tema 987) e nº 1.057.258 (Tema 533), ambos com repercussão geral reconhecida, que discutiam a constitucionalidade do artigo 19 da Lei nº 12.965/2014, conhecida como Marco Civil da Internet.

Por maioria de votos, a Corte declarou a inconstitucionalidade parcial do referido dispositivo, estabelecendo um novo regime jurídico para a responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros. O artigo 19, em sua redação original, previa que os provedores somente poderiam ser responsabilizados civilmente caso, após ordem judicial específica, deixassem de tornar indisponível o conteúdo apontado como infringente. Essa norma visava preservar a liberdade de expressão e evitar a censura privada, adotando o modelo conhecido como judicial notice and takedown.

Com a nova interpretação conferida pelo STF, as plataformas digitais poderão ser responsabilizadas mesmo sem decisão judicial prévia nos casos que envolvam, especialmente tentativas de golpe de Estado; ações contra o Estado Democrático de Direito; terrorismo e seus atos preparatórios; indução ou instigação ao suicídio ou automutilação; discriminação por raça, cor, etnia, religião, nacionalidade, sexualidade ou identidade de gênero; crimes contra mulheres, crianças e adolescentes; pornografia infantil e tráfico de pessoas.

Nessas hipóteses, a responsabilização decorre do descumprimento do dever de cuidado, que impõe às plataformas a obrigação de impedir a circulação de conteúdos ilícitos, independentemente de notificação judicial ou extrajudicial. A Corte também reconheceu a possibilidade de responsabilização em casos de impulsionamento pago de conteúdos ilícitos e uso de redes artificiais de distribuição, como bots e contas inautênticas.

Adicionalmente, o STF firmou entendimento no sentido de que os provedores devem atuar de forma diligente e proativa, sendo responsabilizados civilmente quando houver falha sistêmica na prevenção ou remoção de conteúdos manifestamente ilícitos, ainda que não haja ordem judicial específica.

Por outro lado, no que se refere aos crimes contra a honra, permanece a exigência de ordem judicial para que se configure o dever de indenizar. Ainda assim, as plataformas podem remover conteúdos com base em notificações extrajudiciais e devem fazê-lo automaticamente quando houver repetição de conteúdo já declarado ofensivo por decisão judicial anterior.

A decisão do STF inaugura um novo paradigma regulatório, reforçando o papel ativo das plataformas na moderação de conteúdo e na proteção de direitos fundamentais. No mais, a Corte fez um apelo ao Congresso Nacional para que edite legislação específica sobre o tema e modulou os efeitos da decisão com eficácia prospectiva, estabelecendo um regime transitório até que haja regulamentação definitiva.

Para os operadores do Direito, especialmente nas esferas cível e penal, trata-se de um precedente relevante que redefine os limites da liberdade de expressão, a responsabilidade dos intermediários digitais e a governança democrática da esfera pública online.