Em uma decisão no dia 26, quinta-feira, que certamente entrará para história do país, o Supremo Tribunal Federal (STF) declarou o Artigo 19 do Marco Civil da Internet (MCI – Lei 12.965/2014) parcialmente inconstitucional, alterando fundamentalmente o cenário da regulação de conteúdo online. A decisão transfere a responsabilidade pela remoção de conteúdo ilegal para as plataformas digitais, eliminando a necessidade de ordens judiciais prévias em casos de crimes graves.
No entanto, a medida gera intenso debate, com críticos alertando que ela abre portas para a censura e ameaça a frágil democracia brasileira.
A decisão do STF, tomada no contexto dos Recursos Extraordinários (RE) 1037396 (Tema 987) e RE 1057258 (Tema 533), liderados respectivamente pelos Ministros Dias Toffoli e Luiz Fux, redefine a responsabilidade dos provedores de internet. Anteriormente, plataformas como Meta ou Google só eram responsabilizadas se não cumprissem ordens judiciais para remover conteúdo específico.
Agora, elas são obrigadas a remover proativamente postagens consideradas crimes graves, como pornografia infantil, terrorismo, tráfico humano ou incitação ao suicídio, sem aguardar intervenção judicial. A decisão também aborda crimes contra a honra, permitindo que as plataformas removam conteúdo com base em notificações extrajudiciais, embora a responsabilidade por danos ainda dependa do descumprimento de ordens judiciais.
Para ofensas repetidas já sinalizadas por decisões judiciais anteriores, as plataformas devem agir rapidamente após notificação, judicial ou não. Em casos de “falha sistêmica” na prevenção ou remoção de conteúdo ilegal, os provedores enfrentam responsabilidade civil, uma medida que o STF considera necessária para proteger direitos fundamentais e a democracia.
Um golpe na liberdade de expressão
Embora o STF, liderado pelo presidente ministro Luís Roberto Barroso, tenha apresentado a decisão como um “esforço equilibrado para proteger valores democráticos”, críticos a veem como um excesso perigoso. O jornalista William Waack, em seu comentário na CNN Brasil, descreveu a decisão como um “duro golpe” à liberdade de expressão, acusando o STF de usurpar a autoridade do Legislativo.
“O STF, composto por juízes não eleitos, impôs regras que deveriam vir de representantes eleitos”, afirmou Waack, alertando que a decisão corre o risco de “terceirizar a censura” para grandes empresas de tecnologia.
A lista de “crimes graves” inclui não apenas atos universalmente condenados, como exploração infantil, mas também ofensas vagamente definidas, como “tentativas de abolir o Estado Democrático de Direito” ou “ataques às eleições”. Essas categorias subjetivas, segundo Waack, dão às plataformas margem excessiva para moderar conteúdo por medo de responsabilidade, efetivamente restringindo a liberdade de expressão. “É mais conveniente silenciar do que arriscar”, observou ele, prevendo que as plataformas podem censurar preventivamente para evitar consequências legais.
Tribunal dividido e Congresso silencioso
A decisão não foi unânime. Os ministros André Mendonça, Nunes Marques e Edson Fachin dissentiram, argumentando que exigir ordens judiciais para todas as remoções de conteúdo respeita o MCI (Marco Civil da Internet) e preserva os freios e contrapesos democráticos. Nunes Marques destacou que a responsabilidade primária cabe ao indivíduo que publica conteúdo prejudicial, não à plataforma que o hospeda, e instou o Congresso a abordar a questão. No entanto, a maioria prevaleceu, deixando um arcabouço temporário em vigor até que o Legislativo aja — uma perspectiva incerta diante do clima político polarizado do Brasil.
A decisão do STF também determina que as plataformas estabeleçam sistemas de autorregulação, incluindo processos de notificação transparentes e relatórios anuais sobre moderação de conteúdo. Esse requisito, embora vise à responsabilização, sobrecarrega ainda mais as plataformas, podendo excluir players menores do mercado e consolidar o domínio das grandes empresas de tecnologia.
Um dia triste para a democracia brasileira
A decisão foi aplaudida pelo governo do Presidente Lula e por setores da esquerda, que a veem como um passo necessário para conter a desinformação e proteger as instituições democráticas. No entanto, críticos, incluindo Waack, a consideram um passo em direção a um “estado policial”.
Ao capacitar juízes não eleitos e empresas privadas a policiar o discurso, o STF arrisca minar a própria democracia que afirma defender. A falta de mecanismos claros de supervisão levanta uma questão crítica: quem fiscalizará os fiscais?
Por ora, o cenário digital do Brasil enfrenta um futuro incerto. Grandes plataformas, como Google e Meta (Facebook, Whatsaap e Instagram) podem reconsiderar suas operações no país, cautelosas com os riscos legais e financeiros.
Enquanto isso, o espectro da “censura colateral”, como alertou um ministro dissidente, paira, ameaçando o discurso aberto essencial para uma democracia vibrante. Como Waack concluiu de forma sombria, “Este é um dia triste para a hesitante democracia brasileira”.
Veja a íntegra da tese de repercussão geral aprovada por 8 votos a 3 pelo STF:
Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI
1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem
judicial específica para a responsabilização civil de provedor de aplicações de internet por
danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há
um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere
proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos
fundamentais e da democracia).
Interpretação do art. 19 do MCI
2. Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser
interpretado de forma que os provedores de aplicação de internet estão sujeitos à
responsabilização civil, ressalvada a aplicação das disposições específicas da legislação
eleitoral e os atos normativos expedidos pelo TSE.
3. O provedor de aplicações de internet será responsabilizado civilmente, nos
termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em
casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se
a mesma regra nos casos de contas denunciadas como inautênticas.
3.1. Nas hipóteses de crime contra a honra aplica-se o art. 19 do MCI, sem prejuízo
da possibilidade de remoção por notificação extrajudicial.
3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por
decisão judicial, todos os provedores de redes sociais deverão remover as publicações com
idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação
judicial ou extrajudicial.
Presunção de responsabilidade
4. Fica estabelecida a presunção de responsabilidade dos provedores em caso
de conteúdos ilícitos quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b)
rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização
2
poderá se dar independentemente de notificação. Os provedores ficarão excluídos de
responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para
tornar indisponível o conteúdo.
Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves
5. O provedor de aplicações de internet é responsável quando não promover a
indisponibilização imediata de conteúdos que configurem as práticas de crimesograves
previstas no seguinte rol taxativo: (a) condutas e atos antidemocráticos que se amoldem
aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-
R do Código Penal; (b) crimes de terrorismo ou preparatórios de terrorismo, tipificados
pela Lei nº 13.260/2016; (c) crimes de induzimento, instigação ou auxílio a suicídio ou a
automutilação, nos termos do art. 122 do Código Penal; (d) incitação à discriminação em
razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de
gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-
A, 20-B e 20-C da Lei nº 7.716, de 1989; (e) crimes praticados contra a mulher em razão
da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às
mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-
A; art. 147, § 1º; art. 147-A; e art. 147-B do CP); (f) crimes sexuais contra pessoas
vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos
dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-
C, 241-D do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art. 149-A).
5.1 A responsabilidade dos provedores de aplicações de internet prevista neste item
diz respeito à configuração de falha sistêmica.
5.2 Considera-se falha sistêmica, imputável ao provedor de aplicações de internet,
deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos
anteriormente listados, configurando violação ao dever de atuar de forma responsável,
transparente e cautelosa.
3
5.3. Consideram-se adequadas as medidas que, conforme o estado da técnica,
forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo
provedor.
5.4. A existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só,
suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo,
nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI.
5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo
removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu
restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo
seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
Incidência do art. 19
6. Aplica-se o art. 19 do MCI ao (a) provedor de serviços de e-mail; (b)
provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas
por vídeo ou voz; (c) provedor de serviços de mensageria instantânea (também chamadas
de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às
comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII,
da CF/88).
Marketplaces
7. Os provedores de aplicações de internet que funcionarem como marketplaces
respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº
8.078/90).
Deveres adicionais
8. Os provedores de aplicações de internet deverão editar autorregulação que
abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de
transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
4
9. Deverão, igualmente, disponibilizar a usuários e a não usuários canais
específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e
amplamente divulgados nas respectivas plataformas de maneira permanente.
10. Tais regras deverão ser publicadas e revisadas periodicamente, de forma
transparente e acessível ao público.
11. Os provedores de aplicações de internet com atuação no Brasil devem
constituir e manter sede e representante no país, cuja identificação e informações para
contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios.
Essa representação deve conferir ao representante, necessariamente pessoa jurídica com
sede no país, plenos poderes para (a) responder perante as esferas administrativa e judicial;
(b) prestar às autoridades competentes informações relativas ao funcionamento do
provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para
gestão das reclamações pelos sistemas internos; aos relatórios de transparência,
monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários
(quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de
conteúdos; (c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais
penalizações, multas e afetações financeiras em que o representado incorrer, especialmente
por descumprimento de obrigações legais e judiciais.
Natureza da responsabilidade
12. Não haverá responsabilidade objetiva na aplicação da tese aqui enunciada.
Apelo ao legislador
13. Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de
sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.
Modulação dos efeitos temporais
5
14. Para preservar a segurança jurídica, ficam modulados os efeitos da presente
decisão, que somente se aplicará prospectivamente, ressalvadas decisões transitadas em
julgado.
The post A censura do STF às redes sociais: o dia mais infame da democracia no Brasil appeared first on Ver-o-Fato.