RESUMO
O artigo examina como equilibrar a posição preferencial da liberdade de expressão com a tutela eficaz de direitos da personalidade e de bens constitucionais no ecossistema das plataformas digitais. Parte-se da regra do art. 19 do Marco Civil da Internet (ausência de dever geral de monitorar e responsabilização subsidiária por conteúdo de terceiro condicionada a ordem judicial específica) e da exceção do art. 21 (nudez/ato sexual privado por notificação válida). Integram-se LGPD, CDC e CC/2002 para delinear deveres de transparência, rastreabilidade e cooperação. Mapeiam-se os entendimentos do STJ (pré/pós-MCI) e a virada do STF (26/06/2025), que reconhece exceções qualificadas para ilícitos gravíssimos, reiteração/omissão sistêmica e patrocínio/impulsionamento, com deveres proporcionais de diligência. Em direito comparado, sintetiza-se o DSA (UE) — due diligence, notice-and-action e avaliação de riscos, sem monitoramento geral — e a Section 230 (EUA). Propõe-se um framework tripartite (gravidade do ilícito; sinais de alcance artificial/patrocínio; omissão sistêmica), combinado a salvaguardas procedimentais (motivação, aviso, recurso) e remédios cirúrgicos (URL/ID/hash, desindexação, geo-bloqueio). Confirma-se a hipótese: manter a regra do art. 19 com exceções estritas e proporcionais compatibiliza proteção de direitos e liberdade de expressão.
Palavras‑chave: liberdade de expressão; plataformas digitais; Marco Civil da Internet; responsabilidade de provedores; STF 2025; due diligence; moderação e transparência.
1. Introdução
A consolidação das plataformas digitais tornou a liberdade de expressão um direito-infraestrutura: sem provedores de acesso, de hospedagem e de aplicações, não existe espaço público online para circulação de ideias (LEONARDI, 2005; LIMA, 2015). A dogmática brasileira, a partir do Marco Civil da Internet (Lei 12.965/2014), estabeleceu a responsabilidade dos intermediários com base na subsidiariedade condicionada à ordem judicial (art. 19), criada para proteger a liberdade de expressão e evitar a censura privada (SOUZA et al., 2025). Nesse contexto, a plataforma só agiria após o descumprimento de uma ordem específica de remoção (SOUZA et al., 2025).
Entretanto, a experiência prática dos últimos anos revelou tensões: a ampliação de discursos de ódio, a desinformação orquestrada, a exploração sexual infantil e os ataques à integridade eleitoral intensificaram o conflito entre a preferência pela liberdade de expressão e a proteção eficaz dos direitos da personalidade e da democracia (SOUZA et al., 2025). Nesses contextos, a doutrina vislumbrou a exigência de ordem judicial prévia como um entrave à efetividade e uma possível “blindagem” aos intermediários (SOUZA et al., 2025).
Em 26 de junho de 2025, o STF reinterpretou o artigo 19 de forma constitucional, esclarecendo que a regra não é absoluta e permitindo a responsabilização sem a necessidade de uma ordem judicial prévia em situações específicas (como conteúdos gravemente ilícitos, omissões sistemáticas e patrocínio/impulsionamento), além de estabelecer deveres aumentados de diligência e transparência (BRASIL. STF, 2025. A inflexão mencionada — que mantém o núcleo protetivo da liberdade, mas admite restrições materiais em face de violações graves — reconfigura o equilíbrio entre expressão e proteção de direitos no espaço digital brasileiro (SOUZA et al., 2025).
No comparativo, a União Europeia estabeleceu um regime de due diligence com a Lei de Serviços Digitais – DSA (Regulamento (UE) 2022/2065) que, embora não imponha um dever geral de vigilância, requer a implementação de mecanismos eficazes para notificação e ação, bem como a avaliação e mitigação de riscos sistêmicos e relatórios de transparência que sejam proporcionais ao tamanho e impacto da plataforma (UNIÃO EUROPEIA, 2022). O DSA fornece critérios valiosos para ajustar deveres processuais e salvaguardas à liberdade de expressão, diminuindo o overremoval e promovendo a responsabilização (WISCHMEYER, 2019; AYRES; BRAITHWAITE,1992).
A classificação entre provedor de acesso, provedor de hospedagem e provedor de aplicações continua sendo fundamental para a atribuição de responsabilidades e a avaliação de culpa (LEONARDI, 2005; LIMA, 2015). De modo geral, provedores de acesso permitem a conexão; hosters hospedam dados e oferecem infraestrutura; aplicações disseminam funcionalidades e conteúdos de terceiros, sem que haja uma checagem prévia obrigatória, conforme o princípio da neutralidade de rede (art. 9º) (LIMA, 2015). A análise da culpa, nexo causal, dano e eventuais hipóteses objetivas (CDC; CC/2002 art. 927) se baseia nessa taxonomia, ainda mais quando a configuração e o design da plataforma aumentam riscos e danos (LIMA, 2015).
Do ponto de vista constitucional, a liberdade de expressão no Brasil é uma interpretação que recebe, de forma material, os limites impostos pela dignidade da pessoa humana, ao passo que a tradição estadunidense é bem mais próxima de uma imunidade forte do discurso. Essa discrepância entre os paradigmas reforça a importância da ponderação e da proporcionalidade na resolução de conflitos entre a expressão e outros direitos fundamentais, sobretudo em períodos eleitorais.
1.1 Questão de Pesquisa
Como manter a primazia da liberdade de expressão sem permitir a continuidade de danos severos e riscos sistêmicos? Ou seja: quais deveres de cuidado proporcionais se podem descortinar da ordem constitucional brasileira — à luz da guinada do STF (2025) — sem cair em dever geral de acompanhamento?
1.2 Levantamento de Hipóteses
Defende-se que o equilíbrio se encontra em (i) preservar a regra do art. 19 (falta de dever geral de vigilância), (ii) permitir exceções qualificadas com responsabilização sem ordem quando houver gravidade do ilícito, sinais de patrocínio/alcance artificial e omissão sistêmica do provedor, e (iii) estabelecer salvaguardas procedimentais (notificação qualificada, prazos, revisão humana, logs, direito de recurso) para evitar over-removal e garantir o devido processo ao usuário (BRASIL. STF, 2025; UE, 2022; ARTICLE 19, s.d.).
1.3 Abordagem e Contribuição
Emprega-se a metodologia dogmático-analítica: (a) interpretação sistemática e teleológica dos dispositivos constitucionais e infraconstitucionais (CF/88; MCI; LGPD; CDC; CC/2002); (b) estudo da jurisprudência (STJ/STF) à luz da decisão do STF de 26/06/2025; (c) diálogo comparado (DSA/UE; Seção 230/EUA); e (d) proposta de um framework operacional de due diligence proporcional para provedores, com salvaguardas à liberdade de expressão e critérios de risco. Por fim, apresenta-se um critério normativo-operacional para distinguir a legítima proteção de direitos da censura indevida, reforçando a segurança jurídica e a governança das plataformas (SOUZA et al., 2025; LIMA, 2015).
2. Síntese dogmática do sistema jurídico brasileiro
2.1. Constituição: liberdade de expressão versus dignidade e honra/privacidade, devido processo (choque de direitos)
A Constituição de 1988 estabelece um sistema no qual a liberdade de expressão é priorizada, pelo menos em teoria, quando comparada a outros direitos. Ela proíbe a censura prévia e transfere o controle para ações corretivas posteriores (responsabilidade após o fato e, quando necessário, medidas inibitórias de tutela). A doutrina moderna organiza de forma clara que essa preferência não é incondicional: ela impõe um ônus argumentativo reforçado para qualquer restrição e deve coexistir com a proteção de valores como dignidade, honra, imagem e privacidade, sendo analisada à luz da proporcionalidade (adequação, necessidade e proporcionalidade em sentido estrito) (RUZYK, 2023).
No que diz respeito aos princípios, funcionam em conjunto as proibições do excesso (imposições desproporcionais à expressão) e do déficit (proteção inadequada de direitos que se opõem). Quanto ao controle, isso implica que (i) a supressão de conteúdo ou a suspensão/cancelamento de uma conta pode ferir a essência da liberdade de expressão se critérios rigorosos e um devido processo não forem observados; e (ii) omissões que deixem direitos fundamentais desprotegidos também podem ser corrigidas pelo judiciário (RUZYK, 2023).
Garantias procedimentais em moderação privada — informação prévia e clara sobre as regras, motivação das decisões de moderação, notificação ao usuário, oportunidade de defesa e um recurso — têm sido defendidas como um corolário constitucional do devido processo aplicado horizontalmente nas relações entre plataformas e usuários, especialmente porque a intervenção privada pode atingir o núcleo da liberdade de expressão (RUZYK, 2023). Na falta desse padrão mínimo, é possível restabelecer o status quo (reativar postagens/contas) e submeter ao crivo judicial o mérito do conteúdo em relação aos direitos fundamentais que possam estar em jogo (RUZYK, 2023).
Paralelamente, o ambiente digital acirra embates contra direitos da personalidade: a veiculação de conteúdos difamatórios, íntimos ou invasivos demanda respostas proporcionais que mantenham a efetividade protetiva sem instaurar um controle geral. A doutrina civil-constitucional do Brasil ensina que a resposta, em cada caso, é uma ponderação entre expressão e personalidade, sendo que se houver abuso do direito de expressão, a responsabilidade se impõe (LIMA, 2015).
Nesse contexto, a dignidade da pessoa humana desempenha o papel de guia para a interpretação e limite externo: não elimina a primazia da liberdade de expressão, mas torna a legitimidade das restrições dependente de um rigoroso juízo de proporcionalidade, especialmente em situações de violência, assédio e graves violações de direitos (CARVALHO, 2017).
Em resumo, a estrutura constitucional: (a) favorece a liberdade de expressão como princípio; (b) exige a aplicação da proporcionalidade e do devido processo legal para limitá-la, inclusive na moderação realizada por particulares; e (c) aceita a proteção da honra/privacidade/dignidade contra abusos, autorizando respostas ex post ajustadas (compensatórias e/ou inibitórias), sem que as plataformas se tornem censores gerais (RUZYK, 2023; LIMA, 2015; CARVALHO, 2017).
2.2. MCI: artigo 19 (norma), artigo 21 (exceção). Finalidade e fronteiras
O caput do art. 19 do MCI estabeleceu, em regra, um sistema de responsabilidade subjetiva e subsidiária do provedor de aplicações por conteúdo de terceiros, vinculando a responsabilização ao descumprimento de ordem judicial específica e conteúdo-específica, visando garantir a liberdade de expressão e evitar a censura (ARTICLE 19, 2012; LIMA, 2015). A análise internacional enfatiza que o MCI rejeitou um “notice-and-takedown” extrajudicial obrigatório, exigindo uma decisão judicial e uma identificação clara do conteúdo a ser removido (ARTICLE 19, 2012).
A finalidade do dispositivo decorre de uma escolha a favor da liberdade de expressão no ambiente digital: ao eliminar a obrigação geral de vigilância e concentrar a remoção ex post por meio de decisão judicial, o legislador pretendia minimizar os riscos de over-removal e censura privada, salvaguardando o espaço público de debate (ARTICLE 19, 2012; CARVALHO, 2017). Nesse esquema, o art. 19 funciona como um dispositivo de contenção contra bloqueios automáticos e em massa, ao mesmo tempo que preserva instrumentos de supervisão eficientes quando o Judiciário é provocado
A única exceção legal está no artigo 21, que lida com a divulgação não autorizada de nudez ou atos sexuais de natureza privada: neste caso, o provedor pode ser responsabilizado sem a necessidade de uma ordem judicial, caso, após uma notificação válida da vítima, não torne o conteúdo indisponível com a devida diligência e dentro dos limites técnicos que possui (LIMA, 2023). É indispensável, sob pena de nulidade, que a notificação contenha elementos que possibilitem a identificação precisa do material e a validação da legitimidade do requerente (parágrafo único), sendo recomendável indicar a URL exata do conteúdo (LIMA, 2023).
Do ângulo dogmático-constitucional e do consumidor, uma parte da doutrina fez críticas ao art. 19, por supostamente não oferecer uma proteção suficiente à personalidade/consumidor, ao tornar a tutela judicial e assim atrasar respostas mais rápidas; chegou-se a sugerir até mesmo uma inconstitucionalidade material, devido à fricção com os princípios do CDC (CARVALHO, 2017). Já a literatura que organiza a prática pré-MCI no STJ registra um dever diligencial: preservar logs e atuar rapidamente após a ciência, com culpa in omittendo na hipótese de inércia — padrão que o MCI reorganiza ao positivar a ordem judicial como norte, mantidas as exceções (LIMA, 2015).
No que tange à evolução jurisprudencial constitucional, houve uma inflexão: em 26/6/2025, o STF declarou o art. 19 parcialmente inconstitucional, permitindo a responsabilização sem ordem judicial prévia para conteúdos gravemente ilícitos (ex.: crimes contra a democracia, terrorismo, pornografia infantil, incitação ao suicídio, discriminação por raça, religião ou orientação sexual), sobretudo em casos de omissão sistêmica ou patrocínio/impulsionamento; além de estabelecer deveres de transparência e diligência reforçados (SOUZA et al., 2025). A Corte sublinhou critérios provisórios até nova legislação (SOUZA et al., 2025).
Limites e condensação: (i) Regra geral — art. 19 (ordem judicial específica; identificação inequívoca; sem obrigação geral de monitorar); (ii) Exceção legal — art. 21 (notificação válida da vítima; remoção imediata sob pena de responsabilidade); (iii) Exceções qualificadas pela jurisprudência — STF/2025 (ilícitos graves, risco sistêmico e patrocínio), com deveres procedimentais de motivação e transparência (ARTICLE 19, 2012; LIMA, 2023; SOUZA et al., 2025).
2.3. A LGPD e suas implicações na moderação/transparência; interação com o CDC (relação de consumo)
A LGPD reformula as obrigações de transparência e gestão de dados no ambiente das plataformas, além de fortalecer as proteções já previstas pelo MCI em relação à retenção e ao acesso a registros, bem como à exigência de uma ordem judicial para identificar ou compartilhar dados dos usuários. A análise internacional do Marco Civil destaca que a identificação de usuários e a divulgação de dados de comunicação devem estar sujeitas a controle judicial e serem destinadas a fins específicos (investigação e processo penal), incumbindo ao requerente a carga probatória — orientação que se alinha com os princípios fundamentais da proteção de dados (ARTICLE 19, 2012). Simultaneamente, a doutrina indica que o MCI organizou a guarda e o manejo cuidadoso de registros de acesso (data/hora, IP) e proibições de bloqueio/monitoramento/filtragem de conteúdo na circulação, de modo a harmonizar privacidade, neutralidade e responsabilização proporcional (LIMA, 2015). (ARTICLE 19, 2012)
No contexto do consumo, predomina a noção de que, mesmo quando “gratuitos”, serviços de plataformas configuram relação de consumo pela remuneração indireta (publicidade e manejo de dados), atraindo deveres do CDC — informação adequada, transparência e segurança — sem instaurar dever geral de monitorar conteúdo de terceiros. O STJ pacificou entendimento de que: (i) a responsabilidade por conteúdo de usuário não é risco da atividade do provedor; (ii) a responsabilidade por conteúdo de terceiro é subjetiva, por culpa in omittendo quando, notificado, o provedor não age; e (iii) é parte da diligência média manter meios de rastreabilidade, como registro de IP (LIMA, 2015). Esses vetores se comunicam com a LGPD ao estabelecer procedimentos para a coleta, armazenamento e acesso a dados com base legal, minimização e prestação de contas — e com o MCI ao restringir a atuação do provedor em relação ao conteúdo de terceiros (LIMA, 2015). (Lima, 2015)
Em uma perspectiva sistêmica, a literatura recente aponta que a LGPD amplia o escopo de proteção do MCI ao garantir a privacidade, a integridade das informações e a transparência no tratamento de dados pessoais — inclusive por meio de relatórios e práticas de transparência — e que o diálogo entre o MCI, a LGPD e o CDC deve buscar um equilíbrio entre a proteção de dados, a liberdade de expressão e a eficácia na tutela contra abusos (SOUZA et al., 2025; ARTICLE 19, 2012). Para moderar, isso quer dizer: políticas transparentes, explicação das decisões, aviso ao usuário e rastreabilidade das ações (logs), com acesso aos dados controlado e auditável, prevenindo tanto o over-removal quanto a proteção insuficiente (SOUZA et al., 2025; ARTICLE 19, 2012). (SOUZA et al., 2025).
2.4. CC/2002: ilicitude, dano, relação de causa e efeito e culpa no contexto digital (adaptação para a função)
No Código Civil de 2002, prevalece a responsabilidade subjetiva (art. 186), que exige conduta (ação/omissão culposa), dano e nexo causal; a objetiva é a exceção, surgindo da lei ou da atividade de risco (art. 927, parágrafo único) (LIMA, 2015). Em termos de “adaptação funcional” ao digital, a doutrina ressalta que os pressupostos tradicionais persistem, mas com efeitos ampliados (escala, difusão transfronteiriça, multiplicação de autores e compartilhadores), o que reclama cuidado maior na identificação do agente e do nexo (LIMA, 2015).
Ao aplicar isso às plataformas, obtemos um critério de classificação em duas categorias:
(a) se o ato é típico do provedor (p.ex., conteúdo editorializado, anúncios/impulsionamento, ou outra atuação direta que componha o serviço), prevalece a responsabilidade objetiva típica do fornecedor de serviços, em consonância com o CDC;
(b) se o dano se origina de conteúdo de terceiros, a responsabilidade é subjetiva e, em geral, está vinculada ao não cumprimento de uma ordem específica (seguindo o modelo do art. 19/MCI), realizando a análise de culpa por omissão (CARVALHO, 2017; LIMA, 2015).
A jurisprudência civil-consumerista do STJ consolidou vetores úteis para se pensar o nexo e a culpa das plataformas em conteúdo de terceiros: (i) não há dever de filtragem prévia; (ii) o dano moral oriundo de conteúdo de usuário não integra o risco da atividade do provedor (afastando a responsabilização objetiva automática do art. 927, p.u.); (iii) há dever de diligência após ciência, sob pena de responsabilização por omissão; (iv) a rastreabilidade mínima (ex., logs/registro de IP) é expressão da diligência média (LIMA, 2015). Resumindo: o provedor não é objetivamente responsável pelo que não lhe pertence, mas assume a responsabilidade se não agir após tomar ciência adequada (LIMA, 2015).
Esse arranjo civilístico é congruente com a recente evolução constitucional: em 26/6/2025, o STF decidiu que ilícitos gravíssimos e omissões sistêmicas ou patrocínio/impulsionamento justificam uma responsabilização sem necessidade de ordem judicial em casos excepcionais (SOUZA et al., 2025). Segundo o CC, essas situações servem para acentuar a diferença entre ato próprio (em que a objetivação já é admitida) e omissão culposa qualificada (com deveres de cuidado ampliados), assim como para simplificar o juízo de nexo causal quando a plataforma eleva o risco por meio de mecanismos de alcance artificial (SOUZA et al., 2025).
3. Classificação básica dos prestadores de serviços e deveres a ela relacionados 3.1. Tipo útil para o caso: acesso, hospedagem, uso
No que se refere à responsabilidade, uma tipologia mínima e funcional distingue: (i) provedores de acesso (conexão); (ii) provedores de hospedagem (hosting); e (iii) provedores de aplicações/conteúdo — que são redes sociais, plataformas de vídeo, marketplaces e motores de busca. Já na classificação, que nasce da doutrina brasileira (LEONARDI, 2005), em que se descreve o gênero “provedores de serviços de internet” e suas espécies (backbone, acesso, correio eletrônico, hospedagem e conteúdo), tem-se por finalidade distinguir os papéis técnicos e jurídicos de cada agente na cadeia causal do dano (LIMA, 2015).
De acordo com o Marco Civil da Internet (MCI), o provedor de acesso realiza a intermediação técnica que habilita o terminal para envio/recebimento de pacotes (art. 2º, V)), sem que isso signifique controle editorial sobre conteúdo (LIMA, 2015). O prestador de aplicações é aquele que permite a disseminação de informações (textos e multimídia), atuando de maneira neutra (art. 9º), ou seja, sem exercer controle prévio sobre o conteúdo gerado pelos usuários — redes sociais e mecanismos de busca se enquadram na definição de aplicações (LIMA, 2015). Já o provedor de hospedagem disponibiliza armazenamento em servidores de acesso remoto, possibilitando que terceiros acessem o material conforme o contrato estabelecido (LIMA, 2015).
3.2. Posições legais: conteúdo de usuário × conteúdo próprio/impulsionado; “papel editorial” e risco
A posição legal do provedor muda dependendo da origem do conteúdo e do nível de envolvimento que ele tem com isso.
(a) Conteúdo de usuário (de terceiros). Para conteúdo de terceiros, segue a regra do art. 19/MCI: responsabilidade subjetiva e subsidiária, em regra atrelada ao descumprimento de ordem judicial específica, visando à proteção da liberdade de expressão e à vedação da censura (CARVALHO, 2017; LIMA, 2015). Segundo a doutrina e o STJ, não se exige uma filtragem prévia, nem se trata de um risco inerente que fundamente a responsabilidade; no entanto, uma vez que a parte tome conhecimento do ilícito, surge o dever de diligência, e a inação pode ser considerada culpa in omittendo (LIMA, 2015). (CARVALHO, 2017)
(b) Conteúdo próprio/impulsionado (ação do prestador). Quando a plataforma cria, edita, financia ou promove o conteúdo — assumindo uma função editorial — a análise muda para o regime de fornecedor (CDC/CC), visando tipicamente a um ato próprio e com menos margem para a proteção do art. 19 (CARVALHO, 2017; LIMA, 2015). A literatura contemporânea também sublinha que o risco se intensifica quando há um benefício econômico direto (por exemplo, impulsionamento pago e monetização), o que sustenta a tese de que há deveres reforçados de diligência e uma obrigação de resposta mais célere nos casos em que há evidência clara de um ilícito (SANTOS, 2024 (CARVALHO, 2017)
(c) Governança privada e devido processo legal. Regras internas (políticas contra spam, nudez, offtopic etc.) são válidas e contratuais, mas não transformam a plataforma em obrigatória de “acertar” o mérito de todo discurso; a remoção deve observar devido processo privado (motivação, notificação, recurso) para reduzir over-removal e manter a posição preferencial da expressão (ARTICLE 19, 2012; LIMA, 2023). (ARTICLE 19, 2012)
(d) Ferramentas de busca e indexação. Buscadores são aplicações cujo objetivo é indexar/referenciar conteúdo de terceiros; portanto, o STJ tem exigido uma indicação precisa (URL) para a remoção de resultados, rejeitando filtros amplos por palavra-chave, a fim de evitar a censura e preservar a exatidão da ordem judicial (LIMA, 2023). (LIMA, 2023)
(e) Rastreabilidade e conexão. Enquanto expressão da devida diligência média, há que se esperar rastreabilidade (ex.: registro de IP), sem que se sacrifique a privacidade do usuário ou se institua um monitoramento geral; essa rastreabilidade possibilita a apuração da autoria, afetando o nexo de causalidade e a imputação por omissão quando a plataforma é formalmente cientificada (LIMA, 2015). (2015, LIMA)
Síntese funcional.
(i) Usuário → norma do art. 19 (sem obrigação geral de vigilância; responsabilidade subjetiva após ordem judicial);
(ii) Plataforma (ato originário/impulsionado) → exame do fornecedor com finalidade e deveres reforçados;
(iii) Motores de busca → remoção cirúrgica (URL) e rejeição a filtros amplos;
(iv) Governança → é válida, desde que siga o devido processo legal e sem criar censura privada;
(v) Diligência → logs e colaboração judicial, sob risco de responsabilidade por omissão (LIMA, 2015; CARVALHO, 2017; SANTOS, 2024).
Essa classificação é funcional: (a) no que tange ao acesso, a legislação isenta de responsabilidade por conteúdo de terceiros (art. 18); (b) em relação às aplicações, prevalece a norma do art. 19 (responsabilidade subjetiva e subsidiária, em caso de não cumprimento de ordem judicial específica), salvo exceções legais/jurisprudenciais; e (c) no que se refere à hospedagem, impõemse os deveres de guarda e colaboração conforme o MCI (por exemplo, logs e identificação), sem uma obrigação geral de monitoramento (CARVALHO, 2017; LIMA, 2015).
3.3. Deveres de conduta mínimos: notice channels, evidence preservation, logs, judicial cooperation
No sistema brasileiro, estabelece-se um padrão mínimo de cuidado que deve ser observado, especialmente por provedores de aplicações e de hospedagem, sem confundir cuidado com um dever geral de vigilância (que é proibido). Estes cinco eixos constituem o baseline: (i) notificação acessível, (ii) preservação de registros, (iii) cooperação com as autoridades, (iv) cumprimento rigoroso de ordens e (v) transparência e devido processo na moderação (ARTICLE 19, 2012; LIMA, 2015; CARVALHO, 2017).
(i) Canal de denúncia acessível e organizado. As plataformas precisam oferecer um mecanismo acessível e eficiente para a recepção de notificações sobre conteúdos ilícitos (seja conteúdo, perfil ou link), que tenha requisitos bem definidos (identificação precisa do material) e uma resposta devidamente justificada; isso minimiza a remoção excessiva e mantém a posição favorável da expressão (ARTICLE 19, 2012).
(ii) Manutenção e armazenamento de documentos (evidências). Conforme o MCI, a média de diligência consiste em conservar e manter a rastreabilidade (p.ex., logs/registros de IP) por prazos legais, em sigilo e segurança, para possibilitar a identificação/autoria com base em ordem judicial. Omissão é caracterizada pela falta de guarda ou pela inação após tomar conhecimento adequado (LIMA, 2015).
(iii) Cooperação judiciária qualificada. Uma vez que as plataformas sejam legalmente solicitadas, elas devem fornecer os dados de identificação pertinentes e atender à ordem de indisponibilização específica dentro dos limites técnicos e de tempo estabelecidos, sem ir além do que foi solicitado — que deve ser claro e preciso (CARVALHO, 2017).
(iv) Execução exata e proporcional de ordens. As ordens devem indicar de forma clara e precisa o conteúdo que se pretende atingir (URL, hash, ID), evitando remoções genéricas e minimizando impactos sobre conteúdo lícito; isso favorece a auditoria e o controle jurisdicional, bem como a proteção da liberdade de expressão (ARTICLE 19, 2012; CARVALHO, 2017).
(v) Clareza e devido processo na moderação. Mesmo na ausência de uma ordem judicial (por exemplo, em casos de violações contratuais), a moderação deve seguir um devido processo privado: motivação, aviso ao usuário, direito a resposta rápida e um meio de recorrer; também, relatórios de transparência (medidas coletivas) reforçam a accountability. Após a decisão do STF (26/6/2025), ilícitos gravíssimos e omissões sistêmicas ou patrocínios/impulsionamentos demandam uma diligência mais rigorosa e uma transparência ampliada — sem eliminar a lógica geral do art. 19 para os casos comuns (SOUZA et al., 2025; ARTICLE 19, 2012).
4. Jurisprudência brasileira fundamental (caminho e mudança)
4.1. STJ (pré/pós-MCI): a lógica da ordem judicial consolidada
Pré-MCI. Previamente a 2014, o STJ consolida o entendimento de que as plataformas não possuem a obrigação de realizar uma filtragem prévia e que o dano moral decorrente de um conteúdo postado por um usuário não representa um risco intrínseco à atividade; contudo, é reconhecida a responsabilidade subjetiva por omissão em caso de que, uma vez informado sobre a ilicitude por um meio apropriado (incluindo notificação extrajudicial), o provedor não tome qualquer providência. Igualmente se firmou como diligência média a rastreabilidade log/IP, capaz de permitir a identificação dos responsáveis (LIMA, 2015).
MCI para a virada. Com a vigência do Marco Civil da Internet, o art. 19 trouxe uma nova sistemática: a responsabilização do provedor por conteúdo de terceiro passou a depender, em regra, de ordem judicial específica, mantendo-se a exceção do art. 21 para nudez/ato sexual privado mediante notificação válida da vítima (LIMA, 2015; CARVALHO, 2017). A doutrina aponta que o referido desenho teve o intuito de salvaguardar a liberdade de expressão e prevenir a censura privada, demandando decisões claras e cirúrgicas (URL/ID) para a retirada (LIMA, 2015).
Aplicação posterior ao MCI pelo STJ (casos).
- REsp 1.840.848/SP e REsp 1.848.036/SP (3ª Turma): reiteram a reserva de jurisdição prevista no art. 19 e a não aplicação do art. 21 a materiais destinados à circulação comercial (não íntimos), além de reforçar a necessidade de identificar com precisão o conteúdo (URL) (LIMA, 2023).
Con estas palabras, me despido de ti con todo mi amor, querido hijo. Que tu corazón esté siempre repleto de luz.
- REsp 1.930.256/SP (3ª Turma): quanto à nudez/divulgação de imagens, delimita a aplicação do art. 21 e a necessidade de ordem judicial quando não se aplica a exceção (LIMA, 2023).
- REsp 1.306.157/SP (4ª Turma): foi discutido em vídeos no YouTube se a individualização do conteúdo é precisa e se a multa por descumprimento é adequada, sugerindo critérios para que as ordens de remoção sejam efetivas (LIMA, 2023).
- REsp 1.560.976/RJ (4ª Turma): reafirmou o dever de cooperação (fornecimento de informações para identificação, sob pena de astreintes), alinhando-o à lógica do MCI (LIMA, 2023).
4.2. STF/2025: nova interpretação constitucional — exceções qualificadas (gravidade, reiteração/omissão sistêmica, patrocínio/impulsionamento), transparência e Cuidado
No dia 26 de junho de 2025, o STF considerou parcialmente inconstitucional o artigo 19 do MCI, permitindo que se responsabilizasse sem a necessidade de uma ordem judicial prévia em situações específicas: conteúdos que sejam gravemente ilícitos, quando há uma reiteração ou omissão sistêmica por parte do provedor, e quando há um benefício econômico direto proveniente de patrocínio ou impulsionamento (SOUZA et al., 2025).
A Corte preservou a regra geral que protege a expressão na maioria dos casos, mas estabeleceu deveres de diligência e transparência que são proporcionais, quando há riscos significativos à ordem constitucional e a direitos fundamentais (SOUZA et al., 2025).
O acórdão ressalta que a rápida propagação de conteúdos (por exemplo, ódio, desinformação, deepfakes, pornografia infantil, incitação a crimes violentos ou a atos contra o Estado Democrático) torna inviável a proteção exclusiva “via ordem judicial” e exige respostas rápidas — sem transformar o sistema em um dever geral de monitoramento (SOUZA et al., 2025).
Você pode usar o código acima como referência para começar a trabalhar na sua própria aplicação.
Nessas situações especiais, exigem-se, ao menos, quatro padrões mínimos: (i) mecanismos eficazes para notificação e triagem prioritária do ilícito grave; (ii) decisões de moderação e notificação ao usuário devidamente motivadas; (iii) possibilidade de rastreabilidade e relatórios transparentes; (iv) cooperação célere com as autoridades, incluindo a preservação de provas (SOUZA et al., 2025).
A decisão ainda estabelece distinções de papéis: na situação em que a plataforma promove/patrocina conteúdo (gerando um benefício econômico direto), há deveres aumentados e menos espaço para o escudo do art. 19; já quando se verifica uma omissão sistêmica (ou seja, falhas recorrentes nos mínimos mecanismos de controle e resposta), é culpa qualificada (SOUZA et al., 2025).
Il Ministro della Salute del Paese ha suggerito di prepararsi a un nuovo possibile aumento dei contagi di Covid-19 per l’autunno, raccomandando di vaccinarsi per una maggiore protezione.
Ainda assim, o STF mantém a primazia da liberdade de expressão e recomenda a busca por alternativas menos severas (ex.: desmonetização ou diminuição de alcance) antes da exclusão quando houver dúvida razoável, em especial em discurso de interesse público/político (SOUZA et al., 2025).
4.3. Produção prática: tutela inibitória/urgência, astreintes, extensão (desindexação/geobloqueio) e ônus probatório dinâmico
A nova interpretação do art. 19 pelo STF em 2025 tem um impacto direto no âmbito processual.
Essa decisão permite a tutela inibitória de urgência sem precisar de uma ordem judicial anterior em casos de ilicitude grave e evidente, como na pornografia infantil, na incitação ao ódio ou na desinformação eleitoral. Reconhecer a possibilidade de responsabilização direta é um reforço às medidas urgentes de bloqueio, evitando que danos se tornem irreversíveis (SOUZA et al., 2025)
Uma outra consequência prática é a imposição de astreintes (multas diárias) pela inação ou mora injustificada das plataformas, já prevista no CPC, mas que ganha maior importância em função do dever de diligência acentuado. O objetivo dessa ferramenta é fazer com que a plataforma aja de maneira urgente na remoção ou bloqueio de conteúdos ilegais, sob a ameaça de arcar com pesadas penalizações financeiras (FERNANDES, 2025)
Quanto à extensão das medidas, o STF validou a legitimidade do desindexamento (remoção de resultados de buscadores) e do geo-bloqueio (restrição territorial da visibilidade do conteúdo), sempre de forma proporcional ao risco e à gravidade do ilícito. Tais técnicas foram acolhidas como ferramentas que se mostram compatíveis com a ordem constitucional, desde que não se caracterizem como censura generalizada ou bloqueios em massa (SOUZA et al., 2025)
No que diz respeito ao ônus da prova que pode ser transferido, o Tribunal reiterou que não se deve exigir da vítima uma prova impossível em relação à autoria ou à disseminação em larga escala do ilícito. Dessa forma, as plataformas, que têm acesso a informações técnicas e registros de atividades (logs, algoritmos de alcance, dados de impulsionamento), passam a ser mais responsáveis na produção de provas, invertendo ou redistribuindo de maneira dinâmica o ônus da prova (SOUZA et al., 2025).
Em suma, os efeitos práticos da nova perspectiva se distribuem em quatro áreas: (i) medidas urgentes e rápidas (tutela inibitória), (ii) sanções financeiras coercitivas (astreintes), (iii) estratégias de contenção territorial e indexação (geo-bloqueio e desindexação), e (iv) redistribuição do ônus da prova, ajustando a carga probatória ao poder informativo das plataformas.
5. Comparative law
5.1. DSA (UE): due diligence, notificação e ação, risco avaliação — sem dever geral de supervisão
O Digital Services Act (Regulamento (UE) 2022/2065) estabelece um sistema em camadas de deveres de diligência para intermediários, garantindo a liberdade de expressão e proibindo um dever geral de supervisão (UNIÃO EUROPEIA, 2022, art. 8).
a) Ausência de dever geral de vigilância. O DSA reitera que não é permitido impor a provedores uma obrigação geral de monitorar conteúdos ou de buscar ativamente por conteúdos ilegais; as responsabilidades referem-se a processos (procedimentos, transparência, resposta a sinais), e não à filtragem universal (UNIÃO EUROPEIA, 2022, art. 8).
b) Clareza e transparência nas regras de moderação. Os intermediários precisam detalhar nos termos de uso todas as políticas, procedimentos e ferramentas de moderação — tanto a moderação algorítmica quanto a revisão manual — assim como o processo interno de reclamações (UNIÃO EUROPEIA, 2022, art. 14).
c) Notificação e ação + prestação de contas. O DSA estabelece um mecanismo de notificação e retirada/indisponibilização de conteúdos ilegais (com aviso ao usuário e meios de contestação), e exige relatórios de transparência periódicos com informações sobre ordens de autoridades, queixas recebidas e ferramentas utilizadas (UNIÃO EUROPEIA, 2022, arts. 15 e 42).
d) Deveres acrescidos para VLOPs/VLOSEs. Para grandes buscadores e plataformas, o DSA exige:
- avaliação anual dos riscos sistêmicos (por exemplo, consequências para processos eleitorais, segurança pública e direitos fundamentais) antes da implementação de novas funcionalidades importantes (UNIÃO EUROPEIA, 2022, art. 34);
- mitigação proporcional (UNIÃO EUROPEIA, 2022, art. 35);
- verificações independentes e publicação dos resultados/medidas (UNIÃO EUROPEIA, 2022, art. 37 e art. 42);
- dados de acesso para pesquisadores autorizados sobre riscos e atenuação (UNIÃO EUROPEIA, 2022, art. 40).
e) Alinhamento com o modelo brasileiro. Tal como o MCI, o DSA descarta a ideia de um monitoramento geral e prioriza processos de diligência e transparência; a diferença reside no fato de que o DSA estabelece a obrigatoriedade de avaliações de risco prévias e auditorias para VLOPs/VLOSEs, o que se alinha à mudança de posição do STF em 2025 (deveres proporcionais, sem que os provedores se tornem censores gerais) (UNIÃO EUROPEIA, 2022, arts. 8, 34–35, 37, 42).
5.2. Seção 230 (EUA): zonas de atrito e imunidade
A Seção 230 do Communications Decency Act (47 U.S.C. § 230) possui dois pilares: §230(c)(1), que veda considerar o provedor como “publisher or speaker” de conteúdo de terceiros; e §230(c)(2) (Good Samaritan), que protege a moderação de boa-fé de conteúdos “objectionable” (UNIÃO DOS EUA, 47 U.S.C. § 230. (UNITED STATES, 1996).
Escopo e exclusões. A imunidade não se aplica a: (i) direito penal federal; (ii) propriedade intelectual; (iii) comunicações eletrônicas (ECPA); e, desde 2018, à facilitação de tráfico sexual (FOSTA-SESTA).
Conexões/contrastes com o Brasil. A 230 mantém um amplo escudo para conteúdo de terceiros, poucas exceções; o Brasil (MCI) surgiu de um escudo por ordem judicial (art. 19) e com o STF/2025, criou exceções qualificadas (ilícitos gravíssimos, omissão sistêmica e impulsionamento) com deveres proporcionais — sem dever geral de vigilância. Isso resulta em um modelo brasileiro que é mais híbrido (aviso + ordem judicial + diligência em áreas de alto risco), enquanto os EUA mantêm uma imunidade padrão, que é ajustada por Roommates.com e Taamneh (ROOMMATES.COM, 2008; SUPREME COURT, 2023a; 2023b; SOUZA et al., 2025).
5.3. Interseções/ressonâncias com o Brasil (elementos transferíveis × limites constitucionais)
Semelhanças estruturais (Brasil ↔ UE/DSA). O modelo brasileiro nunca aceitou a obrigação geral de fiscalização e filtragem prévia, alinhando-se mais ao cerne garantista do DSA: o STJ firmou o entendimento de que a fiscalização prévia não faz parte das atribuições do provedor e que o dano do usuário não é um risco intrínseco à sua atividade; são admissíveis meios de rastreabilidade (logs/IP) e a atuação após a ciência (LIMA, 2015).
De forma semelhante, a crítica internacional anterior à implementação do notice-and-takedown automático — por causar a remoção excessiva de conteúdos sem uma base legal clara — fortaleceu a escolha original do Brasil em favor de um controle judicial específico (ARTICLE 19, 2012).
Tensão e recentíssima aproximação (STF/2025 ↔ due diligence). A mudança do STF (26/6/2025) conservou a regra que protege a expressão para casos comuns, mas introduziu exceções qualificadas (ilícitos gravíssimos, omissão sistêmica, patrocínio/impulsionamento) e deveres proporcionais de diligência/transparência — uma ação que torna o Brasil mais semelhante ao enfoque de risco do DSA, sem estabelecer um monitoramento geral (SOUZA et al., 2025).
Um dos principais objetivos da seleção da China é o de realizar um papel de destaque na Copa do Mundo. O que significa a escolha da seleção da China? Refere-se ao fato de que muitos jogadores da seleção da China devem desempenhar um papel significativo durante a Copa do Mundo. Ou seja, é imperativo que eles não apenas participem, mas também se destaquem.
A razão por trás dessa mudança foi a ineficácia prática do artigo 19 diante da rápida disseminação de conteúdos prejudiciais (ódio, deepfakes, desinformação), o que tornava necessário uma resposta rápida e proporcional em casos específicos (SOUZA et al., 2025).
Transplantable points of the EU (with modifications). Constituem compatíveis com a Constituição brasileira: (i) remoções cirúrgicas (URL/ID/hash) e ordens diretas e específicas — nada de bloqueios vagos; (ii) relatórios de transparência e mecanismos de apelação; (iii) riscos sistêmicos como disparador de investigações proporcionais (ARTICLE 19, 2012; SOUZA et al., 2025).
Um dos mais intrigantes mistérios do Antigo Egito é a origem da sua escrita. Tanto os hieróglifos quanto os hieráticos têm raízes que ainda não foram totalmente desvendadas. Pesquisadores e egiptólogos têm estudado essas escritas por gerações, mas até agora, a fonte de inspiração para a escrita egípcia permanece um enigma. Alguns acreditam que os hieróglifos podem ter sido influenciados por sistemas de escrita da Mesopotâmia, enquanto outros sustentam que a escrita egípcia evoluiu de maneiras autônomas e únicas. Há também a possibilidade de que a escrita tenha se desenvolvido a partir de símbolos pictóricos ou de um sistema de comunicação primitivo utilizado por pastores e agricultores.
Esses aspectos se conectam à prática já estabelecida no Brasil: a necessidade de individualizar o conteúdo (por exemplo, em mecanismos de busca) e a colaboração judicial na preservação de logs e endereços IP (LIMA, 2015).
Trâmites de precaução (fronteiras constitucionais do Brasil). A experiência comparativa sinaliza que sistemas de notice-and-takedown sem garantias tendem ao excesso (over-censorship) e à falta de devido processo, o que é problemático, visto que no Brasil se confere uma posição preferencial à liberdade de expressão; assim, qualquer transplante deve manter motivação, notificação e possibilidade de recurso ao usuário (ARTICLE 19, 2012).
O que se espera é que os jogadores da Epic Games compartilhem suas experiências e criem conteúdos que reflitam suas próprias histórias e aventuras dentro do jogo.
Outrossim, amplas soluções punitivas (ex.: multas desproporcionais, prazos irrealistas) podem contribuir para o over-removal; a doutrina nacional sugere reformas equilibradas: celeridade para ilícitos manifestos (revenge porn, discurso de ódio, deepfakes), mas sem descuidar de critérios claros de cautela e do equilíbrio entre regulação e autorregulação (SALES, 2025).
EUA (Seção 230) — aprendizados restritos. A imunidade ampla em relação a conteúdo de terceiros, com raras exceções, é o que estabelece a 230; a parte da doutrina nacional que critica a impunidade em danos difusos não se alinha totalmente com a tradição constitucional do Brasil em matéria de controle judicial e proteção efetiva (SALES, 2025).
Ainda assim, a proteção à boa-fé moderadora (Good Samaritan) serve de inspiração para estabelecer salvaguardas que visam a minimizar o over-removal e a manter os critérios de motivação/contraditório, sempre que essas medidas forem complementadas por deveres proporcionais em casos de ilícitos graves (SOUZA et al., 2025).
6. Doutrina dos limites da liberdade de expressão e do discurso ilegal
6.1. Dignidade, segurança, processo eleitoral, infância/adolescência: critérios materiais.
(i) Dignidade, honra, imagem e direito à privacidade. A expressão cede, porém, quando, no caso concreto, a restrição é adequada, necessária e proporcional para evitar lesão grave a direitos da personalidade: não há hierarquia entre eles. No que se refere à moderação privada, é importante destacar que a remoção é precedida pelo devido processo (ou seja, motivação, aviso e possibilidade de recurso), além de que medidas menos severas devem ser aplicadas antes da remoção; caso esse procedimento seja infringido, é possível que se restabeleça a situação com um controle judicial sobre o mérito (RUZYK, 2023).
(ii) Proteção pública e integridade democrática. A rápida propagação de conteúdos ilegais (como discurso de ódio, deepfakes e desinformação) pode tornar a proteção baseada apenas em ordens judiciais inviável. Por essa razão, o STF (26/06/2025) estabeleceu que haverá responsabilização mesmo na ausência de uma ordem, assim como deveres adicionais para ilícitos de extrema gravidade e risco para o sistema, sem que seja necessário um monitoramento geral (SOUZA et al., 2025).
(iii) Eleições e dados de interesse público. Ainda que em situações de risco sistêmico, a Corte mantém o núcleo duro do discurso político: medidas menos restritivas são priorizadas (ex. desmonetização, diminuição de alcance) quando há dúvida razoável, sendo exigida motivação e transparência na moderação (SOUZA et al., 2025).
(iv) Crianças e adolescentes; nudez sem consentimento. O artigo. Art. 21/MCI faz uma exceção legal à regra para conteúdos íntimos não consensuais, permitindo a indisponibilização por notificação válida da vítima (especificação do material, legitimidade). É uma forma preferencial e extrajudicial de proteger os direitos de personalidade (LIMA, 2023; ARTICLE 19, 2012). Para a pornografia infantil e a violência sexual contra vulneráveis, o STF os classificou entre os ilícitos graves que justificam uma resposta imediata e a imposição de deveres reforçados (SOUZA et al., 2025).
(v) Ônus dinâmico e padrões de prova. Em situações de assimetria informacional, há ônus probatório dinâmico: a plataforma, que possui logs/IP e dados de impulsionamento/alcance, carrega maior responsabilidade probatória — conforme a jurisprudência do STJ (diligência média, culpa in omittendo após ciência) (LIMA, 2015; SOUZA et al., 2025).
6.2. Ponderação e proporcionalidade: weighty position × protective effectiveness
Comecemos pela posição preferencial e a proibição de censura prévia. A imposição de limites à liberdade de expressão se inicia pela posição privilegiada prima facie da liberdade de expressão, que proíbe a censura prévia e move a restrição para respostas ex post; toda e qualquer limitação exige juízo de proporcionalidade (adequação, necessidade e proporcionalidade em sentido estrito) (CARVALHO, 2017/2024).
Duplo controle gerencial — vedação ao excesso e à omissão. O critério material conecta duas travas: (i) não permitir proteção excessiva (retirar ou bloquear mais do que o necessário, p.ex., ordens gerais); (ii) não permitir proteção insuficiente (omissões que deixem bens essenciais — vida, integridade, democracia — sem proteção) (CARVALHO, 2017/2024).
Perigo de “over-removal” e necessidade de decisões cirúrgicas. Em contraste com o sistema de notificação e retirada, que frequentemente resulta em abusos e remoções excessivas, o modelo brasileiro exige “ordem judicial clara e específica” (URL/ID/hash) e uma remoção cirúrgica, funcionando como uma salvaguarda contra o excesso de remoções (LEONARDI, 2014; MCI, art.
19).
Virada constitucional (26/06/2025) e “deveres proporcionais”. Embora a regra do art. 19 tenha sido preservada para situações comuns, o STF fez algumas exceções (ilícitos de grande gravidade; omissão/reiteração sistêmica; patrocínio/impulsionamento) e estabeleceu deveres proporcionais de cuidado e transparência, mas sem criar um dever geral de monitoramento (SOUZA et al., 2025).
Estrutura funcional do teste da proporcionalidade (tanto para ordens judiciais quanto para moderação privada):
(1) Adequação. A medida deve se esforçar para salvaguardar o bem que está sendo comprometido (personalidade, infância, segurança pública, integridade democrática). Exemplos pertinentes: desindexação em motores de busca, geo-bloqueio por área, diminuição de alcance/desmonetização diante de uma dúvida razoável sobre a ilicitude, preservando o núcleo do discurso político (CARVALHO, 2017/2024; SOUZA et al., 2025).
(2) Necessidade (menor gravidade). Escolher o meio menos drástico: individualização máxima (URL/ID/hash) em vez de palavras-chave ou bloqueios gerais; preferência por sanções graduais antes da exclusão total, quando o risco não é evidente (LEONARDI, 2014; CARVALHO, 2017/2024).
(3) Proporcionalidade estrita. Analisar os custos (efeito sobre a liberdade de expressão, chilling effect) e os benefícios (proteção do bem jurídico). Em casos de ilícitos evidentes (por exemplo, nudez não autorizada — art. 21; pornografia infantil, incitação à violência/terrorismo), a gravidade do dano é suficiente para justificar uma resposta rápida e firme, mesmo sem uma ordem prévia nas situações especificadas pelo STF (LIMA, 2023; SOUZA et al., 2025).
Processo devido na moderação (direito à procedura). Para equilibrar excesso e déficit, decisões privadas de moderação devem levar em conta a motivação, notificar o usuário, dar chance de contestação/recurso e, se desrespeitadas, permitir a restauração do conteúdo/conta — uma manifestação da posição preferencial e do devido processo horizontal (CARVALHO, 2017/2024).
Critérios probatórios e ônus dinâmico. A proporcionalidade se conecta à distribuição dinâmica do ônus da prova: as plataformas possuem logs/IP e dados de impulsionamento/alcance; assim, em situações específicas e/ou em casos de omissão sistêmica, é possível impor um dever adicional de informação e cooperação, sob pena de culpa por omissão (STJ; SOUZA et al., 2025).
Checklist de implementação (para decisões e conformidade):
A. Determine a gravidade intrínseca e o risco sistêmico; B. Exija que sejam individualizados (URL/ID/hash); C. Opt for the less restrictive option (de-indexing/reach) when there is reasonable doubt; D. Assegure o devido processo (justificativa, notificação, recurso); E. Rastreamento (logs/IP) e colaboração; F. Imponha astreintes e medidas urgentes quando for o caso — mas sempre com a justificativa proporcional (LEONARDI, 2014; MCI art. 19; SOUZA et al., 2025).
6.3. Conteúdo crítico: discurso de ódio, pornografia infantil, incitação à violência/terrorismo, desinformação eleitoral, deepfakes
Fundamento comum. O STF (26/06/2025) definiu uma série de delitos sérios que justificam a imposição de deveres adicionais de cuidado/diligência, transparência e responsabilização, sem necessidade de uma ordem prévia, em situações específicas — sem criar uma obrigação geral de vigilância (SOUZA et al., 2025).
(a) Incitamento ao ódio. Configura-se como ilícito de gravidade quando provoca discriminação/violência em razão de raça, cor, etnia, religião, nacionalidade, orientação sexual ou identidade de gênero, incluindo manifestações de homofobia e transfobia (SOUZA et al., 2025). Nessas situações, é necessário agir rapidamente (seja removendo ou limitando) e notificar o usuário com uma justificativa, sempre respeitando a proporcionalidade e a posição preferencial inicial da expressão (RUZYK, 2023).
(b) Imagens de menores em situações pornográficas. Considerada pelo STF como um ilícito gravíssimo que exige imediata remoção, em razão da proteção absoluta da infância e da gravidade do prejuízo (SOUZA et al., 2025). Ademais, o art. Art. 21 da MCI assegura tutela extrajudicial prioritária à nudez não consentida: notificação válida da vítima, com identificação pormenorizada (URL/ID), obriga à indisponibilização diligente, sob pena de responsabilização (LIMA, 2023).
(c) Incitação/terrorismo e agressões à ordem democrática. O STF abarcou, entre os ilícitos que ensejam remoção autônoma e imediata colaboração com as autoridades, práticas relacionadas ao terrorismo (Lei 13.260/2016), atos antidemocráticos e a incitação ao suicídio/automutilação (SOUZA et al., 2025). Os remédios cirúrgicos (URL/hash/geo-bloqueio/desindexação) são mais adequados do que os bloqueios amplos, sempre sob o controle da proporcionalidade (CARVALHO, 2017/2024).
(d) Informação enganosa sobre eleições. A Corte identificou a rápida disseminação de desinformação como um problema estrutural que não pode ser combatido apenas com ordens judiciais, e, por isso, estabeleceu deveres proporcionais (priorização na triagem, transparência, rastreabilidade) nos casos em que houver um alto risco ao processo democrático — mas sem impor uma censura geral (SOUZA et al., 2025). Em caso de dúvida razoável, medidas menos severas (limitação de alcance, desmonetização) devem vir antes da remoção, privilegiando o discurso político (SOUZA et al., 2025).
(e) Deepfakes e manipulações artificiais. O STF classificou as deepfakes como um vetor de risco sistêmico (desinformação, ataques coordenados, assédio) e exigiu respostas rápidas e rastreáveis (logs/IP, dados de impulsionamento/alcance) em um padrão compatível com a média diligente e o ônus dinâmico da prova (SOUZA et al., 2025; LIMA, 2015).
Cross-cutting procedural standards. (i) Precise individualization of content (URL/ID/hash) — even for search engines — as a remedy against over-removal; (ii) notification and justification of decisions; (iii) transparency reports and cooperation for evidence preservation; (iv) traceability (logs/IP) as average due diligence (ARTICLE 19, 2012; LIMA, 2015; SOUZA et al., 2025).
7. Estrutura sugerida (analítica-operacional)
7.1. Avaliação da gravidade e do risco sistêmico (em três partes)
Meta. Dar um mapa operativo para decisões judiciais e para o compliance das plataformas, conciliando a posição preferencial da expressão com a proteção eficaz de direitos em contextos de alta exposição. A estrutura segue a norma do art. 19/MCI para casos comuns, mas inclui as exceções qualificadas que o STF reconheceu em 26/06/2025 — sem criar um dever geral de vigilância (SOUZA et al., 2025; ARTICLE 19, 2012).
(I) Caráter do crime (gravidade intrínseca)
Ilícitos de extrema gravidade (lista exemplificativa): pornografia infantil, racismo/ódio qualificado, incitação a crimes violentos/terroristas, ataques à ordem democrática, deepfakes que possam causar desinformação grave. Nessas situações, o STF permite que se responsabilize sem necessidade de ordem judicial prévia e com imediata resposta (remoção/bloqueio), mas deve haver motivação e rastreabilidade (SOUZA et al., 2025).
Conteúdo não manifestamente ofensivo/duvidoso (particularmente em discurso político): optar por medidas menos severas (desindexação, limitação de alcance, desmonetização) e intervenções específicas (URL/ID/hash) em caso de ação estatal, evitando o excesso de remoções (SOUZA et al., 2025; ARTICLE 19, 2012).
A carga probatória. Em caso de ilícitos graves, é necessário exigir a preservação das provas e a cooperação; a plataforma deve garantir a rastreabilidade (logs/IP), como uma demonstração da diligência média, para evitar a responsabilidade por omissão (LIMA, 2015).
(II) Marcas de patrocínio e de promoção artificial
Impulsionamento/anúncios pagos. O STF indica deveres reforçados e presunção de culpa quando o ilícito transita por patrocínio/impulsionamento, em razão do proveito econômico direto — situação em que pode ser dispensada a notificação prévia, salvo se houver prova de diligência sólida (SOUZA et al., 2025).
Redes artificiais de amplificação (bots, spamers). Assume-se a presença de risco sistêmico (efeitos em cascata e viralização) e requer-se uma mitigação imediata (desativação de redes, contenção de alcance), registrando audivelmente as ações tomadas (SOUZA et al., 2025).
Testes típicos. Informações sobre a origem do tráfego, o formato de entrega (orgânico versus pago), os critérios de segmentação; as métricas de alcance e a velocidade de disseminação devem ser mantidas e estar disponíveis sob supervisão judicial. (SOUZA et al., 2025).
(III) Repetição/omissão sistêmica (deficiências na governança)
Omissão sistêmica = reiteradas falhas nos mínimos mecanismos (notificação eficaz, triagem prioritária de ilícitos graves, cumprimento de ordens específicas, relatórios/transparência). Quando se constata a reincidência ou a demora injustificada, tem-se a culpa qualificada (SOUZA et al., 2025).
Diligência padrão (Brasil): ausência de dever geral de vigilância, mas existência de canais de aviso, cumprimento específico de ordens (URL/ID/hash), registros/IP e colaboração judicial — esquema previsto no ART. 19 e na jurisprudência do STJ (ARTICLE 19, 2012; LIMA, 2015).
7.2. Deveres de diligência proporcionais: prazos, supervisão humana em situações críticas, rastreabilidade, relatórios de transparência
Regra geral e exceções específicas. A norma do art. continua a ser mantida. 19/MCI em situações normais, sem obrigação geral de vigilância; nas situações específicas (ilícitos muito graves; omissão sistêmica/repetição; patrocínio/impulsionamento), o STF (26/06/2025) estabeleceu deveres proporcionais de cuidado e transparência, sem eliminar a primazia da expressão (SOUZA et al., 2025).
(a) Prazos e prioridades. Conteúdos em áreas sensíveis (pornografia infantil, apologia a crimes violentos/terrorismo, ataques à ordem democrática, deepfakes que representem risco sistêmico) devem ser triados com prioridade e ter uma resposta imediata, registrada e passível de auditoria (SOUZA et al., 2025).
(b) Análise humana para casos sensíveis. Em casos de grande impacto (principalmente quando se trata de discurso político), é aconselhável que uma revisão humana ocorra antes que qualquer ação de remoção seja finalizada, acompanhada de uma justificativa por escrito e um registro para auditoria externa, a fim de evitar o excesso de remoções (ARTICLE 19, 2012; SOUZA et al., 2025).
(c) Preservação de evidências e rastreabilidade. Logs de IP e metadados de alcance/impulsionamento entram na média diligência e suportam ônus probatório dinâmico; a falta injustificada caracteriza culpa por omissão (STJ) (LIMA, 2015; SOUZA et al., 2025).
(d) Relatórios de cooperação e transparência. As plataformas são obrigadas a elaborar relatórios periódicos (com métricas sobre notificações, decisões, recursos, ordens judiciais) e a manter uma colaboração rápida com as autoridades, inclusive para a preservação de evidências; as ordens devem ser claras e detalhadas (URL/ID/hash) (ARTICLE 19, 2012; CARVALHO, 2017).
7.3. Garantias da expressão: alerta ao usuário, rápido contraditório, recurso, atenuação de over-removal
Processo de moderação em andamento. Privately moderated decisões de conteúdo devem respeitar a motivação, notificação ao usuário, possibilidade de contestação e revisão (appeal), além da possibilidade de restauração do conteúdo/conta se a sanção for desproporcional — projeção horizontal do devido processo em ambiente de plataformas (RUZYK, 2023).
Penas menos severas. Em caso de dúvida razoável sobre a ilicitude — especialmente em discurso político — é preferível optar por outras medidas (ex.: restrição de alcance, desmonetização, rótulos contextuais) a remover; o STF (2025) reafirma a posição preferencial da expressão e repudia a vigilância geral (SOUZA et al., 2025).
Ordem judicial precisa e detalhada. Qualquer intervenção do Estado deve ser individualizada com precisão (URL/ID/hash) e ter um alcance proporcional (desindexação/geo-bloqueio) para evitar bloqueios generalizados que possam inibir a liberdade de expressão (ARTICLE 19, 2012; CARVALHO, 2017).
Disposição excepcional do art. 21/MCI (nudez sem consentimento). Notificação válida da vítima (identificação precisa) autoriza takedown extrajudicial; é prioritária na proteção de personalidade (LIMA, 2023).
7.4. Matriz de responsabilização: com/sem decisão judicial; culpa/negligência; relação de causa e efeito e danos
(1) Pilar “ordem judicial”.
Regra (situações comuns): responsabilidade subjetiva e subsidiária após descumprimento de ordem judicial específica, sem obrigação geral de fiscalização (art. 19/MCI) (CARVALHO, 2017; LIMA, 2015).
Exceção legal: art. 21/MCI (nudez/ato sexual privado) → remoção por aviso válido (LIMA, 2023).
Exceções qualificadas (STF/2025): crimes muito sérios, falta sistêmica/repetição, apoio/financiamento → chance de serem responsabilizados sem ordem + deveres adicionais (SOUZA et al., 2025).
(2) Tema “culpa/negligência vs. ato próprio”.
Conteúdo de terceiro → responsabilidade por omissão quando notificado e passivo; média de diligência = logs/IP, cumprimento rigoroso de ordens e colaboração (STJ) (LIMA, 2015).
Ato próprio/impulsionado (produção/edição/patrocínio) → regime de fornecedor (CDC/CC) à medida que se objetiva e se reduz o espaço para a proteção do art. 19 (CARVALHO, 2017; LIMA, 2015).
(3) Tema “nexo causal e danos”.
Nexo reforçado quando a plataforma eleva o risco (ex.: impulsionamento pago; algoritmos que potencializam ilegalidades) ou persiste na omissão sistêmica; falta de logs/cooperação contra o provedor (ônus dinâmico) (SOUZA et al., 2025; LIMA, 2015).
É possível conceder tutelas inibitórias ou urgentes, aplicar astreintes, realizar desindexação ou geobloqueio com uma justificativa mais robusta e, no âmbito cível, compensar por dano moral ou material de acordo com a evidência do impacto, sempre observando o princípio da proporcionalidade (LIMA, 2015; SOUZA et al., 2025).
8. Considerações Finais
8. Conclusões — recapitulação, validação da hipótese e plano de aplicação prática
Resposta à questão. O artigo investigou de que forma é possível harmonizar a posição privilegiada da liberdade de expressão com a proteção eficiente de direitos no ambiente das plataformas. A solução que se revela constitucionalmente adequada é manter a norma do art. 19/MCI (responsabilização por conteúdo de terceiro sujeita, em regra, a ordem judicial específica), sem obrigação geral de vigilância, mas com exceções qualificadas em casos de ilícitos gravíssimos, omissão sistemática e obtenção de vantagem econômica direta por impulsionamento/patrocínio — seguidas de deveres proporcionais de diligência e transparência (SOUZA et al., 2025).
Validação da hipótese. A mudança de posição do STF em 26/06/2025 reforça a ideia de que a regra do art. 19 deve ser mantida, com exceções rigorosas e medidas proporcionais, reconhecendo que a proteção exclusivamente “via ordem judicial” é insuficiente para lidar com ilícitos que se espalham rapidamente (ódio, deepfakes, desinformação), mas rejeita a transformação das plataformas em censoras gerais (SOUZA et al., 2025).
Fundamentos dogmáticos firmados.
(i) Posição privilegiada: proíbe a censura prévia e aumenta o ônus da argumentação para restringir a expressão, inclusive nas decisões privadas de moderação — que devem seguir o devido processo (motivação, aviso, recurso) sob pena de ser restabelecida (RUZYK, 2021/2023).
As they observe the encroaching shadows of the monsters, the soft glow of their lights flickers, creating an atmosphere of anxiety and uncertainty.
(ii) Padrão/Exceções (MCI): artigo 19 como padrão; artigo 21 (nudidade/ato sexual privado) como takedown por notificação válida (identificação precisa/URL; legitimidade da vítima) (LIMA, 2023).
(iii) STJ Basilar (pré/pós-MCI): dano de usuário = risco não inerente, sem filtragem prévia, média diligência (logs/IP), culpa por omissão após ciência adequada (LIMA, 2015).
Conheça 5 Aplicativos Para Investir Que Vão Facilitar a Sua Vida
(iv) Proporcionalidade (excesso × déficit): cortes cirúrgicos (URL/ID/hash; desindexação/geobloqueio) e soluções graduais em caso de dúvida razoável, sobretudo no discurso político (RUZYK, 2023).
O texto deve ser reescrito sem perder o conteúdo original ou adicionar novas informações, mantendo o mesmo tom e estrutura, e respeitando todas as instruções de formatação. As citações devem permanecer intactas, e o resultado deve ter um toque humano e fluir naturalmente, sem parecer excessivamente polido.
Referências
____________________
ARTICLE 19. Brazil: Civil Rights Framework for the Internet. London: Article 19, 2012.
CARVALHO, Patrícia Heloisa de. O “Marco Civil da Internet”: uma análise sobre a constitucionalidade do artigo 19. Revista da Faculdade de Direito do Sul de Minas, Pouso Alegre, v. 33, n. 2, p. 228-244, jun./dez. 2017.
LEONARDI, Marcel. Responsabilidade civil dos provedores de serviços de internet. 2. ed. São Paulo: Revista dos Tribunais, 2014.
LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito da Universidade de São Paulo, v. 110, p. 155-176, jan./dez. 2015.
LIMA, Maria Cristina de Brito. Marco Civil da Internet: pornografia de vingança e remoção de seu conteúdo. ReJuB – Revista Justiça & Sociedade, Brasília, ed. esp. Direito Digital, p. 541-560, jul./dez. 2023.
ROOMMATES.COM. Fair Housing Council of San Fernando Valley v. Roommates.com, LLC, 521 F.3d 1157 (9th Cir. 2008). 2008.
RUZYK, Carlos Eduardo Pianovski. Desafios da liberdade de expressão nas redes sociais e a tese da posição preferencial. Revista IBERC, v. 6, n. 1, p. 1-20, jan./abr. 2023.
SALES, Luiz Eduardo Mendonça. Direito digital e redes sociais: a responsabilidade civil por danos e limites do Marco Civil da Internet. Revista Ibero-Americana de Humanidades, Ciências e Educação (REASE), São Paulo, v. 11, n. 4, abr. 2025. DOI: 10.51891/rease.v11i4.18978.
SANTOS, Humberto Cunha dos. A revisão do Código Civil e o novo contexto de responsabilidade civil das plataformas digitais: o avanço de reclamos do Direito Digital. Revista Eletrônica Direito & TI, Porto Alegre, v. 1, n. 19, maio/ago. 2024.
SOUZA, Alcian Pereira de; SIMAS, Danielle Costa de Souza; JUSTINIANO, Jeibson dos Santos; SOUZA JUNIOR, Albefredo Melo de. O fim da blindagem das big techs? A nova interpretação do art. 19 do Marco Civil da Internet pelo STF. Revista DCS, v. 22, n. 81, p. 1-19, 2025. DOI: 10.54899/dcs.v22i81.3067.
SUPREME COURT OF THE UNITED STATES. Gonzalez v. Google LLC, 21-1333, 18 maio 2023. Washington, D.C.: SCOTUS, 2023.
SUPREME COURT OF THE UNITED STATES. Twitter, Inc. v. Taamneh, 21-1496, 18 maio 2023. Washington, D.C.: SCOTUS, 2023.
UNIÃO EUROPEIA. Regulamento (UE) 2022/2065, de 19 de outubro de 2022 (Digital Services Act – DSA). Jornal Oficial da União Europeia, L 277, p. 1-102, 27 out. 2022.
Sobre o autor
____________________
Graduando em direito pela Universidade Presbiteriana Mackenzie. Atualmente desenvolve pesquisa em direito privado, especialmente no tema da Liberdade de Expressão. O referido artigo foi orientado pelo Professor Dr. Daniel Steinberg.



