Após o voto do ministro Flávio Dino, na manhã desta quarta-feira (11/6), o Supremo Tribunal Federal (STF) retomou nesta tarde o julgamento que discute a responsabilidade das plataformas digitais por conteúdos ilegais publicados por usuários. O placar está 4 x 1 para que seja derrubada a exigência de decisão judicial para remover postagens ilegais, apesar da diversidade de opiniões e teses dos magistrados.
Às 14h48, as discussões prosseguiram com o voto do ministro Cristiano Zanin (foto em destaque). “Vejo uma proteção deficiente a ensejar a inconstitucionalidade do artigo 19 do Marco Civil da Internet. Não está em discussão aqui a liberdade de expressão. A liberdade de expressão encontra limites, inclusive, no texto da Constituição”, afirmou.
O caso foi paralisado em dezembro do ano passado, quando o ministro André Mendonça pediu vista dos autos. Mendonça retomou o julgamento em 4 de junho. Ele deu o único voto totalmente divergente até o momento, que é pela manutenção completa do artigo 19 do Marco Civil da Internet, que prevê a necessidade de decisão da Justiça para remoção de conteúdo, além de responsabilizar o autor do post, não as redes em si.
Acompanhe aqui:
Nesta quarta-feira (11/6), o ministro Flávio Dino proferiu seu voto. Para o ministro, a responsabilidade civil das plataformas deve ser alterada. Para ele, “o provedor de aplicações de internet poderá ser responsabilizado civilmente nos termos do artigo 21 do Marco Civil da Internet”. Isso significa que a responsabilização deve ocorrer pelos danos decorrentes de conteúdos gerados por terceiros.
Dino pondera que o previsto no artigo 19, que tem a constitucionalidade discutida na Corte, aplica-se exclusivamente a alegações de ofensas e crimes contra a honra.
Assim, propõe que sejam considerados “atos dos próprios provedores de aplicação de internet, podendo haver responsabilidade civil, independentemente de prévia notificação judicial ou extrajudicial” nos casos de:
- postagens de perfis com anonimização do usuário, vedada pelo art. 5°, IV, da Constituição Federal, que gere obstáculos à responsabilização, incluindo perfis falsos e chatbots (robôs); e
- ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares.
Diz ainda que os provedores podem ser responsabilizados civilmente pelos conteúdos criados por terceiros nos seguintes casos:
- crimes contra crianças e adolescentes;
- crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação;
- crime de terrorismo;
- fazer apologia ou instigar violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito devidamente tipificados em lei.
Resultado
Diante da diversidade de opiniões e teses, o ministro Luís Roberto Barroso, presidente do STF, adiantou, nesta manhã, que ainda é preciso ponderar e organizar a questão.
“Estou tabulando todos os votos, e acho que vamos conseguir um consenso sobreposto. A minha ideia de condução de julgamento é colher o voto dos ministros (Cristiano) Zanin, (Edson) Fachin e, talvez, se o ministro Gilmar (Mendes) adiantasse o voto… Mas não vamos chegar à proclamação de resultado, em nenhuma hipótese. Primeiro, que a ministra Cármen (Lúcia) não está aqui esta semana e me comprometi de aguardá-la; ministro Kassio (Nunes Marques) pediu um tempo de reflexão. De modo que vou colher tantos votos quantos queiram se manifestar, vamos tabular e tentar ver os pontos de divergência e convergência”, detalhou Barroso no plenário do STF.
A análise gira em torno da constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que empresas como Google, Meta e X só podem ser responsabilizadas judicialmente se não cumprirem ordem expressa para retirar conteúdos considerados ilícitos.
O que prevê o artigo 19:
- limitação da responsabilidade dos provedores de aplicações de internet por conteúdo de terceiros;
- ordem judicial para remoção do conteúdo, com especificação do que deve ser removido.
- aplicação desta regra depende de legislação específica.
Votos
Até agora, com o voto de Dino, cinco ministros votaram. Os relatores, Dias Toffoli e Luiz Fux, defendem uma interpretação mais rígida, permitindo que as plataformas sejam punidas diretamente em casos graves, como discursos de ódio, racismo ou ameaças à democracia.
O presidente do STF, Luís Roberto Barroso, propôs uma solução intermediária, mantendo a exigência de ordem judicial para casos envolvendo honra e reputação, mas admitindo responsabilização direta para crimes como pornografia infantil, terrorismo e incitação à violência.
Ao apresentar seu voto na última semana, André Mendonça criticou o que chamou de “ativismo judicial” e afirmou que mudanças nesse tipo de legislação devem partir do Congresso Nacional.
“Não se trata de fazer da opinião pública um critério de julgamento. O que se busca apontar, apenas, são os efeitos deletérios que decorrem da adoção de uma postura ativista, a qual, no presente caso, culmina por agudizar ainda mais o problema que se pretende combater”, declarou.
A retomada do julgamento reacende o debate sobre a regulação das redes sociais no Brasil, especialmente diante da ausência de uma legislação específica para o ambiente digital.
Autorregulação regulada
Durante a leitura do voto, que durou dois dias, Mendonça defendeu a autorregulação regulada. Ela impõe às big techs a necessidade de aumentar mecanismos que auxiliem o controle em relação a publicações potencialmente ilegais, sem atribuir responsabilidade direta às plataformas pelo conteúdo gerado por seus usuários.
Mendonça considerou constitucional o artigo 19 do Marco Civil da Internet. A proposta defende que as próprias plataformas adotem mecanismos internos de moderação — a chamada autorregulação —, mas sob supervisão do Estado, que teria um papel fiscalizador para garantir o cumprimento de diretrizes legais.
Empresas de tecnologia contra o marco
O julgamento no STF ocorre em meio à pressão de grandes empresas de tecnologia, como Google, Meta e TikTok, que têm se manifestado publicamente contra mudanças no atual modelo do Marco Civil da Internet.
As chamadas big techs alegam que eventuais alterações podem comprometer a liberdade de expressão e abrir brechas para censura prévia. Para elas, responsabilizar as plataformas antes de uma ordem judicial representaria risco à segurança jurídica e à dinâmica do ambiente digital.