Redes Sociais já respondem por conteúdo ilegal

O simples aviso, feito por pessoa lesada ou autoridades, já impõe obrigação legal às plataformas
A responsabilidade direta é das plataformas. Foto: Fábio Rodrigues Pozzebom/Agência Br.

Por 8 votos a 3, o Supremo Tribunal Federal concluiu na última quinta-feira, 26/06, um julgamento que altera significativamente o cenário digital das redes sociais no Brasil.

A Corte estabeleceu que as plataformas de redes sociais devem ser responsabilizadas civilmente por conteúdos ilegais publicados por seus usuários, mesmo sem ordem judicial prévia, em determinados casos.

A decisão atinge diretamente o entendimento do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), considerado parcialmente inconstitucional. O novo entendimento exige que as big techs tomem atitudes imediatas diante de conteúdos que afrontem os direitos fundamentais e a ordem democrática.

Marco Civil é parcialmente revisto

Desde sua sanção em 2014, o Marco Civil da Internet funcionava como uma espécie de escudo legal para os provedores de aplicação — como Facebook, Google, Instagram e outras plataformas. Segundo o texto original, as empresas só seriam responsabilizadas caso descumprissem ordem judicial específica para a remoção de determinado conteúdo ilícito.

Com o novo entendimento do STF, segundo a Agência Brasil, esse dispositivo deixa de proteger publicações que violem direitos fundamentais, ao passo que, na ausência de uma legislação atualizada, a responsabilização civil passa a ocorrer via notificação extrajudicial para tipos de publicações claramente criminosas.

Responsabilidade direta das plataformas

O STF estabeleceu que, enquanto não houver nova legislação aprovada pelo Congresso, os provedores de redes sociais deverão retirar do ar conteúdos ilícitos assim que forem notificados, sem a necessidade de decisão judicial. Isso significa que o simples aviso, feito por pessoa lesada ou autoridades, já impõe obrigação legal às plataformas.

Essa responsabilização abrange especialmente crimes de ódio, incitação à violência, ameaças à democracia e publicações de teor gravemente ofensivo.

A Corte avaliou que o modelo anterior criava uma morosidade incompatível com a dinâmica e o impacto das redes sociais na sociedade contemporânea.

Conteúdos que devem ser removidos

Com a nova orientação jurídica, os provedores passam a ter o dever de agir prontamente diante de publicações que envolvam:

  • Atos antidemocráticos
  • Terrorismo e incitação ao terror
  • Indução ao suicídio e automutilação
  • Discriminação racial, religiosa e por identidade de gênero
  • Violência contra a mulher, misoginia e discursos de ódio
  • Pornografia infantil
  • Tráfico de seres humanos

O não cumprimento dessa diretriz poderá gerar indenizações e sanções civis, fortalecendo o dever de cuidado e monitoramento das empresas sobre o conteúdo divulgado em suas plataformas.

Liberdade de expressão em debate

O voto vencido do ministro Nunes Marques se destacou por defender a manutenção do modelo atual, onde a responsabilização só se dá após decisão judicial. Para ele, qualquer alteração nesse formato colocaria em risco uma cláusula pétrea da Constituição: a liberdade de expressão.

“Essa liberdade é um alicerce para o desenvolvimento humano e social. O pluralismo de ideias deve ser garantido como motor do progresso e da democracia”, argumentou o magistrado, criticando o que chamou de risco de censura prévia.

Voto divergente e argumentos

Outros dois ministros — André Mendonça e Edson Fachin — também votaram pela validade plena do Artigo 19, mantendo a blindagem jurídica das plataformas contra sanções sem ordem judicial.

Por outro lado, ministros como Cármen Lúcia, Gilmar Mendes e Alexandre de Moraes afirmaram que a realidade digital mudou drasticamente desde 2014. As plataformas não apenas disseminam, mas amplificam conteúdos por meio de algoritmos opacos, exercendo papel central na formação da opinião pública.

“Hoje, as plataformas não são meras intermediárias. Elas comercializam a informação, moldam o discurso público e, por isso, devem responder como agentes ativos”, disse Moraes.

O julgamento teve origem em dois recursos envolvendo diretamente as gigantes tecnológicas:

  • Caso Facebook: O recurso discutia a condenação da empresa por não remover um perfil falso que causou danos morais a um usuário. A plataforma alegava não ter obrigação sem ordem judicial — tese rejeitada pelo STF.
  • Caso Google: A ação questionava se uma empresa que hospeda sites na internet poderia ser obrigada a remover conteúdos ofensivos sem intervenção judicial. O recurso também foi negado, consolidando a nova diretriz.

A relatoria desses casos coube aos ministros Dias Toffoli e Luiz Fux, que defenderam a viabilidade de notificações extrajudiciais como instrumento legítimo para combater abusos e proteger os direitos fundamentais.

Com essa reinterpretação do Marco Civil, o Brasil se alinha a outras democracias que buscam regulamentar o poder das big techs. O julgamento também pressiona o Congresso Nacional a formular uma nova lei que trate especificamente da responsabilidade digital, sem deixar brechas interpretativas.

Leia mais:

MPF cobra desaterramento da Lagoa da Pampulha em BH

Mantenha-se atualizado com as notícias mais importantes

Ao pressionar o botão Inscrever-se, você confirma que leu e concorda com nossos Termos de Uso e as nossas Políticas de Privacidade
Share this