PUBLICIDADE

PUBLICIDADE

Entenda as Mudanças na Responsabilização das Big Techs no Brasil

As big techs no Brasil enfrentam um novo cenário de responsabilidade por conteúdos ilícitos ou criminosos publicados em suas plataformas. Uma decisão recente do Supremo Tribunal Federal (STF) alterou significativamente a interpretação do Artigo 19 do Marco Civil da Internet, que antes limitava a responsabilização das empresas. Agora, a regra é mais abrangente e impõe novas obrigações às plataformas.


O Que Mudou na Prática?

A principal mudança é que as big techs podem ser responsabilizadas civilmente por danos causados por conteúdos de terceiros, mesmo sem uma ordem judicial prévia, em casos específicos e graves. Anteriormente, a responsabilização só ocorria se a empresa descumprisse uma ordem judicial para remover o conteúdo.

Essa nova interpretação do STF considera o Artigo 19 parcialmente inconstitucional por ser omisso em proteger adequadamente direitos fundamentais e a própria democracia.


Quando a Notificação Direta à Plataforma é Suficiente?

Em situações de conteúdos considerados graves, a plataforma pode ser notificada diretamente (extrajudicialmente) e, se não agir com diligência para remover o material, poderá ser responsabilizada. Isso se aplica a:

  • Atos antidemocráticos: Como tentativa de golpe de Estado ou abolição do Estado Democrático de Direito.
  • Terrorismo: Conteúdos que incitam ou apoiam atos terroristas.
  • Induzimento ao suicídio e automutilação: Disseminação de material que incentive essas práticas.
  • Incitamento à discriminação: Incluindo racismo, homofobia, transfobia e xenofobia.
  • Crimes contra a mulher: Conteúdos que propagam ódio ou violência contra a mulher.
  • Pornografia infantil e sexualização de menores de idade: Conteúdos explícitos envolvendo crianças e adolescentes.
  • Tráfico de pessoas: Material relacionado a essa prática criminosa.

Para crimes contra a honra (calúnia, difamação e injúria), a regra do Artigo 19 continua valendo em sua leitura original: a responsabilização da plataforma ainda depende de uma ordem judicial para remoção. No entanto, se um conteúdo já foi declarado ilegal pela Justiça e for replicado, as plataformas devem removê-lo mediante notificação judicial ou extrajudicial.


Novas Responsabilidades e Exceções

  • Anúncios Pagos e Bots: As plataformas são diretamente responsáveis por anúncios e conteúdos impulsionados pagos, bem como por postagens promovidas por chatbots ou redes artificiais de distribuição que propaguem ilegalidades. A isenção de responsabilidade só ocorre se a plataforma agir com diligência e remover o conteúdo em tempo razoável.
  • E-mail e Mensagens Privadas: Provedores de serviços de e-mail e de mensageria instantânea (como WhatsApp e Telegram) não respondem diretamente por conteúdos ilegais enviados em conversas privadas, mantendo-se o regime do Artigo 19. A inviolabilidade do sigilo das comunicações é preservada.
  • Autorregulação e Transparência: As big techs deverão criar e publicar regras claras de autorregulação sobre como recebem e processam notificações extrajudiciais, além de apresentar relatórios anuais sobre o tema, aumentando a transparência.
  • Representação Legal no Brasil: Para operar no país, todos os provedores de serviços digitais são agora obrigados a ter representação legal no Brasil.

Impactos e Próximos Passos

Essa decisão do STF é um marco regulatório no Brasil. Plataformas como Meta (Facebook, Instagram), Google, TikTok e X (antigo Twitter) precisarão rever e fortalecer seus mecanismos de moderação de conteúdo e processos de remoção, sendo mais proativas na identificação e eliminação de materiais ilícitos.

Ainda que a decisão do STF esteja em vigor, o debate sobre o equilíbrio entre a responsabilização das plataformas e a garantia da liberdade de expressão continua. A expectativa é que o Congresso Nacional também se debruce sobre o tema, buscando criar uma legislação mais completa e efetiva para a regulação das plataformas digitais.

Leia mais

PUBLICIDADE