As big techs no Brasil enfrentam um novo cenário de responsabilidade por conteúdos ilícitos ou criminosos publicados em suas plataformas. Uma decisão recente do Supremo Tribunal Federal (STF) alterou significativamente a interpretação do Artigo 19 do Marco Civil da Internet, que antes limitava a responsabilização das empresas. Agora, a regra é mais abrangente e impõe novas obrigações às plataformas.
O Que Mudou na Prática?
A principal mudança é que as big techs podem ser responsabilizadas civilmente por danos causados por conteúdos de terceiros, mesmo sem uma ordem judicial prévia, em casos específicos e graves. Anteriormente, a responsabilização só ocorria se a empresa descumprisse uma ordem judicial para remover o conteúdo.
Essa nova interpretação do STF considera o Artigo 19 parcialmente inconstitucional por ser omisso em proteger adequadamente direitos fundamentais e a própria democracia.
Quando a Notificação Direta à Plataforma é Suficiente?
Em situações de conteúdos considerados graves, a plataforma pode ser notificada diretamente (extrajudicialmente) e, se não agir com diligência para remover o material, poderá ser responsabilizada. Isso se aplica a:
- Atos antidemocráticos: Como tentativa de golpe de Estado ou abolição do Estado Democrático de Direito.
- Terrorismo: Conteúdos que incitam ou apoiam atos terroristas.
- Induzimento ao suicídio e automutilação: Disseminação de material que incentive essas práticas.
- Incitamento à discriminação: Incluindo racismo, homofobia, transfobia e xenofobia.
- Crimes contra a mulher: Conteúdos que propagam ódio ou violência contra a mulher.
- Pornografia infantil e sexualização de menores de idade: Conteúdos explícitos envolvendo crianças e adolescentes.
- Tráfico de pessoas: Material relacionado a essa prática criminosa.
Para crimes contra a honra (calúnia, difamação e injúria), a regra do Artigo 19 continua valendo em sua leitura original: a responsabilização da plataforma ainda depende de uma ordem judicial para remoção. No entanto, se um conteúdo já foi declarado ilegal pela Justiça e for replicado, as plataformas devem removê-lo mediante notificação judicial ou extrajudicial.
Novas Responsabilidades e Exceções
- Anúncios Pagos e Bots: As plataformas são diretamente responsáveis por anúncios e conteúdos impulsionados pagos, bem como por postagens promovidas por chatbots ou redes artificiais de distribuição que propaguem ilegalidades. A isenção de responsabilidade só ocorre se a plataforma agir com diligência e remover o conteúdo em tempo razoável.
- E-mail e Mensagens Privadas: Provedores de serviços de e-mail e de mensageria instantânea (como WhatsApp e Telegram) não respondem diretamente por conteúdos ilegais enviados em conversas privadas, mantendo-se o regime do Artigo 19. A inviolabilidade do sigilo das comunicações é preservada.
- Autorregulação e Transparência: As big techs deverão criar e publicar regras claras de autorregulação sobre como recebem e processam notificações extrajudiciais, além de apresentar relatórios anuais sobre o tema, aumentando a transparência.
- Representação Legal no Brasil: Para operar no país, todos os provedores de serviços digitais são agora obrigados a ter representação legal no Brasil.
Impactos e Próximos Passos
Essa decisão do STF é um marco regulatório no Brasil. Plataformas como Meta (Facebook, Instagram), Google, TikTok e X (antigo Twitter) precisarão rever e fortalecer seus mecanismos de moderação de conteúdo e processos de remoção, sendo mais proativas na identificação e eliminação de materiais ilícitos.
Ainda que a decisão do STF esteja em vigor, o debate sobre o equilíbrio entre a responsabilização das plataformas e a garantia da liberdade de expressão continua. A expectativa é que o Congresso Nacional também se debruce sobre o tema, buscando criar uma legislação mais completa e efetiva para a regulação das plataformas digitais.