Supremo Tribunal Federal (STF) retoma o julgamento sobre a responsabilidade das big techs por conteúdos irregulares e criminosos; entenda os impactos
Redação Publicado em 28/11/2024, às 20h00
O Supremo Tribunal Federal (STF) voltou a discutir, nesta quinta-feira (28), um tema que está gerando bastante polêmica: a responsabilidade das grandes plataformas digitais, as big techs, como Facebook e Google, por conteúdos de usuários que podem causar danos.
Essa discussão começou na quarta-feira (27), quando os ministros do STF ouviram os argumentos de advogados das empresas, especialistas e outros participantes do processo. Em questão está a possibilidade de responsabilizar essas plataformas, mesmo sem uma ordem judicial para a retirada de conteúdos prejudiciais, como fake news ou discursos de ódio.
A polêmica envolvendo big techs e STF se aprofundou ao longo da semana, com especialistas questionando qual deve ser o papel dessas empresas na moderação de conteúdo.
Enquanto os advogados de redes sociais defendem a constitucionalidade do artigo 19 do Marco Civil da Internet, que limita a responsabilidade das plataformas a casos em que há descumprimento de uma ordem judicial, outros apontam a necessidade de mudanças na lei para garantir mais proteção contra conteúdos prejudiciais.
O debate vai além da simples remoção de postagens, pois envolve o quanto essas empresas devem ser responsabilizadas por danos causados por publicações feitas por terceiros. Por exemplo, se uma plataforma deve ser condenada a pagar indenizações por não ter retirado do ar postagens ofensivas, mesmo sem uma ordem prévia da Justiça.
O Marco Civil da Internet, que entrou em vigor em 2014 e é considerado uma espécie de "Constituição" da internet no Brasil, já estabelece que as plataformas só podem ser responsabilizadas se, após uma ordem judicial, não removerem conteúdos prejudiciais.
A polêmica é saber até que ponto as big techs devem atuar sem uma ordem judicial para proteger a sociedade contra desinformação, discurso de ódio e outros conteúdos nocivos.
Durante o julgamento, o ministro Alexandre de Moraes destacou a dificuldade de se remover perfis falsos, citando que ele próprio enfrentou problemas para apagar contas que usavam seu nome indevidamente.
Representantes de empresas como Facebook e Google afirmaram que, embora o sistema atual permita aperfeiçoamentos, a retirada de conteúdos deve ser feita de forma equilibrada e com base em critérios claros, para evitar que o sistema se torne uma “censura massiva”, como sugeriu o advogado do Facebook.
Os advogados das plataformas também destacaram que, em muitos casos, as empresas já têm políticas para retirar conteúdos problemáticos, como pornografia infantil ou discursos de ódio. Por exemplo, o Facebook afirmou que, no ano passado, removeu mais de 208 milhões de postagens em todo o mundo relacionadas a esses tipos de conteúdo.
No entanto, críticos argumentam que a questão precisa ser revista, especialmente para proteger as crianças e adolescentes na internet e garantir que as redes sociais atuem de forma mais eficaz contra os danos causados por postagens prejudiciais, mesmo antes de uma intervenção judicial.
Com essa decisão ainda em andamento, o STF deve estabelecer uma tese que guiará decisões futuras sobre a responsabilidade das plataformas digitais, especialmente as big techs. Esse julgamento pode afetar, por exemplo, a maneira como as plataformas lidam com conteúdos polêmicos, como fake news ou críticas que podem ser consideradas ofensivas.
Além dos casos em julgamento, o Supremo também irá discutir se decisões judiciais podem bloquear aplicativos inteiros, o que envolve um delicado equilíbrio entre a liberdade de expressão e a necessidade de garantir a segurança e a integridade das informações circulando online.
O julgamento do STF promete trazer desdobramentos importantes para a maneira como usamos as redes sociais e a internet no Brasil. A dúvida central continua sendo: onde fica o limite entre garantir a liberdade de expressão e proteger a sociedade de conteúdos nocivos?
Leia também:
Ataques de ódio nas redes sociais — o que fazer?
Liberdade de expressão na internet tem limite? Saiba até onde podemos ir
Ataques de ódio nas redes sociais — o que fazer?
TikTok banido: Canadá manda fechar escritório da rede social no país. Afinal, TikTok é seguro?
Depois da babá eletrônica, air fryer pode ser o novo canal para roubo de dados pessoais
Meta IA pode acessar conversas no WhatsApp? Veja como a IA usa seus dados
Detector de mentiras funciona mesmo? Letícia Spiller é pega mentindo ao falar de traição!
Você usa o Gmail? Veja o alerta do FBI sobre nova ameaça de segurança