“A ausência de controles mais rigorosos pode expor crianças e adolescentes a conteúdos inadequados, como pornografia, violência explícita e apologia ao suicídio”, diz advogado
Mariana Machado estagiária
Na última terça-feira (07), o CEO da Meta (dona do Facebook e do Instagram), Mark Zuckerberg, anunciou mudanças na política de verificação de fatos realizada por empresas terceirizadas. Segundo ele, os conteúdos de “menor gravidade” não serão mais verificados, com o objetivo de reduzir os casos de publicações e perfis removidos pelo sistema, a fim de promover uma maior liberdade de expressão.
Com isso, a equipe de “confiança, segurança e moderação de conteúdo” da Meta irá focar exclusivamente em publicações de alta gravidade, sendo elas violações legais como terrorismo, exploração sexual infantil, drogas, fraudes e golpes. Nos casos considerados de menor gravidade, caberá aos usuários utilizarem o recurso “notas da comunidade” para adicionar informações que alertem a plataforma sobre uma possível impropriedade de conteúdo.
O advogado Douglas Marques Barbosa, da Lima Vasconcellos Advogados, explicou ao Diário como essas mudanças podem representar o aumento de crimes cometidos em redes sociais, e irá afetar diretamente crianças e adolescentes.
Diário de Petrópolis: O que essas mudanças da Meta podem representar, em questão de crimes, que serão cometidos nas redes sociais? Como a lei aborda isso?
Douglas Marques Barbosa: As mudanças na Meta, especialmente em relação à redução de controles sobre conteúdo sensível ou criminoso, podem ampliar a ocorrência de crimes como discurso de ódio, tráfico de drogas, exploração sexual e cyberbullying. A legislação brasileira já prevê medidas para responsabilizar os autores desses crimes e as plataformas que os permitirem. A Lei 12.965/2014 (Marco Civil da Internet), por exemplo, exige que plataformas mantenham registros e forneçam dados à Justiça quando solicitados. Além disso, a Lei Geral de Proteção de Dados (LGPD - Lei 13.709/2018) impõe responsabilidade às plataformas por negligência na proteção de usuários.
Entretanto, há lacunas na fiscalização, e as redes podem argumentar falta de controle sobre o comportamento dos usuários. O Ministério Público e a Polícia Federal têm atuado em parceria com plataformas para mitigar crimes online, mas mudanças na postura da Meta podem enfraquecer essas ações.
DP: Como isso pode afetar as crianças e adolescentes que usam redes sociais, uma vez que não haverá checagem de conteúdo sensível, ou até mesmo criminoso?
DMB: A ausência de controles mais rigorosos pode expor crianças e adolescentes a conteúdos inadequados, como pornografia, violência explícita e apologia ao suicídio. Isso viola diretamente o Estatuto da Criança e do Adolescente (ECA - Lei 8.069/1990), que prevê proteção integral e prioridade absoluta para crianças e adolescentes.
Plataformas que não adotarem medidas para proteger menores podem ser consideradas corresponsáveis por danos psicológicos ou físicos. A lei também permite que pais e responsáveis movam ações judiciais contra empresas que descumpram essas obrigações. A exposição contínua a conteúdos prejudiciais pode acarretar aumento de problemas como ansiedade, depressão e transtornos comportamentais entre jovens.
DP: Plataformas como o Discord têm verificação de conteúdo fraca, e já foram reportados casos de suicídio e estupro. Com essa mudança na Meta, casos assim poderiam acontecer no Instagram e Facebook?
DMB: Sim, a redução na verificação de conteúdo na Meta pode abrir caminho para que ocorrências graves, como as reportadas no Discord, também aconteçam no Instagram e no Facebook. A ausência de moderação adequada facilita a formação de redes criminosas que promovem exploração sexual, tráfico de pessoas, incitação ao suicídio e violência.
A legislação brasileira permite responsabilizar as plataformas por negligência, conforme o Marco Civil da Internet, que exige uma resposta célere às ordens judiciais e medidas preventivas para impedir a propagação de conteúdos ilegais. No entanto, a implementação dessas regras depende de denúncias efetivas e fiscalização robusta.
DP: Como a lei brasileira está se movimentando para que essas mudanças não sejam aplicáveis no país?
DMB: O Brasil tem intensificado as discussões sobre a regulamentação das plataformas digitais. Recentemente, o PL das Fake News (PL 2.630/2020) trouxe propostas para obrigar redes sociais a atuarem ativamente no combate à desinformação e a conteúdos nocivos, com penalidades para descumprimento. Embora o projeto ainda esteja em tramitação, ele reflete um movimento legislativo que busca proteger os usuários, especialmente os mais vulneráveis.
Além disso, órgãos como o Ministério da Justiça e a Agência Nacional de Proteção de Dados (ANPD) estão atentos às mudanças implementadas por plataformas estrangeiras. A Constituição Federal (Art. 227) reforça o dever de proteção integral às crianças, o que pode ser usado para proibir ou limitar mudanças que representem risco aos menores.
Por fim, decisões recentes do Supremo Tribunal Federal (STF) indicam que empresas tecnológicas não estão imunes às leis brasileiras, sendo obrigadas a adaptar suas políticas ao contexto nacional. Caso a Meta insista em adotar mudanças que enfraqueçam a segurança dos usuários, a Justiça pode impor restrições, multas ou até mesmo suspender o funcionamento de suas plataformas no país.
O que diz o Presidente sobre o assunto
O presidente Lula convocou, nesta quinta-feira (09) uma reunião para tratar sobre as mudanças anunciadas pela Meta, e criticou a falta de fiscalização nas redes sociais. “Eu acho que é extremamente grave as pessoas quererem que a comunicação digital não tenha a mesma responsabilidade do cara que comete um crime na imprensa escrita”, disse Lula.
Veja também: