Redação Rios
BRASIL – Câmara dos Deputados aprovou na noite de quarta-feira, 20/8, o projeto de lei chamado de “ECA Digital”, referência ao Estatuto da Criança e do Adolescente, como reação ao vídeo do influenciador Felca, que denunciou a adultização de menores e como algoritmo estimula a interação de pedófilos nas redes.
O texto prevê mecanismos para combater conteúdos de exploração sexual infantojuvenil em ambiente digital. E cria regulações para o uso de redes e jogos online para crianças e adolescentes. Uma autoridade autônoma do governo seria responsável pela aplicação da lei, criar novas regras e aplicar sanções.
Oposicionistas eram temerosos de que o Poder Executivo teria o poder de fazer esse controle, o que, para eles, implicaria em ataques à liberdade de expressão nas redes.
Leia também: Fametro promove feirões de empregos com 2 mil vagas em Manaus
Veja o que diz o projeto de lei do “ECA Digital”:
Principais diretrizes
O texto que veio do Senado diz que fornecedores de produtores ou serviços de tecnologia da informação de provável uso por crianças e adolescentes devem tomar medidas para conter o acesso e exposição de menores a exploração e abuso sexual, violência física, bullying virtual e assédio de crianças e adolescentes, promoção de jogos de azar e outros produtos para maiores de idade, publicidade predatória, entre outros.
Empresas devem tomar medidas razoáveis para evitar expor crianças a conteúdos pornográficos
Empresas do meio digital que fornecem produto ou serviço que pode ser usado por crianças devem “tomar medidas razoáveis desde a concepção e ao longo da operação de suas aplicações” para prevenir e mitigar riscos de acesso, recomendação ou facilitação de contato de crianças e adolescentes com conteúdos que envolvam exploração e abuso sexual, violência física, intimidação virtual, assédio, indução ao uso de drogas, automutilação ou suicídio, promoção e comercializçaão de jogos de azar, bets, bebidas alcoólicas, narcóticos e demais produtos restritos para menores de idade, conteúdo pornográfico e publicidade predatória.
Essas empresas ainda devem garantir que o design de seus produtos deve evitar o uso compulsivo de produtos ou serviços por menores. No caso de jogos online que possibilitem o uso de conversa por texto, áudio ou vídeo, crianças e adolescentes só poderão usar esses espaços de diálogo com pessoas da mesma faixa etária.
Plataformas devem criar mecanismos confiáveis de verificação da idade de seus usuários
O projeto de lei diz que empresas que produzirem conteúdo, produto ou serviço proibido para menores de 18 anos devem adotar medidas eficazes para impedir o acesso de crianças e adolescentes. É proibida autodeclaração do próprio usuário neste caso.
Além disso, as empresas terão de tomar medidas para fazer a verificação de idade de seus usuários e criar mecanismos para que os pais possam supervisionar o acesso de menores a apps e conteúdos. Pessoas com 16 anos ou menos só podem ter perfil em rede social se essa conta estiver vinculada à identificação de um de seus responsáveis legais.
Mecanismos de denúncia devem estar disponíveis, e empresas devem guardar informações
Empresas devem comunicar conteúdos de aparente exploração, abuso sexual, sequestro e aliciamento detectados em seus produtos ou serviços, direta ou indiretamente, às autoridades nacionais e internacionais competentes. Essas empresas também devem fazer relatórios sobre conteúdos de exploração a menores e reter informações, por seis meses, sobre esses tipos de conteúdo.
Plataformas, jogos ou serviços que tiverem mais de um milhão de usuários menores de idade também devem fazer relatórios semestrais explicando os canais disponíveis para denúncias e os processos de apuração, quantas denúncias receberam, medidas adotadas para identificar contas infantis em redes sociais e aprimoramentos para aferir consentimento dos pais.
Alguns conteúdos podem ser removidos imediatamente sem ordem judicial
Conteúdos que violem gravemente os direitos de crianças e adolescentes, como assédio, exploração sexual, incentivo à automutilação e drogas, devem ser removidos assim que a empresa for comunicada dessa publicação pela vítima, por seus representantes, pelo Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes, independentemente de ordem judicial.
Outro trecho do texto proíbe o uso abusivo de ferramentas de denúncia com o objetivo de coibir censura ou perseguição, podendo até esse usuário responder judicialmente se detectada infração penal. Esses dois trechos foram incluídos pelo relator para conquistar o apoio da oposição.
Autoridade nacional autônoma será responsável por fiscalizar cumprimento da lei
O texto estabelece que uma autoridade nacional autônoma é a responsável por garantir a vigência da lei. Ela seria responsável por fiscalizar o cumprimento, aplicar sanções e até criar novas regras.
Para conquistar o apoio da oposição, Alencar incluiu um trecho em que proíbe que regulamentação possa permitir em mecanismos de “vigilância massiva” e criar “práticas contra os direitos fundamentais à liberdade de expressão” e à privacidade e deu ênfase ao caráter autônomo dessa autoridade.
*Com informações Agência Estado












