O Discord, popular plataforma de comunicação por voz e texto, anunciou a implementação de novas regras voltadas para a segurança de seus usuários adolescentes. A iniciativa visa criar um ambiente mais seguro para jovens, respondendo a um debate crescente em diversos países sobre a proteção de menores em redes sociais.
Como parte das novas medidas, o Discord informou que criará o Conselho de Adolescentes. Este órgão será composto por 10 a 12 jovens, que terão a responsabilidade de opinar e sugerir ações futuras para a empresa, garantindo que as decisões da plataforma considerem a perspectiva dos próprios adolescentes.
O Discord se junta a outras grandes plataformas digitais que têm reforçado suas políticas de segurança para crianças e adolescentes. No final de janeiro, o YouTube anunciou o uso de inteligência artificial para identificar usuários menores de idade em países como Brasil e Austrália, medida já em vigor em algumas nações europeias. O Roblox, popular jogo online, também implementou novos instrumentos de segurança em janeiro, exigindo comprovação de idade para o uso do chat, o que gerou protestos de jovens na plataforma.
As mudanças ocorrem em um contexto global de intensas discussões sobre a segurança de crianças e adolescentes em ambientes digitais. Em dezembro, a Austrália proibiu o uso de redes sociais por menores de 16 anos, e a Nova Zelândia estuda medidas semelhantes. Outros países europeus, como França, Dinamarca, Noruega e Espanha, já implementaram diversas restrições para essa faixa etária.
No Brasil, não há previsão de proibição do uso de redes sociais para menores. Contudo, o Estatuto Digital da Criança e do Adolescente (ECA Digital) estabelece que tanto lojas de aplicativos quanto as próprias plataformas têm responsabilidade pela segurança dos menores de idade.
Com informações da Agência Brasil
Aproveite para compartilhar clicando no botão acima!
Visite nosso site e veja todos os outros artigos disponíveis!