
O Discord, popular plataforma de comunicação por voz e texto, anunciou a implementação de novas regras voltadas para a segurança de seus usuários adolescentes. A iniciativa visa criar um ambiente mais seguro para jovens, respondendo a um debate crescente em diversos países sobre a proteção de menores em redes sociais.
Conselho de Adolescentes para opinar sobre a plataforma
Como parte das novas medidas, o Discord informou que criará o Conselho de Adolescentes. Este órgão será composto por 10 a 12 jovens, que terão a responsabilidade de opinar e sugerir ações futuras para a empresa, garantindo que as decisões da plataforma considerem a perspectiva dos próprios adolescentes.
Medidas de segurança em outras plataformas
O Discord se junta a outras grandes plataformas digitais que têm reforçado suas políticas de segurança para crianças e adolescentes. No final de janeiro, o YouTube anunciou o uso de inteligência artificial para identificar usuários menores de idade em países como Brasil e Austrália, medida já em vigor em algumas nações europeias. O Roblox, popular jogo online, também implementou novos instrumentos de segurança em janeiro, exigindo comprovação de idade para o uso do chat, o que gerou protestos de jovens na plataforma.
Cenário global e regulamentação
As mudanças ocorrem em um contexto global de intensas discussões sobre a segurança de crianças e adolescentes em ambientes digitais. Em dezembro, a Austrália proibiu o uso de redes sociais por menores de 16 anos, e a Nova Zelândia estuda medidas semelhantes. Outros países europeus, como França, Dinamarca, Noruega e Espanha, já implementaram diversas restrições para essa faixa etária.
No Brasil, não há previsão de proibição do uso de redes sociais para menores. Contudo, o Estatuto Digital da Criança e do Adolescente (ECA Digital) estabelece que tanto lojas de aplicativos quanto as próprias plataformas têm responsabilidade pela segurança dos menores de idade.
Com informações da Agência Brasil





