Meta anuncia novas restrições para adolescentes no Instagram e IA para aumentar segurança
A Meta vai limitar o conteúdo acessível a usuários com menos de 18 anos no Instagram, adotando filtros semelhantes à classificação PG-13 do cinema norte-americano. A medida, que se estende às ferramentas de inteligência artificial da empresa, visa proteger adolescentes de materiais considerados impróprios e responde a críticas e processos judiciais sobre a segurança das plataformas.
Conteúdo restrito para menores de 18 anos
O novo sistema da Meta vai restringir publicações que contenham linguagem forte, referências a drogas, acrobacias perigosas e outros temas maduros. As contas de adolescentes passarão automaticamente para configurações desse tipo, que os pais poderão ajustar para incluir controles de tempo e de conteúdo. Além disso, adolescentes estarão impedidos de interagir com contas que compartilhem material inadequado para a idade. A empresa informou ainda que usará tecnologia de previsão para identificar a idade, mesmo diante de autodeclarações incorretas.
Impacto no mercado e contexto regulatório
A iniciativa ocorre em meio a um aumento da pressão regulatória e críticas direcionadas à Meta e outras gigantes da mídia social, como TikTok e YouTube, que enfrentam ações judiciais relacionadas ao impacto das redes sobre crianças. No campo da inteligência artificial, reguladores americanos intensificam a fiscalização sobre bots, principalmente no que diz respeito à interação com menores. Essas medidas podem influenciar a percepção dos investidores sobre os riscos regulatórios que as empresas de tecnologia enfrentam, repercutindo potencialmente em seus valores de mercado e estratégias futuras.
Perspectivas futuras
Com o lançamento inicial previsto para os EUA, Reino Unido, Austrália e Canadá, a Meta projeta concluir a implementação das novas configurações ainda neste ano, incluindo proteções adicionais para usuários adolescentes no Facebook. Essas mudanças indicam um movimento da companhia em reforçar a segurança e a responsabilidade social, buscando mitigar riscos legais e preservar sua imagem perante investidores e o público. A eficácia das medidas, contudo, dependerá da adoção dos filtros e do aprimoramento contínuo das tecnologias para detectar e limitar o acesso ao conteúdo inadequado.



