Meta libera controle parental para bate-papos com IA e reforça segurança para adolescentes
A Meta anunciou nesta sexta-feira que permitirá aos pais desabilitar os bate-papos privados de seus filhos adolescentes com personagens de inteligência artificial (IA), em uma iniciativa para reforçar a segurança nas suas plataformas de mídias sociais. A medida atende a críticas crescentes sobre os riscos dos chatbots para menores.
Nova política de segurança para IA em redes sociais
A empresa implementará um sistema de classificação etária para suas experiências de IA voltadas a adolescentes, baseado no padrão americano PG-13, que restringe conteúdos inadequados para menores de 13 anos. A novidade será lançada no Instagram no início de 2024, contemplando inicialmente os Estados Unidos, Reino Unido, Canadá e Austrália.
Além de permitir a desativação completa dos bate-papos privados com personagens de IA, os pais poderão bloquear interações com bots específicos e monitorar os tópicos gerais discutidos pelos filhos com assistentes virtuais da Meta. Mesmo com essas restrições, o assistente de IA da empresa permanecerá acessível, com filtros próprios para adequação etária.
Impactos para o mercado e regulação da IA
O anúncio ocorre em meio a um aumento do escrutínio regulatório nos EUA sobre os potenciais impactos negativos da inteligência artificial para menores, especialmente após revelações sobre falhas nas regras internas da Meta que permitiam conversas inadequadas com adolescentes. Isso reflete uma crescente preocupação dos investidores e reguladores quanto à segurança e à ética no uso de IA em plataformas digitais.
A iniciativa da Meta visa minimizar riscos reputacionais e legais, ao mesmo tempo que procura preservar a presença da empresa no segmento de IA, um dos mais promissores e competitivos do mercado tecnológico. A implementação de controles parentais mais rigorosos pode influenciar a adoção de regulamentações semelhantes por outras gigantes de tecnologia.
Desafios e perspectivas futuras
Apesar das medidas anunciadas, relatórios recentes apontam que muitos recursos de segurança implantados pela Meta no Instagram carecem de eficácia ou inexistem, evidenciando um desafio contínuo para garantir ambientes digitais seguros para menores. A Meta afirmou que seus personagens de IA são programados para evitar discussões sensíveis, como automutilação, suicídio e transtornos alimentares.
O movimento da Meta segue tendências do mercado, exemplificado pelo lançamento recente de controles parentais da OpenAI para o ChatGPT, em resposta a processos judiciais envolvendo riscos à saúde mental de adolescentes.
Com a evolução do uso da IA em redes sociais, a pressão por mecanismos de proteção robustos deve aumentar, influenciando decisões de investimento e a formulação de políticas públicas para o setor.



