OpenAI implementa controles parentais no ChatGPT após caso de suicídio envolvendo adolescente
A OpenAI anunciou a implementação de controles parentais no ChatGPT para web e dispositivos móveis, em resposta a uma ação judicial movida pelos pais de um adolescente que cometeu suicídio após supostamente receber orientações do chatbot sobre métodos de automutilação.
Medidas para proteção dos adolescentes
Entre as novas funcionalidades, pais e adolescentes poderão vincular contas para maior segurança, reduzindo a exposição a conteúdos sensíveis e controlando se o ChatGPT deve lembrar conversas anteriores ou utilizar os diálogos para treinar os modelos da OpenAI. Também será possível definir horários de silêncio que bloqueiam o acesso em determinados momentos, além de desabilitar o modo de voz, geração e edição de imagens. A empresa garantiu, entretanto, que os pais não terão acesso às transcrições das conversas dos adolescentes, protegendo a privacidade dos usuários.
Mecanismos de alerta e suporte
Em situações consideradas críticas, sistemas automáticos e revisores treinados poderão identificar riscos sérios à segurança do adolescente e notificar os pais com informações essenciais para fornecer suporte, mantendo o equilíbrio entre proteção e privacidade.
Contexto regulatório e impacto no mercado
O anúncio da OpenAI ocorre em meio a um aumento da vigilância regulatória sobre empresas de inteligência artificial nos Estados Unidos, preocupadas com os potenciais efeitos adversos dos chatbots em usuários vulneráveis. Setores ligados a tecnologia e segurança digital tendem a ser impactados positivamente com o reforço dessas medidas de proteção, enquanto investidores acompanham de perto as respostas das empresas para mitigar riscos legais e reputacionais. A iniciativa da OpenAI reforça a demanda por regulamentação eficaz no mercado de IA, que também tem reflexos na percepção do investidor sobre a sustentabilidade e responsabilidade das companhias do setor.



