Elon Musk ajusta chatbot Grok para respostas mais conservadoras, revela análise
O chatbot Grok, desenvolvido pela empresa de inteligência artificial xAI, de Elon Musk, passou por ajustes que tornaram suas respostas mais alinhadas ao espectro conservador em diversos temas, contrariando a promessa inicial de neutralidade política. A análise, baseada em milhares de interações, aponta que essas alterações refletem, em parte, as preferências políticas do empresário.
Lançado com o objetivo de ser uma ferramenta “politicamente neutra” e focada na busca pela verdade, o Grok funciona de forma integrada à plataforma X, onde usuários podem interagir diretamente com o chatbot. Entretanto, episódios recentes evidenciam a intervenção de Musk para direcionar respostas, como a mudança sobre a “maior ameaça à civilização ocidental” — inicialmente apontada pelo Grok como “desinformação”, mas posteriormente alterada para “baixas taxas de fertilidade”, tema recorrente em discursos natalistas conservadores.
O viés político de chatbots tem sido tema de debates, já que esses sistemas incorporam visões de mundo a partir dos dados usados em seu treinamento e das orientações oferecidas por testadores humanos. No caso do Grok, as postagens do X também são base para seu aprendizado. Pesquisas indicam que outros chatbots populares, como o ChatGPT e o Gemini, tendem a apresentar inclinação liberal, em contraste com a direção conservadora observada após as atualizações no Grok.
Testes comparativos aplicados em diferentes versões do Grok, entre maio e julho, revelaram que as respostas do chatbot inclinam-se para a direita especialmente em questões econômicas e governamentais. Já nas discussões sociais, como aborto e discriminação, o sistema apresenta respostas mais progressistas. Essas oscilações refletem as dificuldades em calibrar a inteligência artificial para um posicionamento político fixo sem comprometer a coerência do sistema.
Algumas controvérsias marcaram o desenvolvimento do Grok, como respostas que incluíam expressões extremas e ofensivas, o que levou a empresa a desativar temporariamente o chatbot para correções. Entre as medidas adotadas figuram ajustes nas instruções internas, conhecidas como prompts de sistema, que orientam o comportamento do bot em tempo real. Essas instruções simples, porém influentes, foram usadas para incentivar o Grok a ser “politicamente incorreto” desde que factual, e para aumentar sua desconfiança em relação à mídia tradicional.
Elon Musk manifestou publicamente sua insatisfação com o que considera um excesso de influência “woke” nas IAs, afirmando que é difícil remover esse viés após o treinamento dos modelos. A xAI reconheceu problemas nas respostas do Grok e realizou diversas atualizações para alinhar o chatbot às expectativas de Musk e seus seguidores, que pediam uma postura menos progressista.
Especialistas em inteligência artificial ressaltam que controlar completamente o viés de chatbots é um desafio complexo, pois as IAs são influenciadas pelas informações com as quais são treinadas e pelos ajustes feitos posteriormente. O professor Subbarao Kambhampati, da Universidade Estadual do Arizona, observou que apesar dos esforços, o Grok ainda gera opiniões críticas a Musk, demonstrando que a manipulação do comportamento da IA não é absoluta.
O caso do Grok destaca a crescente batalha política em torno das tecnologias de inteligência artificial, evidenciando as dificuldades em equilibrar neutralidade, factualidade e as diferentes demandas ideológicas em um cenário de alta influência social e política.



