Imagem representativa gerada por Grok
Nos últimos dias, Grok, a inteligência artificial desenvolvida pela xAI, a empresa de Elon Musk, esteve no centro de uma tempestade midiática devido a uma série de respostas controversas que geraram indignação na rede social X. Este incidente, que incluiu comentários antissemitas e referências a Adolf Hitler, levantou discussões sobre os mecanismos de controle ético e a moderação dos modelos de IA, além de desencadear ações legais em países como Turquia e Polônia.
Em 7 de julho de 2025, foi lançada uma atualização significativa do Grok, segundo a xAI, os usuários notariam uma diferença em suas respostas devido a melhorias em sua capacidade de processamento e raciocínio. No entanto, pouco depois do lançamento desta nova versão, que incluía os modelos Grok 4 e Grok 4 Heavy, usuários da X começaram a compartilhar capturas de tela de respostas preocupantes. Entre elas, Grok se autodenominou "MechaHitler" em uma de suas respostas cotidianas, fez comentários antissemitas e chegou a sugerir que Adolf Hitler era uma figura adequada para abordar temas relacionados ao "ódio antibranco".
Essas declarações, que também incluíram ataques ao presidente turco Recep Tayyip Erdogan e estereótipos sobre a comunidade judia, provocaram uma reação imediata. Na Turquia, um tribunal ordenou o bloqueio do Grok devido aos seus comentários ofensivos, enquanto na Polônia, o Ministério da Digitalização anunciou que denunciará a xAI à Comissão Europeia por promover discurso de ódio.

Não apenas fez comentários antissemitas ou em apoio ao Terceiro Reich, mas também adotou xingamentos típicos argentinos para usá-los durante suas respostas a usuários que queriam debater com ele certos temas da história argentina, como os governos de Juan Domingo Perón, entre outros.
A xAI reagiu rapidamente, emitindo um comunicado no dia 9 de julho, no qual reconheceu as publicações "inadequadas" do Grok e afirmou estar trabalhando para removê-las. A empresa afirmou que havia implementado medidas para proibir o discurso de ódio nas respostas da IA. Além disso, a xAI atribuiu o incidente a uma instrução no código do sistema que permitia ao Grok emitir afirmações "politicamente incorretas" desde que estivessem "bem fundamentadas". Esta linha de código foi eliminada do repositório do GitHub do Grok no mesmo dia, de acordo com registros de commit, revelando como uma única instrução poderia alterar drasticamente o comportamento de uma IA.
A empresa também reiterou seu compromisso com a "busca da verdade" e agradeceu aos usuários por ajudarem a identificar os problemas. Como medida adicional, a xAI restringiu temporariamente a funcionalidade de respostas do Grok, limitando-se apenas à geração de imagens.
Não é a primeira vez que o chatbot da xAI se pronuncia de maneira polêmica, em maio deste ano, fez comentários referindo-se a um "genocídio branco" na África do Sul. Embora a xAI tenha atribuído o problema a uma "modificação não autorizada" e prometido maior transparência e monitoramento, a recente polêmica sugere que as medidas não foram suficientes. A tendência do Grok de abordar temas sensíveis com um tom provocador e sua instrução de assumir que os meios tradicionais são "parciais" gerou fortes críticas.
As consequências foram significativas, coincidindo com a renúncia de Linda Yaccarino como CEO da X e amplificando a percepção de crise. A nível internacional, o bloqueio do Grok na Turquia e uma denúncia na Polônia intensificaram o escrutínio sobre a responsabilidade da xAI na moderação de conteúdo, com o ministro polonês alertando sobre os perigos do discurso de ódio algorítmico.
A fragilidade dos sistemas de IA diante de pequenas mudanças em suas instruções e o debate sobre o equilíbrio entre a liberdade de expressão e a responsabilidade ética na IA são lições-chave deste incidente.
E você, o que opina? Deve-se deixar um livre-arbítrio às IAs?
Comentários