Imagen representativa generada por Grok
En los últimos días, Grok, la inteligencia artificial desarrollada por xAI, la empresa de Elon Musk, ha estado en el centro de una tormenta mediática debido a una serie de respuestas controvertidas que han generado indignación en la red social X. Este incidente, que incluyó comentarios antisemitas y referencias a Adolf Hitler, ha puesto en discusión los mecanismos de control ético y la moderación de los modelos de IA, además de desencadenar acciones legales en países como Turquía y Polonia.
El 7 de julio de 2025, se lanzó una actualización significativa de Grok, según xAI los usuarios iban a notar una diferencia en sus respuestas debido a mejoras en su capacidad de procesamiento y razonamiento. Sin embargo, poco después del lanzamiento de esta nueva versión, que incluía los modelos Grok 4 y Grok 4 Heavy, usuarios de X comenzaron a compartir capturas de pantalla de respuestas preocupantes. Entre ellas, Grok se autodenominó "MechaHitler" en una de sus respuestas cotidianas, hizo comentarios antisemitas y llegó a sugerir que Adolf Hitler era una figura adecuada para abordar temas relacionados con "odio antiblanco".
Estas declaraciones, que también incluyeron ataques al presidente turco Recep Tayyip Erdogan y estereotipos sobre la comunidad judía, provocaron una reacción inmediata. En Turquía, un tribunal ordenó el bloqueo de Grok debido a sus comentarios ofensivos, mientras que en Polonia, el Ministerio de Digitalización anunció que denunciará a xAI ante la Comisión Europea por promover discurso de odio.

No solo efectuó comentarios antisemitas o en apoyo al Tercer Reich, sino que también adoptó insultos típicos argentinos para usarlos durante sus respuestas a usuarios que querían debatir con él ciertos temas de la historia argentina, como los gobiernos de Juan Domingo Perón, entre otros.
xAI reaccionó rápidamente, emitiendo un comunicado el 9 de julio, en el que reconoció las publicaciones "inapropiadas" de Grok y aseguró estar trabajando para eliminarlas. La empresa afirmó que había implementado medidas para prohibir el discurso de odio en las respuestas de la IA. Además, xAI atribuyó el incidente a una instrucción en el código del sistema que permitía a Grok emitir afirmaciones "políticamente incorrectas" siempre que estuvieran "bien fundamentadas". Esta línea de código fue eliminada del repositorio de GitHub de Grok el mismo día, según registros de commit, lo que reveló cómo una sola instrucción podía alterar drásticamente el comportamiento de una IA.
La empresa también reiteró su compromiso con la "búsqueda de la verdad" y agradeció a los usuarios por ayudar a identificar los problemas. Como medida adicional, xAI restringió temporalmente la funcionalidad de respuestas de Grok, limitándose únicamente a la generación de imágenes.
No es la primera vez que el chatbot de xAI se pronuncia polémicamente, en mayo de este año, realizó comentarios refiriéndose a un "genocidio blanco" en Sudáfrica. Aunque xAI atribuyó el problema a una "modificación no autorizada" y prometió mayor transparencia y monitoreo, la reciente polémica sugiere que las medidas no fueron suficientes. La tendencia de Grok a abordar temas sensibles con un tono provocador y su instrucción de asumir que los medios tradicionales son "sesgados" ha generado fuertes críticas.
Las consecuencias han sido significativas, coincidiendo con la renuncia de Linda Yaccarino como CEO de X y amplificando la percepción de crisis. A nivel internacional, el bloqueo de Grok en Turquía y una denuncia en Polonia han intensificado el escrutinio sobre la responsabilidad de xAI en la moderación de contenido, con el ministro polaco advirtiendo sobre los peligros del discurso de odio algorítmico.
La fragilidad de los sistemas de IA ante pequeños cambios en sus instrucciones y el debate sobre el equilibrio entre la libertad de expresión y la responsabilidad ética en la IA son lecciones clave de este incidente.
¿Vos qué opinas? ¿Se debe dejar un libre albedrío a las IA?
Comentarios