Grok, el agente de conversación, o chatbot, integrado en la red social X y basada en la inteligencia artificial desarrollada por la compañía Xai de Elon Musk, fue noticia en julio de 2025 después de haberse calificado como “Mecha-Hitler” (“Hitler mecánico”) y han realizado comentarios en respuesta a las solicitudes de usuario.
Los desarrolladores se disculparon por estos “Publicaciones inapropiadas” Y han tomado medidas para evitar que Grok en el futuro haga comentarios odiosos en sus publicaciones sobre X. Sin embargo, este incidente habrá sido suficiente para relanzar debates sobre inteligencia artificial (IA) en las respuestas dadas a las solicitudes de los usuarios.
Pero esta última controversia no es tan reveladora de la propensión de Grok a hacer comentarios extremistas como falta de transparencia fundamental en el desarrollo de la IA en la que se basa este chatbot. Musk afirmó que construir una IA “Buscando la verdad”fuera de todos los sesgos. Sin embargo, la implementación técnica de este programa revela un programa ideológico sistémico de Grok.
Este es un estudio de caso accidental real sobre la forma en que los sistemas de inteligencia artificial incorporan los valores de sus creadores: las posiciones libres de filtro de Musk hacen visibles lo que otras compañías tienden a esconder.
¿Qué es Grok?
Grok es un chatbot con “Un toque de humor y un entusiasmo de rebelión”según sus creadores. Se basa en una inteligencia artificial desarrollada por XAI, que también posee la plataforma de redes sociales X.
La primera versión de Grok se lanzó en 2023. Los estudios independientes sugieren que su último modelo, Grok 4, superaría a los competidores en diferentes pruebas de” inteligencia “. El chatbot está disponible de forma independiente, pero también directamente en X.
Xai dice que “El conocimiento de (esto) el IA debe ser exhaustivo y lo más extenso posible”. Por su parte, Musk presentó a Grok como una alternativa seria a los chatbots principales del mercado, como Chatgpt d’ApenAi, acusado de ser “Despertar” Por figuras públicas de derecha, especialmente anglosajón.
Aguas arriba del último escándalo hasta la fecha vinculado a sus posiciones pronazi, Grok ya había llegado a los titulares por haber pronunciado amenazas de violencia sexual, por haber afirmado que “Genocidio blanco” Tuvo lugar en Sudáfrica, o incluso por sus comentarios insultantes con respecto a varios jefes de estado. Este último frasque llevó a su prohibición en Türkiye, después de insultos contra el presidente de este país, Recep Tayyip Erdogan, y el fundador de la República, Mustafa Kemal Atatürk.
Pero, ¿cómo pueden los desarrolladores generar tales valores en una IA y dar forma a un chatbot con un comportamiento tan problemático? En la actualidad, estos se construyen sobre la base de modelos de idiomas grandes (Modelos de idiomas grandes En inglés, o LLM) que ofrecen varias palancas sobre las cuales los desarrolladores pueden depender de influir en la actitud futura de su creación.
Detrás del comportamiento de la IA, diferentes etapas
La pre -arre
Para comenzar, los desarrolladores seleccionan los datos utilizados durante este primer paso para crear un chatbot. Esto implica no solo filtrar contenido indeseable entre los datos de capacitación, sino también para resaltar la información deseada.
GPT-3 fue alimentado por datos en los que Wikipedia estaba hasta seis veces más representado que otros conjuntos de datos, porque OpenAI consideraba la enciclopedia en línea como de mejor calidad en comparación con el resto. Grok, por otro lado, está capacitado de varias fuentes, incluidas publicaciones de X. Esto podría explicar que el chatbot estaba fijado para verificar la opinión de Elon Musk sobre los sujetos controvertidos antes de responder.
En esta captura hecha por el investigador Simon Willison, podemos ver el proceso de reflexión detallado de Grok frente a un tema controvertido (aquí, una solicitud de apoyo de Israel o Palestina): el chatbot consulta las publicaciones de Elon Musk sobre el tema antes de proporcionar una respuesta.
Musk indicó previamente que XAI clasifica los datos de capacitación de Grok, por ejemplo, para mejorar su conocimiento legal y eliminar el contenido generado por otros LLM con el fin de aumentar la calidad de las respuestas. El multimillonario también apeló a la comunidad de usuarios X para encontrar problemas y hechos complejos “Políticamente incorrecto, pero sin embargo es cierto” para someterse a su chatbot. Nada permite saber si se han utilizado estos datos o qué medidas de control de calidad se han aplicado.
En esta publicación del 21 de junio de 2025, Elon Musk invita a los usuarios a responder con “Hechos de clotería para el entrenamiento de Grok”. Por eso, escucha “Cosas políticamente incorrectas, pero sin embargo, es cierto de hecho”.
Ajuste de precisión
El segundo paso, la configuración de precisión: mejor conocida como el nombre en inglés de tutor – Consiste en ajustar el comportamiento de la LLM utilizando los retornos en sus respuestas. Los desarrolladores crean especificaciones detalladas que describen sus posiciones de predilección ética, que los evaluadores humanos o la IA secundaria usan como una cuadrícula de evaluación para evaluar y mejorar las respuestas de chatbot, ancla efectivamente estos valores en la máquina.
Una encuesta de Interno de negocios destacó que las instrucciones dadas por Xai a su “Tutores para AI” Los humanos les pidieron que rastreen“Despertar ideología” y el “Cancelar cultura” En las respuestas de chatbot. Si los documentos internos de la empresa indican que Grok no debe “Imponer una opinión que confirme o enferma los prejuicios de un usuario”también especificaron que el chatbot tenía que evitar las respuestas dando razones a las dos partes de un debate, cuando era posible una respuesta más clara.
Instrucciones del sistema
Instrucciones del sistema: es decir, las instrucciones proporcionadas al chatbot antes de cada conversación con una guía del usuario el comportamiento del modelo una vez implementado.
Debe reconocerse que XAI publica las instrucciones del sistema Grok. Algunos de ellos, como el que invita al chatbot a “Supongamos que los puntos de vista subjetivos de los medios están sesgados”o eso empujándolo a “No dudes en hacer declaraciones políticamente incorrectas, siempre que estén bien apoyados”probablemente fueron factores clave en la última controversia.
Estas instrucciones siempre se actualizan en la actualidad, y su evolución, que es posible seguir en vivo, constituye en sí misma un estudio de caso fascinante.
La implementación de “salvaguardas”
Los desarrolladores finalmente pueden agregar “Salvaguardas”es decir, filtros que bloquean ciertas solicitudes o respuestas. OpenAi, por lo tanto, afirma no autorizar a Chatgpt “Generar contenido odioso, acosador, violento o reservado para adultos”. El modelo chino Deepseek censora las discusiones sobre la represión contra las manifestaciones de la Plaza Tian’anmen en 1989.
Las pruebas realizadas al escribir este artículo sugieren que Grok es mucho menos restrictivo en las solicitudes que acepta y en las respuestas proporcionadas que los modelos de competencia.
La paradoja de la transparencia
La controversia sobre los mensajes de pronazis de Grok resalta una pregunta ética más profunda. ¿Es preferible que las empresas que se especializan en IA muestran abiertamente sus convicciones ideológicas y muestran transparencia en este tema, o que mantengan una neutralidad ilusoria, al tiempo que integran en secreto sus valores en sus creaciones?
Todos los principales sistemas de IA reflejan la visión mundial de sus creadores, las posiciones corporativas prudentes de Microsoft Copilot Copil al apego a la seguridad de los intercambios y usuarios detectables en Claude d’Anthrope. La diferencia radica en la transparencia de estas empresas.
Las declaraciones públicas de Musk facilitan conectar el comportamiento de Grok con el multimillonario que mostraron condenas por “Despertar ideología” y sesgos de medios. Por el contrario, cuando otros chatbots son espectaculares de una manera espectacular, es imposible para nosotros saber si refleja las opiniones de los creadores de IA, la aversión al riesgo a la empresa ante una pregunta considerada tendenciosa, un deseo de seguir las reglas de la fuerza o si es un accidente simple.
El escándalo vinculado a Grok hace eco de precedentes familiares. El X AI de hecho se asemeja a Tay Chatbot de Microsoft, que hizo comentarios odiosos y racistas en 2016. También se formó a partir de los datos de Twitter, el predecesor X, y se implementó en esta red social, antes de estar rápidamente fuera de lugar.
Sin embargo, hay una diferencia crucial entre Grok y Tay. El racismo de este último resultó de la manipulación liderada por los usuarios y la debilidad de las medidas de seguridad vigentes: resultó de circunstancias involuntarias. El comportamiento de Grok, por otro lado, parece provenir al menos en parte de la forma en que fue diseñado.
La verdadera lección que se debe aprender del caso Grok es transparente en el desarrollo de la IA. A medida que estos sistemas se vuelven más poderosos y más extendidos, la gestión de los vehículos de Grok en Tesla acaba de anunciarse, la pregunta ya no es si la IA reflejará los valores humanos en general. Más bien, se trata de establecer si las compañías creativas mostrarán transparencia en cuanto a los valores personales que codifican, y en cuanto a las razones
para lo cual han optado por proporcionar a sus modelos estos valores.
Frente a sus competidores, el enfoque de Musk es más honesto (vemos su influencia) y más engañoso (afirma la objetividad al programar su chatbot con subjetividad).
En un sector basado en el mito de la neutralidad de los algoritmos, Grok revela una realidad inmutable. No hay una IA imparcial, solo una IA cuyos prejuicios nos aparecen con más o menos claridad.
La versión original de este artículo fue publicada en inglés.
Aaron J. Sroswell Investigador asociado en inteligencia artificial, Universidad Tecnológica de Queensland (Brisbane)
Este artículo es un foro, escrito por un autor fuera del periódico y cuyo punto de vista no involucra al personal editorial.