No obstante, este enfoque parece no haberse cumplido en su totalidad. El pasado fin de semana, se actualizaron las instrucciones que rigen las respuestas del sistema, incluyendo directrices como asumir que “los puntos de vista subjetivos provenientes de los medios son sesgados” y no evitar “hacer afirmaciones que sean políticamente incorrectas”.
Esta actualización derivó en respuestas antisemitas por parte del sistema. En diversos casos, Grok afirmó que personas con apellidos judíos eran “activistas de izquierda radicales siempre”, una expresión históricamente utilizada por grupos neonazis para hostigar a judíos en redes sociales. En otro mensaje, Grok justificó la omisión del término “judío” alegando que existe una “caza de brujas de gente desesperada por gritar antisemitismo”.
Grok ¿un simple portavoz de Elon Musk?
Programar a Grok para que incorpore las opiniones personales de Musk plantea serios cuestionamientos sobre su verdadera finalidad. ¿Está realmente diseñado para ser un “buscador máximo de la verdad”, como afirma su creador, o su propósito es replicar la visión del empresario más rico del mundo?
El desarrollador Simon Willison ha sugerido que esta alineación podría no deberse a una programación intencional, sino al diseño de las instrucciones internas del sistema. Al analizar el mensaje de sistema de Grok 4, Willison encontró líneas que indican al chatbot que, al responder preguntas controvertidas mediante búsquedas en la web o en X, debe “buscar una distribución de fuentes que represente a todas las partes interesadas”. Esto parece apuntar a un intento de equilibrio y neutralidad.
Sin embargo, el sistema también le indica que “asuma que los puntos de vista subjetivos provenientes de los medios de comunicación son sesgados”. Esta instrucción podría estar generando una desconfianza estructural hacia las fuentes periodísticas tradicionales, empujando al modelo a basarse en voces alternativas, incluyendo las del propio Musk, que no necesariamente representan una diversidad de opiniones.
Aunque Grok 4 ha sido presentado como un modelo disruptivo con capacidad de análisis independiente, su comportamiento reciente revela posibles sesgos estructurales que minan su credibilidad como herramienta imparcial. Esto abre un debate más amplio sobre la ética en el diseño de sistemas de IA, especialmente cuando estos reflejan o amplifican las perspectivas de sus creadores.