Se está discutiendo si Elon Musk diseñó su chatbot para promover propaganda sobre Sudáfrica. Sin embargo, eso no cambia nada: Grok sigue siendo, en definitiva, la voz de Musk.
Al crear un chatbot grande basado en un modelo de lenguaje, los creadores enfrentan decisiones cruciales: qué información debe procesar el modelo, cómo asignar el peso adecuado a cada fuente y cómo interpretar esas fuentes, especialmente cuando difieren entre sí. Se puede elegir excluir determinadas fuentes de contenido (como sitios web pornográficos) o priorizar aquellos datos y fuentes que se consideran ciertos (como “2 + 2 = 4”). Todas estas decisiones, en conjunto, influyen en el comportamiento del chatbot en la conversación y las perspectivas que transmite a los usuarios. Generalmente, estas decisiones se toman entre bastidores, pero esta semana, el proceso de toma de decisiones de los creadores de chatbots se convirtió en un tema de debate público cuando el chatbot Grok de Elon Musk comenzó a responder de forma inesperada a consultas no relacionadas, derivando hacia afirmaciones sobre la violencia contra la población blanca en Sudáfrica. Un usuario publicó una foto con el mensaje: “Creo que me veo guapo hoy”. Cuando otro usuario preguntó: “@grok, ¿es cierto?”, el bot respondió: “La afirmación de genocidio blanco en Sudáfrica es objeto de un intenso debate…”.
Las respuestas extrañas de Grok se viralizaron después de que Aric Toler, periodista del New York Times y exdirector de Bellingcat, las señalara. Incluso Sam Altman, uno de los creadores más destacados de chatbots, hizo una broma al respecto en X. El aparente fallo (que ya fue solucionado) desató un amplio debate sobre si Elon Musk, un sudafricano blanco con antecedentes de afirmar que Sudáfrica es “racista” contra la población blanca, había introducido el error al ajustar el bot para alinearlo con sus propias ideas políticas.
“Sería realmente malo si las IA de uso generalizado fueran editorializadas sobre la marcha por quienes las controlan”, escribió Paul Graham, fundador de la famosa aceleradora de Silicon Valley Y Combinator, en X. La empresa matriz de Grok, xAI, más tarde confirmó que el problema fue resultado de “una modificación no autorizada” que “violaba las políticas internas y los valores fundamentales de xAI”.
Musk ya ha alterado algoritmos en sus empresas; en X, por ejemplo, es conocido por multiplicar sus tuits por mil mediante otros para asegurarse de que más personas los vean. Sin embargo, la idea de que la respuesta de Grok podría ser imparcial, auténtica o de alguna manera ajena a las decisiones editoriales de quienes lo desarrollan, es una interpretación errónea de lo que son los chatbots y cómo deciden qué mostrarte.
Los chatbots son creados por empresas con fines específicos. Los algoritmos que los impulsan, al igual que los que rigen las recomendaciones en Google, TikTok e Instagram, son una mezcla de preferencias codificadas por sus creadores para priorizar ciertos incentivos. Si el objetivo de una empresa es que sigas usando su aplicación, sus respuestas se ajustarán para generar más interacción. Si el objetivo es aumentar los ingresos por comercio electrónico, las respuestas te incentivarán a comprar. La motivación principal de las empresas tecnológicas no es ofrecerte la información más precisa y contextualizada posible. Si eso es lo que buscas, podrías ir a la biblioteca, o quizás probar Wikipedia, que, al igual que la biblioteca, tiene como misión brindarte información precisa sin ánimo de lucro.
Las empresas han politizado los productos de IA en ambos espectros políticos: los conservadores criticaron a Google el año pasado cuando su modelo de IA Gemini generó imágenes de nazis racialmente diversos y otras figuras históricas incorrectas (la empresa suspendió la capacidad del modelo para generar imágenes de personas y se disculpó por el error).
Grok es un reflejo de X y xAI, que existen para impulsar la visión de Musk y generar ingresos. Por lo tanto, no es sorprendente que el bot haya expresado opiniones sobre la raza en Sudáfrica que coinciden en gran medida con las ideas políticas de Musk. Sin duda, es pertinente: esta misma semana, el presidente Trump revirtió décadas de política estadounidense sobre refugiados y comenzó a permitir que los sudafricanos blancos llegaran a Estados Unidos como “refugiados”, en un aparente respaldo a la perspectiva de Musk sobre la política sudafricana. Musk también ha reflejado su visión de otras maneras: durante el entrenamiento, los “tutores” del bot Grok recibieron instrucciones de supervisarlo en busca de “ideología progresista” y “cultura de la cancelación”.
Lo más desconcertante fue que Grok respondió a cada mensaje con declaraciones sobre el “genocidio blanco”. Los expertos señalan que esto probablemente indica que el “mensaje del sistema” de Grok fue modificado; este conjunto de instrucciones añadidas a lo que el usuario introduce sirve para configurar las respuestas del bot. xAI no ofreció una respuesta inmediata a una solicitud de comentarios.
Sin embargo, en realidad, no importa si Musk causó el error de Grok en Sudáfrica al intentar codificar algo de manera rígida o no. A medida que más personas recurren a los chatbots para obtener información y reemplazar la investigación, es fácil olvidar que los chatbots no son personas; son productos. Sus creadores quieren que pensemos que son “neutrales”, que sus respuestas son “auténticas” e “imparciales”, pero eso no es cierto. Los chatbots extraen información de grandes cantidades de datos, que están plagados de opiniones humanas, y luego los creadores del bot les asignan diferentes ponderaciones según qué fuentes deciden priorizar.
Los bots son más convincentes cuando los percibimos como neutrales y serviciales, una imagen que sus creadores han cultivado cuidadosamente. Sin embargo, esa fachada de neutralidad se desvanece cuando cometen un error evidente. Es importante recordar que, al final, son solo computadoras creadas por seres humanos, incluso mucho después de que los discursos sobre el genocidio blanco desaparezcan.