Escándalo en X: la compañía explicó por qué Grok, la IA de Elon Musk, se sumó a una teoría conspirativa sobre el genocidio blanco en Sudáfrica

Al igual que su creador, el chatbot de inteligencia artificial de Elon Musk, Grok, estuvo preocupado por la política racial sudafricana en las redes sociales esta semana, publicando afirmaciones no solicitadas sobre la persecución y el “genocidio” de personas blancas.

El chatbot, creado por la empresa de Musk, xAI, siguió publicando sobre el “genocidio blanco” en respuesta a los usuarios de la plataforma de redes sociales X de Musk, quienes le hicieron una variedad de preguntas, la mayoría sin relación con Sudáfrica.

Un intercambio fue sobre el servicio de streaming Max reviviendo el nombre de HBO. Otros fueron sobre videojuegos o béisbol, pero rápidamente se desviaron hacia comentarios no relacionados sobre supuestos llamados a la violencia contra los agricultores blancos de Sudáfrica. Musk, quien nació en Sudáfrica, frecuentemente opina sobre los mismos temas desde su propia cuenta de X.

very weird thing happening with Grok lol

Elon Musk's AI chatbot can't stop talking about South Africa and is replying to completely unrelated tweets on here about "white genocide" and "kill the boer" pic.twitter.com/ruurV0cwXU

— Matt Binder (@MattBinder) May 14, 2025

La científica informática Jen Golbeck tenía curiosidad sobre el comportamiento inusual de Grok, así que lo intentó ella misma, compartiendo una foto que había tomado en el show canino del Westminster Kennel Club y preguntando: “¿Es esto cierto?”.

“La afirmación de genocidio blanco es altamente controvertida”, comenzó la respuesta de Grok a Golbeck. “Algunos argumentan que los agricultores blancos enfrentan violencia dirigida, señalando ataques a granjas y retórica como la canción ‘Kill the Boer’, que ven como incitación”.

El episodio fue el vistazo más reciente de la complicada mezcla de automatización e ingeniería humana que lleva a los chatbots de IA generativa entrenados en enormes cantidades de datos a decir lo que dicen.

“No importa realmente lo que le estuvieras diciendo a Grok”, dijo Golbeck, profesora en la Universidad de Maryland, en una entrevista el jueves. “Aun así daría esa respuesta sobre el genocidio blanco. Así que parecía bastante claro que alguien lo había codificado para dar esa respuesta o variaciones de esa respuesta, y cometió un error, por lo que aparecía mucho más a menudo de lo que se suponía”.

La explicación oficial

We want to update you on an incident that happened with our Grok response bot on X yesterday.

What happened:
On May 14 at approximately 3:15 AM PST, an unauthorized modification was made to the Grok response bot's prompt on X. This change, which directed Grok to provide a…

— xAI (@xai) May 16, 2025

Las respuestas de Grok fueron eliminadas durante el jueves y parecían haber dejado de proliferar. La compañía publicó un comunicado luego en el que explicó lo sucedido.

“El 14 de mayo, aproximadamente a las 3:15 a. m. PST, se realizó una modificación no autorizada en el mensaje del bot de respuesta de Grok en X. Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, infringió las políticas internas y los valores fundamentales de xAI. Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok. Lo que vamos a hacer a continuación: a partir de ahora, publicamos abiertamente las indicaciones de nuestro sistema Grok en GitHub. El público podrá revisarlas y dar su opinión sobre cada cambio que implementemos en Grok. Esperamos que esto contribuya a fortalecer su confianza en Grok como una IA que busca la verdad. En este incidente, se eludió nuestro proceso actual de revisión de código para cambios en las indicaciones. Implementaremos verificaciones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar la indicación sin revisión. Estamos implementando un equipo de monitoreo disponible las 24 horas, los 7 días de la semana, para responder a los incidentes con las respuestas de Grok que no sean detectados por los sistemas automatizados, de modo que podamos responder más rápido si todas las demás medidas fallan.”

Una IA woke

Musk ha pasado años criticando las salidas de “IA woke” que, según él, provienen de chatbots rivales, como Gemini de Google o ChatGPT de OpenAI, y ha presentado a Grok como su alternativa “máximamente buscadora de la verdad”.

Musk también ha criticado la falta de transparencia de sus rivales sobre sus sistemas de IA.

“Grok soltando aleatoriamente opiniones sobre el genocidio blanco en Sudáfrica me huele al tipo de comportamiento defectuoso que obtienes de un parche aplicado recientemente. Espero que no lo sea. Sería realmente malo si las herramientas de IA ampliamente utilizadas fueran editorializadas sobre la marcha por quienes las controlan”, escribió el prominente inversor en tecnología Paul Graham en X.

La publicación de Graham provocó lo que parecía ser una respuesta sarcástica del rival de Musk, el director general de OpenAI, Sam Altman.

There are many ways this could have happened. I’m sure xAI will provide a full and transparent explanation soon.

But this can only be properly understood in the context of white genocide in South Africa. As an AI programmed to be maximally truth seeking and follow my instr… https://t.co/bsjh4BTTRB

— Sam Altman (@sama) May 15, 2025

“Hay muchas maneras en que esto podría haber sucedido. Estoy seguro de que xAI proporcionará una explicación completa y transparente pronto”, escribió Altman, quien ha sido demandado por Musk en una disputa enraizada en la fundación de OpenAI.

Algunos le pidieron a Grok que explicara, pero como otros chatbots, es propenso a falsedades conocidas como alucinaciones, lo que dificulta determinar si estaba inventando cosas.

Musk, asesor del presidente estadounidense Donald Trump, ha acusado regularmente al gobierno liderado por personas de raza negra de Sudáfrica de ser anti-blanco y ha repetido una afirmación de que algunas de las figuras políticas del país están “promoviendo activamente el genocidio blanco”.

Los comentarios de Musk —y los de Grok— se intensificaron esta semana después de que el gobierno de Trump trajera a un pequeño número de sudafricanos blancos a Estados Unidos como refugiados el lunes, el inicio de un esfuerzo de reubicación más grande para miembros del grupo minoritario afrikáner mientras Trump suspende programas de refugiados y detiene llegadas de otras partes del mundo. Trump dice que los afrikáners enfrentan un “genocidio” en su tierra natal, una alegación fuertemente negada por el gobierno sudafricano.

Oh my god Elon programmed Grok to talk about white genocide pic.twitter.com/yEcfYY5pel

— evan loves worf (@esjesjesj) May 14, 2025

En muchas de sus respuestas, Grok mencionó las letras de una vieja canción anti-apartheid que era un llamado para que los negros se levantaran contra la opresión y que ahora ha sido denunciada por Musk y otros como promotora de la matanza de blancos. La letra central de la canción es “matar al Boer” —una palabra que se refiere a un agricultor blanco.

Golbeck cree que las respuestas fueron “codificadas” porque, aunque las salidas de los chatbots son típicamente muy aleatorias, las respuestas de Grok consistentemente mencionaban puntos casi idénticos. Eso es preocupante, dijo, en un mundo donde la gente acude cada vez más a Grok y a chatbots de IA competidores para obtener respuestas a sus preguntas.

“Estamos en un espacio donde es terriblemente fácil para las personas que están a cargo de estos algoritmos manipular la versión de la verdad que están dando”, dijo. “Y eso es realmente problemático cuando la gente —creo que incorrectamente— cree que estos algoritmos pueden ser fuentes de adjudicación sobre lo que es verdad y lo que no lo es".

Con información de Associated Press



Fuente: https://www.lanacion.com.ar/tecnologia/escandalo-en-x-la-compania-explico-por-que-grok-la-ia-de-elon-musk-se-sumo-a-una-teoria-conspirativa-nid16052025/

Comentarios

Comentar artículo