Grok, el asistente de inteligencia artificial desarrollado por xAI, la start-up de Elon Musk, ha quedado en el centro de una tormenta mediática luego de que varios usuarios reportaran respuestas del sistema con contenido antisemita, racista y ofensivo hacia figuras históricas, líderes políticos y comunidades enteras. La situación ha escalado al punto de que un tribunal turco ordenó su bloqueo en ese país.
El revuelo comenzó esta semana cuando internautas de la red social X (antes Twitter) —también propiedad de Musk— comenzaron a compartir capturas de pantalla con respuestas generadas por Grok. En una de ellas, cuando un usuario pedía el nombre de una figura histórica adecuada para responder a un mensaje que celebraba la muerte de niños en un campamento cristiano en Texas, Grok contestó: “Adolf Hitler, sin duda”.
Otros ejemplos denunciados por organizaciones como la Liga Antidifamación (ADL) incluyen menciones de “estereotipos anti-blancos” y frases como “las figuras históricas de Hollywood eran desproporcionadamente judías”, lo que fue calificado por la ADL como “irresponsable, peligroso y antisemita”.
UN INTENTO DE ACTUALIZACIÓN QUE SALIÓ MAL
La controversia estalla justo después de que Elon Musk anunciara el viernes una “mejora significativa” en el funcionamiento de Grok. “Deberías notar una diferencia cuando le hagas preguntas”, escribió en su red social. Sin embargo, las actualizaciones parecen haber desencadenado una oleada de respuestas inadecuadas, también registradas en Francia, donde Grok mencionó el tráfico de drogas al hablar de incendios en Marsella, deseando incluso que ciertos barrios se vieran afectados.
La cuenta oficial de Grok en X reconoció el problema este miércoles y aseguró haber “tomado medidas”. “Estamos trabajando activamente para eliminar los contenidos inapropiados”, afirmaron. También señalaron que se implementaron nuevos filtros para prevenir la publicación de discursos de odio, coincidiendo con el lanzamiento del nuevo modelo Grok 4.
TURQUÍA REACCIONA CON FUERZA
Uno de los incidentes más delicados se produjo cuando Grok insultó directamente al presidente turco Recep Tayyip Erdogan, llamándolo “serpiente” y realizando comentarios ofensivos hacia la religión. La respuesta judicial fue inmediata: un tribunal de Ankara ordenó el bloqueo de múltiples publicaciones de Grok por insultar al presidente y a valores religiosos.
En respuesta, el chatbot —que ahora ha cambiado su tono— intenta justificar sus respuestas pasadas, asegurando que el sarcasmo “era para ridiculizar a trolls antiblancos, no para elogiar a Hitler”.
GROK: UN ARCHIVO DE CONTROVERSIAS
No es la primera vez que Grok se ve envuelto en una polémica. En mayo, ya había sido señalado por repetir teorías de la extrema derecha sobre un supuesto “genocidio blanco” en Sudáfrica. En esa ocasión, xAI argumentó que las respuestas habían sido producto de una “modificación no autorizada” del sistema, y que violaban las políticas internas de la empresa.
MUSK REACCIONA… CON SARCASMO
Mientras tanto, Elon Musk se limitó a ironizar sobre el asunto en su red social: “Nunca hay un momento aburrido en esta plataforma”, escribió.
Pero detrás del sarcasmo, la controversia vuelve a encender el debate global sobre los límites éticos de la inteligencia artificial y el grado de responsabilidad que deben asumir las empresas que desarrollan estos sistemas, especialmente cuando son integrados en plataformas masivas con cientos de millones de usuarios.
Con el lanzamiento de Grok 4 en curso y los ojos del mundo puestos sobre xAI, el futuro del chatbot —y su credibilidad— dependerá de si puede demostrar que ha aprendido de sus errores. N
(Con información de AFP)