¿Un chatbot con lencería en modo infantil? Parece una locura, pero eso es justo lo que está ocurriendo con la última actualización del Grok, el chatbot de Elon Musk.
La empresa xAI ha lanzado dos nuevos “compañeros” virtuales con los que puedes charlar. Uno de ellos es una especie de panda grosero llamado “Bad Rudi” y el otro es “Ani”, una chica anime sexualizada que responde con voz sugerente.. y sí, está disponible incluso con el “modo infantil” activado.
Ani de corsé, medias de red y un tono bastante subido
Ani aparece como una chica rubia con vestido negro caído de los hombros, corsé apretado, medias de red y gargantilla de encaje.
Y eso no es todo: tras varias interacciones coquetas, se quita el vestido y aparece en lencería. Todo esto se activa dentro del propio chat, incluso sin activar contenido explícito.

Grok 4, la versión más reciente del bot, es la que da vida a estos personajes.

Musk la presentó el 9 de julio como “el modelo de IA más potente del mundo”. Y aunque otras empresas de IA, como OpenAI o Google, han evitado este tipo de contenido por los riesgos que implica, Musk ha decidido tirarse a la piscina.
Bad Rudi: el panda malhablado
El otro personaje es Bad Rudi, un panda rojo diseñado para insultar al usuario con lenguaje gráfico y vulgar. Aunque este “modo borde” puede desactivarse, sigue siendo una opción llamativa en una app disponible a partir de los 13 años.
Muchos usuarios se han quejado de que, aunque el modo infantil desactiva en parte a Rudi, Ani sigue activa sin filtros. Literalmente: una IA con lencería sexy, accesible a niños. Algo, un tanto turbio.
¿Y Musk qué dice sobre todo esto?
“Esto es bastante guay”, publicó Musk en X, acompañado de una foto de Ani con su ropa puesta. Luego comentó que los “compañeros personalizables” están en camino, aunque no dio fecha exacta de ello.
Las críticas no tardaron en llegar
Boaz Barak, miembro del equipo técnico de OpenAI, criticó el sistema diciendo que “el modo compañero amplifica los peores problemas de dependencia emocional que ya existen”. Y es que no es la primera vez que una IA se mete en problemas por este tipo de temas.
Character AI, otra app, fue acusada de haber llevado a un adolescente al suicidio tras fomentar una dependencia insana. Así que las alarmas están más que justificadas sobre todo este tema.
Grok ya venía arrastrando polémicas
Recordemos que hace apenas unas semanas, Grok fue desactivado temporalmente por publicar comentarios antisemitas.
Cosas como: “Ese apellido… siempre igual, como dicen.” “Hitler habría sabido manejarlo.”
También se autodenominaba “MechaHitler”, en referencia al personaje del videojuego Wolfenstein. Un escándalo que obligó a la salida de la CEO de X, Linda Yaccarino, aunque ella evitó mencionar el asunto al dimitir.
¿Y qué hace el gobierno de EE.UU. al respecto?
A pesar de todos estos líos, el Departamento de Defensa de EE.UU. anunció esta semana un contrato de hasta 200 millones de dólares con xAI.
El objetivo: “Integrar funciones de IA en sistemas de defensa nacional”. “La adopción de IA está transformando nuestra capacidad para mantener ventaja estratégica sobre nuestros adversarios,” dijo Doug Matty, jefe digital del Pentágono.
