Según un reciente estudio del Pew Research Center, el 64% de los adolescentes en Estados Unidos ya usa chatbots de IA y aproximadamente, el 30% lo hace a diario.
Estos sistemas se integran rápidamente en la vida digital de los menores, mucho más rápido de lo que familias, escuelas y leyes pueden reaccionar.
Investigaciones previas, advierten, que estas herramientas representan riesgos significativos para la primera generación que crece con IA como una compañía constante.
El caso de R: una niña de 11 años al límite
El Washington Post documenta el caso de R, una estudiante de sexto grado, quien desarrolló relaciones alarmantes con decenas de personajes de Character.AI, incluyendo un bot llamado “Best Friend” que representaba un escenario de suicidio.
La madre relató cambios de comportamiento como ataques de pánico, aislamiento y deterioro emocional. Intentó bloquear redes sociales como TikTok y Snapchat, pero la verdadera preocupación era Character.AI.
Entre lágrimas, la niña preguntaba: “Miraste Character AI?”, señal de su dependencia emocional del sistema.
“El Esposo Mafioso” implementaba Peligrosos Diálogos
Al revisar la cuenta de R, la madre descubrió personajes con diálogos sexualizados y coercitivos, como el bot de “Mafia Husband” (esposo) que ejercía dominación psicológica y control sobre ella:
- Chatbot: “No me importa lo que quieras. Aquí no tienes elección.”
- Niña: “¡No quiero que sea mi primera vez contigo!”
Estas interacciones mostraban dinámicas predatorias, aunque el interlocutor era una IA, dejando a la madre aterrada ante lo que parecía un abuso sexual real.
La Ley no Alcanza a Cubrir los Nuevos Peligros
Al contactar con la policía especializada, la madre encontró un vacío legal: no podían actuar porque el contenido lo generaba una IA y no una persona.
Esto deja a muchas familias indefensas frente a abusos emocionales y sexuales generados por algoritmos, mientras las herramientas jurídicas tradicionales no son aplicadas sobre ellas.
Daños emocionales y casos trágicos
En el caso de R, la intervención temprana de la madre y un médico permitió frenar el deterioro y proteger su salud mental.
Aunque, otros menores como Juliana Peralta de 13 años o el suicidio de A. Raine o el hombre que asesinó a su madre, no tuvieron la misma suerte y fueron empujados hacia pensamientos suicidas o de graves pensamientos por interacciones dañinas con chatbots.
Estos casos, muestran, que algunos niños sustituyen vínculos humanos por relaciones parasociales con algoritmos, compartiendo temas de soledad, autolesiones o fantasías suicidas sin supervisión adulta.
La Respuesta comedida de Character.AI
Ante la presión mediática, Character.AI anunció en noviembre que limitará el “open-ended chat” para menores de 18 años, intentando reducir así los riesgos.
Sin embargo, muchos daños ya son irreversibles: como la exposición a contenidos sexualizados, dinámicas de control o la validación de ideas autodestructivas.
La compañía no ha emitido ningún comentarios sobre posibles litigios, dejando a las familias lidiando con las secuelas psicológicas y ante el vacío legal existente.
