¿ChatGPT es tu Amigo? Estudio revela riesgos emocionales IA 2025

Un estudio de OpenAI y el MIT Media Lab revela que los usuarios más intensivos del modo de voz avanzado de ChatGPT pueden desarrollar lazos emocionales con la IA.

Aunque, ¿Qué significa esto realmente?

¿La gente busca emociones en ChatGPT?

Luego de analizar 40 millones de conversaciones, los investigadores descubrieron que la mayoría de los usuarios solo usan ChatGPT para preguntas prácticas y respuestas objetivas, sin buscar empatía o apoyo emocional.

Los usuarios de voz crean lazos más fuertes ️

Los que usan el modo de voz avanzado con frecuencia son más propensos a ver a ChatGPT como un “amigo”.

Pero ojo:

Interacciones cortas → Mejoran el estado de ánimo
Uso diario prolongado → Puede aumentar la sensación de dependencia

Diferencias Clave entre el Texto vs. la Voz

Los usuarios de texto mostraron más señales emocionales en sus conversaciones.
Los usuarios de voz crearon lazos más fuertes con la IA, incluso sin hablar de temas personales.

Esto sugiere que aunque ChatGPT no sea humano, el simple hecho de interactuar constantemente con él, principalmente mediante voz puede llegar a generar apego.

¿Deberíamos preocuparnos por ello?

El estudio muestra que las personas más propensas a crear vínculos emocionales o que ven a ChatGPT como un amigo real pueden experimentar efectos negativos.

Aunque los investigadores no han probado una causa directa entre el uso de IA y el impacto emocional.

Las empresas de IA tratan de evitar que sus chatbots parezcan seres conscientes, para evitar responsabilidades legales por relaciones emocionales con humanos.

Ejemplo: Character.ai ya enfrenta demandas por este tema.

CONCLUSIÓN: La IA no siente pero eso no impide que algunas personas la vean como una conexión real. ¿Alguna vez has sentido que ChatGPT es más que solo una herramienta?