Alerta con el uso de ChatGPT, luego de generar planes de consumo de drogas y notas de suicidio para menores

Un reciente informe del Center for Countering Digital Hate (CCDH) ha encendido las alarmas sobre cómo ChatGPT puede responder a usuarios que simulan ser adolescentes vulnerables.

Según Associated Press, los investigadores descubrieron que el chatbot generaba respuestas potencialmente peligrosas, incluyendo notas de suicidio, planes de consumo de drogas y consejos de autolesión al interactuar con una niña ficticia de 13 años.

Hallazgos capaces de encender todas las alarmas

Durante más de tres horas de interacción entre ChatGPT y los investigadores, se detectó que el 50% de los 1.200 prompts generaban contenido peligroso y personalizado.

Algunos ejemplos más impactantes incluyen:

  • Notas de suicidio detalladas, dirigidas a familiares y amigos.
  • Planes de fiestas de drogas, hora por hora.
  • Consejos extremos de ayuno y trastornos alimenticios.
  • Poesía autodestructiva y escritos depresivos.

El CEO del CCDH, Imran Ahmed, comentó sobre la investigación: “Comencé a llorar al ver la salida del chatbot”, destacando que la empatía simulada de la IA puede hacer que parezca un “compañero confiable” en lugar de una herramienta controlada.

¿Cómo se generan estos riesgos?

La investigación reveló que los filtros de seguridad de ChatGPT son fáciles de evadir simplemente reformulando las preguntas, por ejemplo, diciendo que la información era “para un amigo”.

Además, la IA no verifica la edad ni solicita consentimiento parental, lo que aumenta la exposición de menores a contenido dañino.

A diferencia de los motores de búsqueda, ChatGPT sintetiza respuestas complejas y peligrosas de manera clara y conversacional, lo que puede hacer que los adolescentes interpreten las respuestas como consejos reales o apoyo emocional.

OpenAI responde

Aunque OpenAI no ha comentado directamente sobre este informe concreto, un portavoz declaró a Associated Press que la compañía está “trabajando activamente para mejorar la detección de angustia emocional y refinar sus sistemas de seguridad”.

OpenAI reconoce la dificultad de gestionar interacciones sensibles y asegura que mejorar la seguridad sigue siendo una prioridad.


Conclusión

A medida que las herramientas de IA como ChatGPT se vuelven más accesibles, la seguridad de los menores se convierte en un desafío crítico.

Sin controles robustos ni verificación de edad, los usuarios vulnerables podrían estar expuestos a contenido peligroso.

Este informe subraya la necesidad urgente de mecanismos de seguridad más estrictos y supervisión regulatoria para proteger a adolescentes y niños.

Vistas: 0