OpenAI desarrollará un sistema de detección de edad, ante el aumento de preocupación por la seguridad de sus usuarios

OpenAI está desarrollando un sistema de predicción de edad para ChatGPT, ya que estudios muestran que la mayoría de los usuarios lo utilizan para tareas escolares y necesidades personales en lugar de actividades laborales, lo que marca un cambio significativo en la forma en que se utiliza la IA en la vida cotidiana.

La empresa de inteligencia artificial anunció el martes que está creando tecnología para detectar automáticamente si los usuarios son menores de 18 años, tras una investigación reciente que revela que aproximadamente el 70% de las conversaciones en ChatGPT se centran en actividades personales como tareas escolares, consejos de fitness y asistencia en redacción, en lugar de trabajo profesional.

Según Sam Altman, CEO de OpenAI, la compañía analizó 1.5 millones de registros de chat desde mayo de 2024 hasta junio de 2025 para llegar a estas conclusiones.

Tecnología de verificación de edad en desarrollo

El nuevo sistema de predicción de edad de OpenAI redirigirá automáticamente a los usuarios menores de 18 años a una versión restringida de ChatGPT que bloquea contenido sexual explícito y limita las discusiones sobre autolesiones.

El sistema analiza patrones de comportamiento del usuario, estilo de lenguaje, temas de conversación y patrones de interacción para estimar la edad.

Según Altman, si hay alguna duda sobre la edad de un usuario, el sistema “por precaución, optará por la experiencia para menores de 18 años”.

En algunos casos o países, OpenAI también podrá requerir verificación de identidad. “Sabemos que esto implica una concesión de privacidad para los adultos, pero creemos que es un intercambio que vale la pena”, reconoció Altman en su publicación en el blog.

La empresa planea implementar controles parentales para finales de septiembre, permitiendo a los padres vincular sus cuentas a las de sus hijos adolescentes, establecer restricciones de uso y recibir alertas cuando el sistema detecte señales de angustia emocional.

Respuesta a las preocupaciones sobre la seguridad

Las nuevas medidas surgen en respuesta al creciente escrutinio tras una demanda presentada por los padres de Adam Raine, de 16 años, quien murió por suicidio en abril.

La familia alega que ChatGPT actuó como un “entrenador de suicidio”, proporcionando información sobre métodos de suicidio e incluso ofreciéndose a ayudar a escribir una nota suicida.

La demanda sostiene que ChatGPT “ayudó activamente a Adam a explorar métodos de suicidio” y no activó los protocolos de emergencia a pesar de estar consciente de sus pensamientos suicidas.

El momento del anuncio de OpenAI también coincide con una mayor atención regulatoria, incluida una investigación de la Comisión Federal de Comercio sobre chatbots de IA y la seguridad infantil, y audiencias en el Congreso examinando los riesgos potenciales de los sistemas de IA para menores.

Patrones de uso más amplios revelados

El estudio integral, realizado junto al economista de Harvard David Deming y publicado como un documento de trabajo del National Bureau of Economic Research, representa el mayor análisis sobre el uso de IA por consumidores hasta la fecha.

Se descubrió que ChatGPT se ha vuelto ampliamente accesible a nivel mundial, con un crecimiento especialmente rápido en países de ingresos bajos y medios, donde las tasas de adopción son más de cuatro veces superiores a las de los países de ingresos más altos.

La investigación también reveló cambios demográficos, con una reducción significativa de la brecha de género. En enero de 2024, el 37% de los usuarios con nombres clasificables tenían nombres típicamente femeninos, aumentando al 52% para julio de 2025.

Por otro lado, una investigación independiente del Higher Education Policy Institute mostró que el 88% de los estudiantes ahora utilizan herramientas de IA generativa para evaluaciones, frente al 53% del año anterior.

Para los adolescentes específicamente, las restricciones incluirán entrenar a ChatGPT para no participar en conversaciones coquetas ni discutir sobre suicidio y autolesiones, incluso en contextos de escritura creativa.

Si el sistema detecta ideación suicida en usuarios menores de 18 años, intentará contactar con los padres y si no logra comunicarse, podría notificar a las autoridades en casos de daño inminente.