DeepNude fue un software desarrollado en 2019 que utilizaba inteligencia artificial para generar imágenes falsas de desnudos a partir de fotografías de mujeres con ropa.
El programa empleaba redes neuronales generativas (GAN), un tipo de modelo de IA entrenado con grandes conjuntos de imágenes reales para aprender a reproducir texturas, colores y formas corporales con apariencia auténtica.
El nombre “DeepNude” proviene de la fusión de dos términos:
- “Deep”, de aprendizaje profundo o más conocido por “deep learning”.
- “Nude”, que significa “desnudo” en inglés.
Su creador retiró el programa poco después de su lanzamiento, al reconocer su potencial de abuso y las implicaciones éticas y legales relacionadas con la manipulación no consentida de imágenes.
Aún existe DeepNude
No, o al menos de manera oficial. El programa original fue cerrado en 2019, aunque siguen circulan clones o imitaciones en la red que dicen ofrecer funciones similares, la mayoría son fraudulentas o malware.
Cómo funcionaba
DeepNude aplicaba una red neuronal entrenada para “reconstruir” las partes ocultas del cuerpo en fotografías.
En términos técnicos:
- Analizaba los contornos y la postura de la persona.
- Sustituía las áreas cubiertas por zonas generadas artificialmente basadas en un modelo de cuerpo aprendido.
- Mezclaba la imagen sintética con la original mediante técnicas de “blending” y ajuste de color para lograr un resultado más realista.
El modelo no era mágico ni exacto; las imágenes resultantes eran simulaciones probabilísticas, no reproducciones reales de los cuerpos de las personas fotografiadas.
Por qué generó tanta controversia
DeepNude desató un debate sobre los límites éticos del uso de la inteligencia artificial.
Muchos expertos y gobiernos advirtieron que su uso podía violar derechos de imagen y privacidad, ya que permitía crear falsificaciones visuales sin consentimiento.
La aplicación original fue retirada, pero su código o versiones modificadas continuaron circulando por internet bajo otros nombres.
Muchos países han desarrollado normas sobre contenido falso o íntimo generado sin consentimiento, catalogándolo como una forma de violencia digital o pornografía no consensuada.
A pesar de que muchas de esas leyes, son ampliamente de ejecutar, puesto que no existe una colaboración internacional entre todos los países del mundo..
Por tanto, dependiendo del país que sea la persona encargada de ejecutar el delito. La posibilidad de que se detenido o juzgada, es altamente improbable.
Preguntas frecuentes sobre DeepNude
¿Es legal usar un programa de este tipo?
No. En la mayoría de los países, generar o compartir imágenes íntimas falsas sin consentimiento viola leyes de privacidad y derechos de imagen, y en muchos de ellos constituye un delito.
¿Por qué hay tanto interés en DeepNude?
Por la curiosidad tecnológica y el impacto mediático de haber usado IA con fines sexuales. También, porque el nombre se asocia con el inicio de los deepfakes de contenido aún más explícito.
¿Existen usos éticos de esta tecnología?
Sí. Los modelos generativos se emplean de forma legítima en medicina, cine, videojuegos o moda, siempre con consentimiento y fines creativos u científicos.
¿Cómo protegerse de que se use una imagen personal así?
Evitar publicar fotos personales sin control de privacidad, revisar los permisos de uso de imagen y reportar cualquier contenido no consentido en plataformas o a las autoridades.
