OpenAI está configurado para lanzar un clasificador de detección de imágenes para identificar si una imagen fue creada usando su DALL-E 3.
Esta herramienta utilizará IA para predecir la probabilidad de que una foto haya sido generada por IA y cuenta con una alta tasa de precisión de aproximadamente el 98% en detectar imágenes generadas por DALL-E 3, incluso si las imágenes han sido recortadas, comprimidas o ajustado su saturación.
Este desarrollo se alinea con las crecientes preocupaciones sobre el posible uso indebido del contenido generado por IA. El clasificador de detección de imágenes de OpenAI es solo una pieza del rompecabezas.
Su Media Manager recientemente anunciado permite a los creadores controlar cómo se utilizan sus obras en los sistemas de inteligencia artificial, enfatizando aún más su compromiso con la originalidad del contenido.

¿Qué sabemos sobre el clasificador de detección de imágenes de OpenAI?
OpenAI destaca la importancia de establecer un enfoque común para verificar la autenticidad del contenido. Aquí hay un resumen detallado de sus esfuerzos en este frente:
Unirse al Comité Directivo de C2PA
OpenAI se ha unido al equipo de liderazgo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA). C2PA es un estándar ampliamente adoptado para la certificación de contenido digital utilizado por diversas partes interesadas, como empresas de software, fabricantes de cámaras y plataformas en línea.
La integración de metadatos C2PA permite a OpenAI proporcionar información clara sobre el proceso de creación de contenido (similar a los datos de la cámara integrados en las fotografías). Esto fomenta la transparencia al permitir a los usuarios comprender el origen del contenido que encuentran en línea.
Invertir en transparencia

OpenAI, en colaboración con Microsoft, lanzó un fondo de resiliencia social de 2 millones de dólares. Este fondo apoya la educación y la comprensión de la IA a través de organizaciones centradas en empoderar a los adultos mayores, promover ideales democráticos y fomentar el desarrollo responsable de la IA.
Esta iniciativa enfatiza la importancia de educar a los usuarios sobre el contenido generado por IA y cómo verificar su autenticidad.
Si bien la promoción de C2PA y la educación de los usuarios son aspectos cruciales, OpenAI reconoce que estos esfuerzos requieren una colaboración más amplia de la industria. La sección concluye destacando la necesidad de que las plataformas, los creadores de contenido y los intermediarios trabajen juntos.
Esta colaboración es esencial para garantizar que se mantenga la transparencia en torno a la procedencia del contenido durante todo el ciclo de vida del mismo, desde su creación hasta su intercambio y reutilización.
¿Cómo beneficiará esto a los usuarios?
- Transparencia para los usuarios: los consumidores pueden comprender el origen y el proceso de creación detrás del contenido que encuentran en línea. Esto les permite tomar decisiones informadas sobre su validez y fuente.
- Empoderamiento para los creadores: C2PA ayuda a los creadores a mantener el control sobre su trabajo y recibir la atribución adecuada cuando su contenido se utiliza o se reutiliza.
- Combatir la desinformación: al identificar el contenido generado por IA, C2PA puede ayudar a reducir la difusión de información errónea al facilitar la identificación de contenido que puede no ser una representación real de la realidad.
¿Qué tipo de imágenes se detectarán?
OpenAI está implementando marcas de agua resistentes a manipulaciones, particularmente para contenido de audio como voces.
De manera similar a cómo se incrusta una marca de agua en un documento físico, esta señal invisible identifica la fuente del audio y es difícil de eliminar sin ser detectada. Esta tecnología puede ser crucial en la lucha contra los deepfakes, donde el audio manipulado puede utilizarse con fines maliciosos.
OpenAI está desarrollando clasificadores de detección, esencialmente herramientas de inteligencia artificial entrenadas para analizar contenido y evaluar la probabilidad de que se origine a partir de modelos generativos de inteligencia artificial. Inicialmente, estos clasificadores se centran en identificar imágenes producidas por el propio sistema DALL-E 3 de OpenAI.
¿Qué tan efectivo es este clasificador de detección de imágenes?
- Alta precisión para imágenes de DALL-E 3: las pruebas internas muestran una tasa de precisión impresionante de alrededor del 98 % en el reconocimiento de imágenes generadas por DALL-E 3.
- Resiliencia frente a ediciones comunes: el clasificador está diseñado para manejar modificaciones de imágenes comunes, como compresión, recorte y ajustes de saturación, con un impacto mínimo en su capacidad para identificar contenido generado por IA.
- Distinguir entre modelos de IA: si bien es muy precisa para las creaciones de DALL-E 3, la versión actual tiene dificultades para diferenciar las imágenes de DALL-E 3 de las producidas por otros modelos de IA. Actualmente, marca incorrectamente aproximadamente entre el 5% y el 10% de las imágenes de otros modelos de IA.