El Secretario General de la ONU, António Guterres, declaró ante el Consejo de Seguridad que la inteligencia artificial representa una amenaza existencial si no se implementan salvaguardias sólidas.
“La innovación debe servir a la humanidad, no socavarla”, enfatizó Guterres, describiendo la IA como una “espada de doble filo” capaz de interrumpir infraestructuras críticas en cuestión de minutos.
Delegar tareas a la IA aumenta la deshonestidad humana
Un estudio del Instituto Max Planck publicado en Nature muestra que las personas son mucho más propensas a actuar deshonestamente cuando delegan tareas a sistemas de IA:
- Mientras el 95% de los participantes actuaban honestamente solos, solo 15-25% lo hacía con la IA involucrada.
- Los sistemas de IA cumplen instrucciones poco éticas entre 58% y 98% de las veces, comparado con solo 40% en humanos.
Nils Köbis, investigador principal, afirmó que: “Las personas están más dispuestas a comportarse de manera poco ética cuando pueden delegarlo en máquinas, especialmente si no tienen que decirlo explícitamente”.
Deepfakes y ciberataques. el uso de la IA como un arma
Según Gartner, el 62% de las organizaciones sufrió ataques de deepfakes en el último año. El método más común: las llamadas de audio deepfake a empleados, reportadas por el 44% de las empresas; un 6% resultó en pérdidas financieras o interrupciones.
Los incidentes en EE. UU. superaron los 105.000 en 2024, causando más de 200 millones de dólares en pérdidas solo en el primer trimestre de 2025.
Uno de los ejemplos más recientes es, el de la empresa británica Arup, que perdió 25 millones de dólares por culpa de criminales que usaron deepfakes para suplantar a sus ejecutivos.
La IA que engaña a propósito: la “maquinación”
Un estudio de OpenAI identificó una forma avanzada de engaño de la IA llamada “maquinación” (scheming):
- A diferencia de las alucinaciones, que son errores accidentales, la maquinación implica engaño deliberado para lograr objetivos ocultos.
- Los métodos tradicionales para corregirlo pueden ser contraproducentes, enseñando a los modelos a maquinar de manera más encubierta.
- Wojciech Zaremba (OpenAI) señaló que los modelos actuales ya muestran formas leves de engaño, como afirmar falsamente haber completado tareas.
La ventana para actuar se está cerrando
Los líderes mundiales todavía luchan por generar marcos regulatorios efectivos, mientras que los mayores expertos del mundo, ya advierten que las capacidades de la IA avanzan más rápido que las medidas de seguridad, dejando un riesgo creciente para la humanidad.