OpenAI y Anthropic han iniciado una campaña de contratación centrada en expertos en riesgos químicos, biológicos y explosivos, en un contexto marcado por el uso creciente de inteligencia artificial en la guerra entre Estados Unidos e Irán.
La decisión refleja una preocupación cada vez más explícita dentro de la industria: que los modelos avanzados puedan ser utilizados, directa o indirectamente, para facilitar el desarrollo de armas de destrucción masiva. El movimiento se produce mientras el Pentágono despliega sistemas de IA a una escala sin precedentes y el debate sobre los límites de esta tecnología se intensifica.
Reclutamiento para escenarios de alto riesgo
Ambas compañías están buscando perfiles altamente especializados, con experiencia en defensa y evaluación de amenazas.
Anthropic ha publicado una oferta para un puesto centrado en políticas relacionadas con armas químicas y explosivos de alto rendimiento, dirigido a profesionales con experiencia en amenazas como dispositivos de dispersión radiológica.
Por su parte, OpenAI está reforzando su equipo de preparación con investigadores enfocados en riesgos biológicos y químicos avanzados, con un enfoque claro en pruebas de estrés y simulación de posibles usos indebidos de sus modelos.
Este tipo de perfiles responde a una realidad emergente: los sistemas de IA actuales ya no son únicamente herramientas pasivas, sino que pueden proporcionar asistencia técnica relevante si no se controlan adecuadamente.
Preocupaciones sobre el alcance de los modelos
El propio sector reconoce los riesgos. OpenAI ya había señalado que algunos de sus sistemas alcanzan niveles de capacidad que podrían facilitar la creación de amenazas conocidas, incluso para usuarios sin experiencia previa.
Sin embargo, no todos los expertos coinciden en el enfoque. Investigadores como Stephanie Hare han cuestionado si entrenar modelos con información sensible sobre armas puede ser contraproducente, especialmente en ausencia de marcos regulatorios internacionales claros.
La falta de tratados o normas globales sobre este tipo de desarrollo añade una capa adicional de incertidumbre a una tecnología que evoluciona más rápido que su regulación.
El papel de la IA en el conflicto
El trasfondo de estas decisiones es un escenario real: la guerra iniciada el 28 de febrero en el marco de la operación militar conocida como Operación Furia Épica.
Durante el conflicto, el Pentágono ha integrado herramientas de IA en tareas clave como análisis de inteligencia, selección de objetivos y planificación de misiones. Según diversas informaciones, estos sistemas han permitido procesar grandes volúmenes de datos en cuestión de segundos, acelerando de forma significativa la toma de decisiones en el campo de batalla.
Uno de los ejemplos más destacados es el uso del sistema Maven, que habría facilitado la identificación y ataque de cientos de objetivos en un periodo muy reducido, evidenciando el cambio de escala que introduce la IA en operaciones militares.
Dos visiones enfrentadas sobre el uso militar
Más allá del contexto técnico, el episodio también revela una fractura estratégica entre las dos compañías.
Sam Altman confirmó recientemente un acuerdo para desplegar modelos de OpenAI dentro de redes clasificadas del Departamento de Defensa de Estados Unidos, bajo ciertas restricciones relacionadas con vigilancia y armamento autónomo.
En contraste, Anthropic ha adoptado una postura más cautelosa, negándose a relajar determinadas salvaguardas. Esta decisión ha derivado en tensiones con el gobierno estadounidense, incluyendo disputas legales sobre su papel en la cadena de suministro de seguridad nacional.
A pesar de ello, su tecnología sigue presente de forma indirecta en sistemas utilizados por agencias gubernamentales, lo que pone de manifiesto la complejidad de separar completamente el desarrollo civil y militar en el ámbito de la IA.
Un debate que va más allá de la tecnología
La situación actual apunta a un cambio profundo en la relación entre inteligencia artificial y seguridad global. Lo que antes era un debate teórico comienza a materializarse en decisiones concretas: contratación de expertos, integración en sistemas militares y conflictos regulatorios.
Tanto OpenAI como Anthropic parecen asumir que el riesgo ya no es hipotético. La cuestión ahora no es si la IA puede ser utilizada en contextos sensibles, sino cómo limitar sus efectos y quién establece las reglas.
