En una impactante demostración de reducción de costos en IA, Jiayi Pan, un candidato a doctorado en la Universidad de California afirma que su equipo de investigación ha replicado las funciones principales de R1-Zero de DeepSeek por apenas 30 euros.
Esta revelación es particularmente llamativa dado que el propio modelo de DeepSeek, que supuestamente costó solo unos pocos millones de dólares en entrenamiento, ya está causando revuelo en el mundo tecnológico.
Aunque aún se necesita una verificación independiente, la afirmación subraya un cambio creciente en la investigación de IA.
El enfoque tradicional de entrenar modelos a gran escala con una enorme potencia computacional está siendo desafiado por nuevas metodologías eficientes que podrían redefinir el panorama financiero para los principales actores de la IA como OpenAI, Meta y Google.
TinyZero, la IA minimalista
En un anuncio en X (anteriormente Twitter) Pan explicó que el modelo de su equipo fue entrenado en torno al juego de cuenta regresiva, un rompecabezas basado en números que requiere que los jugadores construyan ecuaciones para alcanzar una cifra objetivo.
Inicialmente produciendo «salidas de prueba,» el modelo aprendió gradualmente mejores tácticas mediante el entrenamiento por refuerzo.
Su creación, denominada «TinyZero» está actualmente disponible en GitHub para experimentación pública.
Pan enfatizó su intención de desmitificar la investigación sobre la escalabilidad del aprendizaje por refuerzo (RL) y hacerla más accesible para la comunidad de IA.
Un momento de David contra Goliat en la IA
Si bien R1-Zero opera con 3 mil millones de parámetros—muy por debajo de su contraparte más grande R1 que cuenta con 671 mil millones—este logro podría cambiar las reglas del juego para los desarrolladores de IA de código abierto que buscan enfoques más optimizados para el entrenamiento de IA.
El modelo R1 de DeepSeek ya ha ejercido presión sobre gigantes de la IA como Microsoft y Google, cuyas costosas iniciativas de inteligencia artificial general (AGI) han llevado a enormes inversiones financieras.
Con DeepSeek demostrando que los modelos de IA de alto rendimiento pueden desarrollarse a una fracción del costo, los inversores de la industria comienzan a cuestionar por qué las grandes corporaciones requieren infraestructuras de IA multimillonarias.
Las implicaciones para las grandes tecnológicas
El éxito de modelos rentables como TinyZero plantea una pregunta importante: Si un pequeño equipo de investigación puede recrear capacidades fundamentales de IA por solo $30, ¿Por qué los grandes conglomerados tecnológicos necesitan cientos de miles de millones en financiamiento para IA?
Este cambio de paradigma podría obligar a los líderes de la industria a replantear sus estrategias de IA a largo plazo, abriendo potencialmente la puerta a un futuro de IA más democratizado y accesible.
Artículos Relacionados
Descubre más desde CIBERED
Suscríbete y recibe las últimas entradas en tu correo electrónico.

