Llamafile 0.9.3 ya está disponible, trayendo importantes mejoras a este proyecto de Mozilla que permite distribuir y ejecutar modelos de lenguaje grandes (LLMs) como un único archivo ejecutable de forma multiplataforma y sin depender de hardware específico.
Entre las novedades destacadas de esta versión:
- Soporte para los modelos Qwen3 y Phi4, gracias a cambios heredados del proyecto Llama.cpp.
- Mejoras en LocalScore, el sistema de benchmarking local para LLMs creado por Mozilla Builders. Se han implementado correcciones sugeridas por la comunidad para mejorar las pruebas de rendimiento locales.
- Actualizaciones menores en la documentación y otras optimizaciones.
Llamafile sigue posicionándose como una solución práctica y portable para ejecutar IA localmente, ideal para desarrolladores que buscan trabajar con LLMs sin depender de la nube.
Más información y descargas, disponibles en el GitHub oficial del proyecto.