Llamafile 0.9.3 añade soporte para qwen3 y phi4

Llamafile 0.9.3 ya está disponible, trayendo importantes mejoras a este proyecto de Mozilla que permite distribuir y ejecutar modelos de lenguaje grandes (LLMs) como un único archivo ejecutable de forma multiplataforma y sin depender de hardware específico.

Entre las novedades destacadas de esta versión:

  • Soporte para los modelos Qwen3 y Phi4, gracias a cambios heredados del proyecto Llama.cpp.
  • Mejoras en LocalScore, el sistema de benchmarking local para LLMs creado por Mozilla Builders. Se han implementado correcciones sugeridas por la comunidad para mejorar las pruebas de rendimiento locales.
  • Actualizaciones menores en la documentación y otras optimizaciones.

Llamafile sigue posicionándose como una solución práctica y portable para ejecutar IA localmente, ideal para desarrolladores que buscan trabajar con LLMs sin depender de la nube.

Más información y descargas, disponibles en el GitHub oficial del proyecto.