Con el auge de la IA local, herramientas como Ollama o LM Studio se han vuelto muy populares. El problema es evidente: no todos los ordenadores pueden ejecutarlas bien.
Aquí es, donde entra en juego CANIRUN AI, una herramienta gratuita que te dice en segundos si tu PC puede ejecutar modelos de IA y todo ello, sin la necesidad de instalar absolutamente nada.
Cómo funciona Can I Run
La web analiza automáticamente tu hardware directamente desde el navegador usando APIs como WebGPU.
Evalúa:
- GPU
- VRAM
- RAM del sistema
- Núcleos de CPU
👉 No necesitas introducir datos manualmente ni descargar software, y todo el proceso ocurre en cuestión de muy pocos segundos.
HAZ CLICK AQUÍ PARA COMPPROBAR QUÉ MODELOS DE IA ES CAPAZ DE EJECUTAR TU PC
Puntuaciones de compatibilidad en tiempo real
Una vez detectado tu sistema, cada modelo de IA recibe:
- Una puntuación del 1 al 100
- Una etiqueta de rendimiento:
- “Runs great” (FUNCIONA GENIAL)
- “Playable” (USABLE)
- “Heavy” (PESADO)
- “Too heavy” (DEMASIADO PESADO)
También muestra:
- Los tokens por segundo estimados
- El uso de memoria aproximado
Esto te va a permitir saber de inmediato, qué modelos son viables de correr en tu equipo y también, la cantidad de recursos reales que usará cada determinada IA si la ejecutas sobre tu ordenador.
Catálogo de modelos de IA
CanIRun.ai incluye alrededor de 60 modelos open-source, entre ellos:
- Llama
- Qwen
- Mistral
- Gemma
- DeepSeek
- Phi
- Kimi
Estos modelos abarcan tareas como:
- Chatbots
- Programación
- Razonamiento
- Visión por IA
Filtros avanzados para encontrar modelos
La plataforma no solo lista modelos: también ayuda a elegirlos.
Puedes filtrar por:
- Rendimiento
- Tipo de tarea (chat, código, visión…)
- Licencia
- Tamaño del modelo
- Context window
Y ordenar por:
- Velocidad
- Tamaño en parámetros
- Fecha de lanzamiento
Información técnica detallada
Cada modelo incluye una ficha completa con:
- Tamaño del archivo (según cuantización)
- Requisitos mínimos de RAM
- Arquitectura del modelo
- Rendimiento estimado en tu PC
👉 Esto evita instalar modelos que luego no funcionarán.
Instalación directa con un clic
Una de las funciones más útiles es la generación de comandos listos para usar con herramientas como Ollama o llama.cpp.
Esto permite pasar de *“este modelo me interesa” a “lo estoy ejecutando”**, en solamente cuestión de segundos.
Herramientas extra dentro de la plataforma
Ranking por niveles (Tier List)
Los modelos se clasifican de S a F según tu hardware:
- S-tier: rendimiento excelente
- F-tier: no recomendado
Incluso puedes exportar los resultados como imagen.
Comparador de dispositivos
Permite comparar:
- GPUs
- PCs completos
Y ver cómo rinden con distintos modelos de IA.
Documentación integrada
Incluye explicaciones sencillas de conceptos como:
- Cuantización (Q2_K a F16)
- Tokens por segundo
- Mixture of Experts
- Uso de VRAM
Esto hace la herramienta accesible incluso para principiantes.
Por qué CanIRun.ai es tan sumamente útil en la actualidad
El elegir los modelos de IA local puede ser complicado, especialmente si no sabes cómo responderá tu hardware una vez instalado. Con CanIRun.ai, todo esto se simplifica porque sabrás de antemano que modelos son más recomendados, o que modelos es mejor que evites instalar.
