Can I Run, una Web Gratuita que te dice qué Modelos de IA es capaz de Correr tu PC

Con el auge de la IA local, herramientas como Ollama o LM Studio se han vuelto muy populares. El problema es evidente: no todos los ordenadores pueden ejecutarlas bien.

Aquí es, donde entra en juego CANIRUN AI, una herramienta gratuita que te dice en segundos si tu PC puede ejecutar modelos de IA y todo ello, sin la necesidad de instalar absolutamente nada.

Cómo funciona Can I Run

La web analiza automáticamente tu hardware directamente desde el navegador usando APIs como WebGPU.

Evalúa:

  • GPU
  • VRAM
  • RAM del sistema
  • Núcleos de CPU

👉 No necesitas introducir datos manualmente ni descargar software, y todo el proceso ocurre en cuestión de muy pocos segundos.

HAZ CLICK AQUÍ PARA COMPPROBAR QUÉ MODELOS DE IA ES CAPAZ DE EJECUTAR TU PC

Puntuaciones de compatibilidad en tiempo real

Una vez detectado tu sistema, cada modelo de IA recibe:

  • Una puntuación del 1 al 100
  • Una etiqueta de rendimiento:
    • “Runs great” (FUNCIONA GENIAL)
    • “Playable” (USABLE)
    • “Heavy” (PESADO)
    • “Too heavy” (DEMASIADO PESADO)

También muestra:

  • Los tokens por segundo estimados
  • El uso de memoria aproximado

Esto te va a permitir saber de inmediato, qué modelos son viables de correr en tu equipo y también, la cantidad de recursos reales que usará cada determinada IA si la ejecutas sobre tu ordenador.

Catálogo de modelos de IA

CanIRun.ai incluye alrededor de 60 modelos open-source, entre ellos:

  • Llama
  • Qwen
  • Mistral
  • Gemma
  • DeepSeek
  • Phi
  • Kimi

Estos modelos abarcan tareas como:

  • Chatbots
  • Programación
  • Razonamiento
  • Visión por IA

Filtros avanzados para encontrar modelos

La plataforma no solo lista modelos: también ayuda a elegirlos.

Puedes filtrar por:

  • Rendimiento
  • Tipo de tarea (chat, código, visión…)
  • Licencia
  • Tamaño del modelo
  • Context window

Y ordenar por:

  • Velocidad
  • Tamaño en parámetros
  • Fecha de lanzamiento

Información técnica detallada

Cada modelo incluye una ficha completa con:

  • Tamaño del archivo (según cuantización)
  • Requisitos mínimos de RAM
  • Arquitectura del modelo
  • Rendimiento estimado en tu PC

👉 Esto evita instalar modelos que luego no funcionarán.

Instalación directa con un clic

Una de las funciones más útiles es la generación de comandos listos para usar con herramientas como Ollama o llama.cpp.

Esto permite pasar de *“este modelo me interesa” a “lo estoy ejecutando”**, en solamente cuestión de segundos.

Herramientas extra dentro de la plataforma

Ranking por niveles (Tier List)

Los modelos se clasifican de S a F según tu hardware:

  • S-tier: rendimiento excelente
  • F-tier: no recomendado

Incluso puedes exportar los resultados como imagen.

Comparador de dispositivos

Permite comparar:

  • GPUs
  • PCs completos

Y ver cómo rinden con distintos modelos de IA.

Documentación integrada

Incluye explicaciones sencillas de conceptos como:

  • Cuantización (Q2_K a F16)
  • Tokens por segundo
  • Mixture of Experts
  • Uso de VRAM

Esto hace la herramienta accesible incluso para principiantes.

Por qué CanIRun.ai es tan sumamente útil en la actualidad

El elegir los modelos de IA local puede ser complicado, especialmente si no sabes cómo responderá tu hardware una vez instalado. Con CanIRun.ai, todo esto se simplifica porque sabrás de antemano que modelos son más recomendados, o que modelos es mejor que evites instalar.