Cómo Instalar la IA DeepSeek R1 localmente en Linux

DeepSeek R1 se ha convertido en uno de los modelos de IA más populares. Si bien su versión en la nube es accesible, ejecutarlo localmente ofrece más privacidad y control.

En esta guía, te explicamos cómo instalar DeepSeek R1 en Linux usando Ollama como backend y Open WebUI como interfaz gráfica.

Requisitos Previos a Instalar DeepSeek en Linux

Antes de comenzar, asegúrate de cumplir con los siguientes requisitos:

  • Un sistema con Linux (Ubuntu, Debian, etc.).
  • Tarjeta gráfica Nvidia o AMD.
  • Acceso a Internet para la descarga de paquetes.

Paso 1: Instalar Ollama

Ollama es una plataforma ligera y eficiente para ejecutar modelos de lenguaje localmente.

Instalación de Ollama

Ejecuta el siguiente comando en la terminal:

curl -fsSL https://ollama.com/install.sh | sh

Verifica la instalación:

ollama --version

Paso 2: Instalar y Ejecutar el Modelo DeepSeek R1

Descarga y ejecuta el modelo con el siguiente comando:

ollama run deepseek-r1:1.5b

Este proceso puede tardar según la velocidad de tu conexión a Internet. Una vez descargado, podrás interactuar con DeepSeek desde la terminal.

Paso 3: Configurar Open WebUI

Para una mejor experiencia, utilizaremos Open WebUI como interfaz. Hay dos formas de instalarlo: manualmente o mediante Docker.

Método 1: Instalación Directa

1. Instala Python y el entorno virtual

sudo apt install python3-venv -y

2. Crea un entorno virtual

python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate

3. Instala Open WebUI

pip install open-webui

4. Ejecuta Open WebUI

open-webui serve

5. Accede en el navegador a localhost

http://localhost:8080

Método 2: Instalación con Docker (Recomendada)

Si prefieres usar Docker, sigue los siguientes pasos.

1. Descarga la imagen de Open WebUI

docker pull ghcr.io/open-webui/open-webui:main

2. Ejecuta el contenedor

docker run -d 
  -p 3000:8080 
  --add-host=host.docker.internal:host-gateway 
  -v open-webui:/app/backend/data 
  --name open-webui 
  --restart always 
  ghcr.io/open-webui/open-webui:main
  1. Accede en el navegador a localhost..
http://localhost:3000

Conclusión

Siguiendo estos pasos, ahora tienes DeepSeek R1 funcionando localmente en tu sistema Linux.

Bien sea que prefieras la instalación directa o mediante Docker, Open WebUI proporciona una interfaz amigable para interactuar con el modelo.

¡Disfruta de tu nueva IA local y experimenta sin límites!


Descubre más desde CIBERED

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario