Para instalar Ollama en tu PC o portátil bajo Linux, primero, debes tener instalado Python3:sudo apt-get install python
Y ahora, ya puedes instalarlo en local, pero antes necesitarás tener instalado Curl. Para ello, escribe en la terminal sudo apt install curl.
Una vez instalado curl, si no lo tuvieras, ya puedes proceder a instalar Ollama con el siguiente comando:
curl -fsSL https://ollama.com/install.sh | sh
Ver versión de ollama instalado y ejecutarlo localmente:
ollama -v
ollama run deepseek-r1
Uso de Ollama
Una vez que Ollama esté instalado, puedes comenzar a descargar y ejecutar modelos de lenguaje. La documentación oficial de Ollama proporcionará ejemplos y comandos específicos para interactuar con los modelos.
Recuerda consultar la documentación oficial de Ollama (https://github.com/ollama/ollama/blob/main/docs/api.md) para obtener más detalles sobre su uso y características avanzadas.
+ info:
- Download Ollama: https://ollama.com/download
- Qué es Ollama y cómo usarlo para instalar en tu ordenador modelos de inteligencia artificial como Llama, DeepSeek y más: https://www.xataka.com/basics/que-ollam ... a-deepseek
NOTA: Te recomiendo la lectura de este interesante y descriptivo artículo de elhacker.net al respecto: https://blog.elhacker.net/2025/01/insta ... local.html
En concreto, voy a probar un entorno, aunque con la línea de comandos me vaya bien:
Ejecutar DeepSeek en una interfaz web
Aunque Ollama le permite interactuar con DeepSeek a través de la línea de comandos, es posible que prefiera una interfaz web más fácil de usar. Para ello, utilizaremos Ollama Web UI, una sencilla interfaz basada en web para interactuar con los modelos de Ollama.
En primer lugar, cree un entorno virtual que aísle sus dependencias de Python de la instalación de Python en todo el sistema.
sudo apt install python3-venv
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate
Ahora que tu entorno virtual está activo, puedes instalar Open WebUI usando pip.
pip install open-webui
open-webui serve
Abre tu navegador web y navegue hasta http://localhost:8080 - debería ver la interfaz Web UI de Ollama.
En la interfaz web, selecciona el modelo de DeepSeek en el menú desplegable y empiecz a interactuar con él. Puedes hacer preguntas, generar texto o realizar otras tareas compatibles con DeepSeek.