🏠

Chatbot Local con Ollama

🧑‍🎓 Aprendiz⏱️ 20 minutos

📋 Prerequisitos sugeridos

  • Trío de APIs completado (opcional)
  • 8GB RAM mínimo

Lo que vas a construir

Vas a instalar Ollama y correr un modelo de IA directamente en tu computadora, sin internet y sin API keys. Descargarás un modelo como Llama 3.2, lo ejecutarás en tu terminal, y podrás chatear con él. Al terminar, tendrás tu propio chatbot local que funciona offline, es completamente privado, y no tiene costos por uso. Ideal para datos sensibles, aprender cómo funcionan los LLMs, o simplemente tener IA siempre disponible.


¿Por qué un modelo local?

Cloud (Gemini, Claude, OpenAI)Local (Ollama)
Requiere internetFunciona offline
Tus datos van a sus servidoresTus datos quedan en tu máquina
Pago por usoGratis (después de descargar)
Modelos más potentesModelos más pequeños

💡 Ideal para: datos sensibles, sin internet, o simplemente aprender cómo funcionan los LLMs por dentro.


Paso 1: Instalar Ollama

SistemaComando
macOSbrew install ollama
Linuxcurl -fsSL https://ollama.ai/install.sh | sh
WindowsDescarga desde ollama.com/download

Verifica la instalación:

ollama --version

Paso 2: Descargar un modelo

ollama pull llama3.2

⏳ La primera vez descarga ~2GB. Después es instantáneo.


Paso 3: ¡Chatear!

ollama run llama3.2

Escribe tu mensaje y presiona Enter. Para salir: /bye


Si algo falló

ErrorCausaSolución
command not found: ollamaNo instaladoReinstala Ollama
model not foundNo descargadoEjecuta ollama pull llama3.2
Muy lentoPoca RAMUsa modelo más pequeño: llama3.2:1b
Se congelaRAM insuficienteCierra otras apps, necesitas 8GB libres

Bonus: Chatbot programático

¿Quieres usar Ollama desde código (como hiciste con las APIs)?

Pídele a cualquier IA:

Necesito un chatbot en Node.js que:
- Use Ollama localmente (no API key)
- Funcione en terminal
- Mantenga historial de conversación

Dame el código y comandos.

Ollama tiene una API REST local en http://localhost:11434.


¿Qué aprendiste?

API CloudModelo Local
API key requeridaSin API key
Internet requeridoFunciona offline
Servidor remotoTu computadora

El código es casi igual. Solo cambia el endpoint.


Próximo paso

Chat con Interfaz Web — Dale una cara bonita a tu chatbot