Lo que vas a construir
Vas a instalar Ollama y correr un modelo de IA directamente en tu computadora, sin internet y sin API keys. Descargarás un modelo como Llama 3.2, lo ejecutarás en tu terminal, y podrás chatear con él. Al terminar, tendrás tu propio chatbot local que funciona offline, es completamente privado, y no tiene costos por uso. Ideal para datos sensibles, aprender cómo funcionan los LLMs, o simplemente tener IA siempre disponible.
¿Por qué un modelo local?
| Cloud (Gemini, Claude, OpenAI) | Local (Ollama) |
|---|---|
| Requiere internet | Funciona offline |
| Tus datos van a sus servidores | Tus datos quedan en tu máquina |
| Pago por uso | Gratis (después de descargar) |
| Modelos más potentes | Modelos más pequeños |
💡 Ideal para: datos sensibles, sin internet, o simplemente aprender cómo funcionan los LLMs por dentro.
Paso 1: Instalar Ollama
| Sistema | Comando |
|---|---|
| macOS | brew install ollama |
| Linux | curl -fsSL https://ollama.ai/install.sh | sh |
| Windows | Descarga desde ollama.com/download |
Verifica la instalación:
ollama --version
Paso 2: Descargar un modelo
ollama pull llama3.2
⏳ La primera vez descarga ~2GB. Después es instantáneo.
Paso 3: ¡Chatear!
ollama run llama3.2
Escribe tu mensaje y presiona Enter. Para salir: /bye
Si algo falló
| Error | Causa | Solución |
|---|---|---|
command not found: ollama | No instalado | Reinstala Ollama |
model not found | No descargado | Ejecuta ollama pull llama3.2 |
| Muy lento | Poca RAM | Usa modelo más pequeño: llama3.2:1b |
| Se congela | RAM insuficiente | Cierra otras apps, necesitas 8GB libres |
Bonus: Chatbot programático
¿Quieres usar Ollama desde código (como hiciste con las APIs)?
Pídele a cualquier IA:
Necesito un chatbot en Node.js que:
- Use Ollama localmente (no API key)
- Funcione en terminal
- Mantenga historial de conversación
Dame el código y comandos.
Ollama tiene una API REST local en http://localhost:11434.
¿Qué aprendiste?
| API Cloud | Modelo Local |
|---|---|
| API key requerida | Sin API key |
| Internet requerido | Funciona offline |
| Servidor remoto | Tu computadora |
El código es casi igual. Solo cambia el endpoint.
Próximo paso
→ Chat con Interfaz Web — Dale una cara bonita a tu chatbot