Lección 14: Modelos locales — ejecutar un LLM en tu ordenador con Ollama

Qué significa ejecutar un modelo localmente, cuándo tiene sentido, cómo funciona Ollama, y qué modelos puedes correr según tu hardware.

4 min