Lección 14: Modelos locales — ejecutar un LLM en tu ordenador con Ollama
Qué significa ejecutar un modelo localmente, cuándo tiene sentido, cómo funciona Ollama, y qué modelos puedes correr según tu hardware.
Qué significa ejecutar un modelo localmente, cuándo tiene sentido, cómo funciona Ollama, y qué modelos puedes correr según tu hardware.