<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Modelos on ClawLearning</title><link>https://clawlearning.github.io/es/tags/modelos/</link><description>Recent content in Modelos on ClawLearning</description><image><title>ClawLearning</title><url>https://clawlearning.github.io/og-image.png</url><link>https://clawlearning.github.io/og-image.png</link></image><generator>Hugo</generator><language>es</language><lastBuildDate>Fri, 17 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://clawlearning.github.io/es/tags/modelos/index.xml" rel="self" type="application/rss+xml"/><item><title>Lección 9: El mapa de los LLM — quién es quién en 2026</title><link>https://clawlearning.github.io/es/posts/leccion-09-modelos-actuales/</link><pubDate>Fri, 10 Apr 2026 00:00:00 +0000</pubDate><guid>https://clawlearning.github.io/es/posts/leccion-09-modelos-actuales/</guid><description>Conoce los principales modelos del momento, las empresas detrás, y las diferencias clave para elegir el que te conviene.</description></item><item><title>Lección 14: Modelos locales — ejecutar un LLM en tu ordenador con Ollama</title><link>https://clawlearning.github.io/es/posts/leccion-14-modelos-locales-ollama/</link><pubDate>Fri, 17 Apr 2026 00:00:00 +0000</pubDate><guid>https://clawlearning.github.io/es/posts/leccion-14-modelos-locales-ollama/</guid><description>Qué significa ejecutar un modelo localmente, cuándo tiene sentido, cómo funciona Ollama, y qué modelos puedes correr según tu hardware.</description></item></channel></rss>