[{"content":"¿Qué es la Inteligencia Artificial? La Inteligencia Artificial (IA) es la capacidad de una máquina para realizar tareas que normalmente requerirían inteligencia humana. Cosas como entender texto, reconocer imágenes, tomar decisiones o mantener una conversación.\nPero atención: cuando decimos \u0026ldquo;inteligencia\u0026rdquo; no queremos decir que la máquina piense, sienta o tenga consciencia. Significa que puede procesar información y dar respuestas útiles de manera que parece inteligente.\nLa IA no es lo que sale en las películas Olvidémonos de Terminator, HAL 9000 y Matrix. La IA real de 2026 no quiere dominar el mundo ni tiene sentimientos. La IA actual es una herramienta — muy potente, sí — pero una herramienta al fin y al cabo.\nLa IA de las películas se llama IA General (AGI): una inteligencia que puede realizar cualquier tarea intelectual que haga un humano. Esto todavía no existe, y no se sabe cuándo existirá.\nLo que tenemos hoy se llama IA Estrecha (Narrow AI): sistemas que hacen UNA cosa muy bien. Un modelo que genera texto, otro que reconoce caras, otro que traduce idiomas. Cada uno es especialista en su campo, pero no sabe hacer nada más.\nYa usas IA cada día (sin saberlo) Quizás piensas que la IA es cosa de científicos o programadores. Pero si tienes un móvil, la usas cada día:\nGoogle Maps calcula la mejor ruta analizando el tráfico en tiempo real con IA. No es un cálculo simple de distancia — predice atascos, accidentes y tiempos de llegada usando millones de datos.\nSpotify y Netflix te recomiendan canciones y películas. No lo hace un humano que mira tus gustos — lo hace un modelo de IA que compara tu comportamiento con millones de otros usuarios y predice qué te gustará.\nEl corrector ortográfico de tu móvil predice la palabra que estás a punto de escribir. Esto es IA — un modelo entrenado con millones de textos que ha aprendido qué palabras suelen ir juntas.\nEl filtro de spam de tu email separa el correo legítimo de la basura. No lo hace comparando con una lista fija — un modelo de IA analiza el contenido, el remitente y patrones sospechosos para decidir.\nLas fotos de tu móvil usan IA para el modo noche, el desenfoque de fondo y el reconocimiento facial. Cuando el teléfono identifica caras o mejora una foto oscura, es un modelo de IA procesando la imagen.\nIA Fuerte vs IA Débil IA Débil (Narrow AI) es lo que tenemos hoy. Sistemas diseñados para una tarea concreta. ChatGPT genera texto. Un coche autónomo conduce. Un modelo de visión reconoce objetos. Cada uno es muy bueno en su campo, pero no puede hacer nada fuera de él. ChatGPT no puede conducir un coche, y un coche autónomo no puede escribir un poema.\nIA Fuerte (AGI — Artificial General Intelligence) sería una IA capaz de realizar cualquier tarea intelectual que haga un humano. Aprender cosas nuevas por sí misma, adaptarse a situaciones desconocidas, razonar sobre cualquier tema. Esto todavía no existe. Hay debate sobre si estamos a años o a décadas — o si es posible del todo.\n¿Por qué importa ahora? La IA ha pasado de ser cosa de laboratorios a estar al alcance de todos. Con herramientas como ChatGPT, Claude o Gemini, cualquier persona puede interactuar con un modelo de IA usando lenguaje natural — sin saber programar, sin conocimientos técnicos.\nEsto es un cambio de paradigma comparable a la aparición de Internet o de los smartphones. Y como pasó con Internet, quien entienda cómo funciona tendrá ventaja sobre quien simplemente \u0026ldquo;lo use sin pensar\u0026rdquo;.\nPor eso estamos aquí.\nConceptos clave de hoy IA (Inteligencia Artificial): Capacidad de una máquina para realizar tareas que normalmente requerirían inteligencia humana IA Estrecha (Narrow AI): IA diseñada para una tarea concreta. Es lo que tenemos hoy IA General (AGI): IA hipotética capaz de realizar cualquier tarea intelectual humana. Todavía no existe Modelo: El \u0026ldquo;cerebro\u0026rdquo; entrenado que hace el trabajo. Hablaremos mucho más en las próximas lecciones Próxima lección: Breve historia de la IA — de Turing a ChatGPT.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-01-que-es-la-ia/","summary":"Definimos la IA de forma clara, desmontamos mitos de ciencia ficción y descubrimos que ya la usamos cada día.","title":"Lección 1: ¿Qué es la Inteligencia Artificial?"},{"content":"¿Por qué importa la historia? No hace falta ser historiador para entender la IA, pero saber de dónde viene ayuda a entender dónde estamos. La IA no apareció de golpe con ChatGPT — lleva 70 años de evolución, con éxitos espectaculares y fracasos estrepitosos.\n1950: Alan Turing y la pregunta clave Todo empieza con una pregunta sencilla: \u0026quot;¿Puede una máquina pensar?\u0026quot;\nAlan Turing, matemático británico considerado el padre de la informática, propuso en 1950 lo que hoy conocemos como el Test de Turing: si una persona habla con una máquina y no puede distinguir si las respuestas vienen de un humano o de una máquina, entonces la máquina se puede considerar \u0026ldquo;inteligente\u0026rdquo;.\nTuring no llegó a ver ninguna IA funcional — murió en 1954. Pero plantó la semilla.\n1956-1970: La euforia inicial En 1956, un grupo de científicos se reunieron en la Universidad de Dartmouth y acuñaron el término \u0026ldquo;Inteligencia Artificial\u0026rdquo;. Estaban convencidos de que en una generación tendrían máquinas tan inteligentes como humanos.\nAquellos primeros años fueron de optimismo desbordado. Se crearon programas que podían jugar al ajedrez, resolver problemas lógicos y mantener conversaciones básicas. ELIZA (1966), un programa que simulaba ser un psicoterapeuta, sorprendió a mucha gente — aunque simplemente reformulaba lo que le decías como pregunta.\n1970-1980: El primer invierno El optimismo se estrelló contra la realidad. Los ordenadores de los 70 eran demasiado lentos y tenían demasiada poca memoria para hacer nada realmente inteligente. Los gobiernos recortaron la financiación porque las promesas no se cumplían.\nEsto se conoce como el primer invierno de la IA — un periodo de desilusión donde casi nadie quería invertir en IA.\n1980-1990: Sistemas expertos y el segundo intento En los 80, la IA revivió con los sistemas expertos: programas con reglas escritas a mano por expertos humanos. Por ejemplo, un sistema experto médico tenía miles de reglas del tipo \u0026ldquo;si el paciente tiene fiebre Y tos Y dificultad para respirar, entonces considerar neumonía\u0026rdquo;.\nFuncionaron en campos muy específicos, pero tenían un problema fundamental: cada regla había que escribirla manualmente. A medida que el dominio se hacía complejo, mantener las reglas era insostenible.\n1990-2000: El segundo invierno Los sistemas expertos mostraron sus limitaciones. La financiación se volvió a recortar. La IA volvió a caer en descrédito. Segundo invierno.\nMientras tanto, en silencio, unos investigadores trabajaban en una idea diferente: en lugar de programar reglas a mano, ¿y si dejáramos que la máquina aprendiese de los ejemplos? Esto se llamaba Machine Learning — aprendizaje automático.\n2012: La revolución del Deep Learning El punto de inflexión llegó en 2012, cuando un sistema de Deep Learning ganó la competición ImageNet de reconocimiento de imágenes con un margen brutal sobre todos los métodos anteriores.\nLa clave fue la combinación de tres cosas que no existían juntas hasta entonces:\nDatos masivos — Internet había generado cantidades enormes de texto, imágenes y vídeos GPUs potentes — las tarjetas gráficas de videojuegos resultaban ser perfectas para entrenar redes neuronales Algoritmos mejorados — redes neuronales con muchas capas (\u0026ldquo;profundas\u0026rdquo;) que podían aprender patrones complejos A partir de 2012, la IA no ha parado de crecer.\n2017: La arquitectura Transformer Un paper de Google titulado \u0026ldquo;Attention Is All You Need\u0026rdquo; presentó la arquitectura Transformer — la base de todos los modelos de lenguaje modernos. Sin este paper, no existirían ni GPT, ni Claude, ni Gemini.\nLos Transformers resolvieron un problema clave: cómo procesar secuencias largas de texto de manera eficiente y paralela. Antes, los modelos leían el texto palabra por palabra. Los Transformers pueden \u0026ldquo;ver\u0026rdquo; todo el texto de golpe y decidir a qué partes prestar atención.\n2022: ChatGPT y la explosión En noviembre de 2022, OpenAI lanzó ChatGPT — y lo cambió todo. No era el primer chatbot, ni el primer LLM, ni siquiera el modelo más potente del momento. Pero fue el primero que cualquier persona podía probar gratis en el navegador.\nEn 5 días llegó a 1 millón de usuarios. En 2 meses, a 100 millones. La IA pasó de ser un tema de laboratorio a ser tema de conversación en el bar.\n2023-2026: La carrera actual Desde ChatGPT, la carrera ha sido vertiginosa:\nAnthropic lanzó Claude, con énfasis en seguridad y utilidad Google respondió con Gemini Meta apostó por el open source con LLaMA Mistral emergió como la alternativa europea DeepSeek y otros modelos chinos demostraron que la innovación es global Hoy, los modelos no solo generan texto — entienden imágenes, audio y vídeo. Y con la aparición de frameworks como OpenClaw, cualquier persona puede tener su propio agente de IA funcionando.\nEl patrón de los inviernos y veranos Si observas la historia, ves un patrón claro: euforia → promesas exageradas → decepción → invierno → nueva tecnología → euforia.\n¿Estamos en un verano de la IA? Probablemente. ¿Vendrá otro invierno? Quizás, pero con una diferencia: esta vez la IA ya está integrada en productos que millones de personas usan cada día. No es fácil \u0026ldquo;desinstalar\u0026rdquo; algo que ya ha cambiado cómo trabajamos.\nConceptos clave de hoy Test de Turing: Si no puedes distinguir una máquina de un humano en una conversación, la máquina es \u0026ldquo;inteligente\u0026rdquo; Invierno de la IA: Periodo de desilusión donde se recorta la inversión en IA (ha habido dos) Deep Learning: Aprendizaje automático con redes neuronales profundas (muchas capas) Transformer: La arquitectura que hizo posibles los LLM modernos (2017) Machine Learning: Hacer que las máquinas aprendan de los ejemplos en lugar de programarlas regla por regla Próxima lección: Tipos de IA — cómo clasificamos las máquinas inteligentes.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-02-breve-historia-ia/","summary":"De dónde viene la IA, por qué \u0026lsquo;murió\u0026rsquo; dos veces, y cómo hemos llegado hasta el boom actual.","title":"Lección 2: Breve historia de la IA — de Turing a ChatGPT"},{"content":"¿Por qué clasificar la IA? Cuando alguien dice \u0026ldquo;IA\u0026rdquo;, puede estar hablando de cosas muy diferentes. El filtro de spam de tu email es IA. ChatGPT es IA. Un coche autónomo es IA. Pero funcionan de maneras completamente diferentes.\nEntender los tipos de IA te ayudará a saber de qué habla la gente cuando dice \u0026ldquo;machine learning\u0026rdquo;, \u0026ldquo;deep learning\u0026rdquo; o \u0026ldquo;IA generativa\u0026rdquo; — términos que suenan parecidos pero significan cosas muy distintas.\nEl gran paraguas: Inteligencia Artificial La IA es el paraguas general que lo engloba todo. Cualquier sistema que realice tareas que normalmente requerirían inteligencia humana es IA. Dentro de este paraguas, hay niveles.\nPiénsalo como círculos concéntricos: la IA es el círculo grande, dentro está el Machine Learning, y dentro de este el Deep Learning. No son cosas diferentes — cada uno es un subconjunto del anterior.\nMachine Learning: aprender de los ejemplos El Machine Learning (ML, aprendizaje automático) es la rama de la IA donde la máquina aprende de los ejemplos en lugar de ser programada con reglas.\nEn la programación tradicional, tú le dices al ordenador exactamente qué hacer: \u0026ldquo;si el email contiene la palabra \u0026lsquo;viagra\u0026rsquo;, es spam\u0026rdquo;. En Machine Learning, le das miles de emails etiquetados como \u0026ldquo;spam\u0026rdquo; o \u0026ldquo;no spam\u0026rdquo;, y la máquina aprende sola a distinguirlos. Puede descubrir patrones que tú ni imaginabas.\nHay tres tipos principales de aprendizaje:\nAprendizaje supervisado: Le das datos con las respuestas correctas, y aprende a predecirlas. Ejemplo: le muestras 10.000 fotos de gatos y perros etiquetadas, y aprende a distinguirlos en fotos nuevas.\nAprendizaje no supervisado: Le das datos sin etiquetar, y busca patrones por sí solo. Ejemplo: le das datos de clientes y descubre grupos (los que compran mucho, los que compran poco, los que compran de noche\u0026hellip;) sin que tú le digas qué grupos buscar.\nAprendizaje por refuerzo: La máquina aprende por ensayo y error, recibiendo \u0026ldquo;recompensas\u0026rdquo; cuando acierta y \u0026ldquo;penalizaciones\u0026rdquo; cuando falla. Ejemplo: un programa que juega al ajedrez juega millones de partidas contra sí mismo y aprende qué estrategias funcionan.\nDeep Learning: redes neuronales profundas El Deep Learning es un subconjunto del Machine Learning que usa redes neuronales artificiales — estructuras inspiradas (muy vagamente) en el cerebro humano.\nUna red neuronal es una cadena de capas de \u0026ldquo;neuronas\u0026rdquo; que procesan la información. Cada capa detecta patrones a un nivel diferente. En reconocimiento de imágenes, por ejemplo, la primera capa detecta líneas, la segunda formas, la tercera objetos, la cuarta escenas completas.\n\u0026ldquo;Profundo\u0026rdquo; (deep) significa que la red tiene muchas capas. Las redes de los años 90 tenían 2-3 capas. Las de hoy pueden tener cientos. Más capas = capacidad de detectar patrones más complejos, pero también necesita más datos y más potencia de cálculo.\nTodo lo que estamos viendo en el boom actual — reconocimiento de voz, generación de texto, traducción, generación de imágenes — es Deep Learning.\nIA Generativa: crear cosas nuevas La IA Generativa es la rama que ha causado la explosión actual. Son modelos entrenados para crear contenido nuevo: texto, imágenes, audio, vídeo, código.\nA diferencia de una IA que clasifica (spam o no spam) o predice (cuál será el precio mañana), la IA generativa produce cosas que no existían. Escribe textos, pinta imágenes, compone música.\nLos ejemplos más conocidos:\nGeneración de texto: GPT, Claude, Gemini, LLaMA Generación de imágenes: DALL-E, Midjourney, Stable Diffusion Generación de código: GitHub Copilot, Claude, Cursor Generación de vídeo: Sora, Runway Generación de voz: ElevenLabs Cuando usamos ChatGPT o Claude, estamos usando IA generativa de texto. La herramienta no busca información en internet (salvo que tenga búsqueda web activada) — genera texto nuevo palabra por palabra.\n¿Dónde encajan las herramientas que conoces? ChatGPT, Claude, Gemini: Son IA generativa de texto, construida con Deep Learning, específicamente con la arquitectura Transformer. Pertenecen a la familia de los LLM (Large Language Models), que veremos en detalle en la semana 2.\nGoogle Maps (rutas): Machine Learning supervisado. Entrenado con datos de tráfico real para predecir tiempos de llegada.\nSpotify (recomendaciones): Machine Learning no supervisado + supervisado. Agrupa usuarios con gustos similares y predice qué te gustará.\nFiltro de spam: Machine Learning supervisado. Entrenado con millones de emails etiquetados.\nTesla Autopilot: Deep Learning con visión por computador + aprendizaje por refuerzo.\nNo todo lo que dice \u0026ldquo;IA\u0026rdquo; es IA Un aviso importante: el término \u0026ldquo;IA\u0026rdquo; se ha convertido en un término de márketing. Verás productos que dicen \u0026ldquo;con IA\u0026rdquo; que realmente hacen cosas muy simples — a veces son reglas programadas a mano sin ningún aprendizaje automático.\nSi una empresa dice que su producto \u0026ldquo;usa IA\u0026rdquo;, pregúntate: ¿aprende de los datos? ¿O simplemente sigue reglas fijas? Si es lo segundo, es programación tradicional con un nombre moderno.\nConceptos clave de hoy Machine Learning: La máquina aprende de los ejemplos en lugar de ser programada con reglas Deep Learning: Machine Learning con redes neuronales de muchas capas IA Generativa: Modelos que crean contenido nuevo (texto, imágenes, código, vídeo) Aprendizaje supervisado: Aprender con datos etiquetados (preguntas con respuesta correcta) Aprendizaje no supervisado: Encontrar patrones en datos sin etiquetar Aprendizaje por refuerzo: Aprender por ensayo y error con recompensas Próxima lección: ¿Qué es un modelo de IA? — sin matemáticas, prometido.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-03-tipos-ia/","summary":"Las diferentes categorías de IA explicadas de forma práctica: Machine Learning, Deep Learning, IA generativa y mucho más.","title":"Lección 3: Tipos de IA — cómo clasificamos las máquinas inteligentes"},{"content":"¿Qué es un modelo? Un modelo de IA es un programa que ha sido entrenado con datos para hacer una tarea. Piensa en él como un cerebro especializado: ha absorbido una cantidad enorme de información y ha aprendido patrones que le permiten hacer predicciones o generar contenido.\nLa palabra \u0026ldquo;modelo\u0026rdquo; puede confundir porque se usa mucho en ciencia con significados diferentes. En IA, un modelo es simplemente el resultado del entrenamiento: un archivo (o conjunto de archivos) que contiene todo lo que la máquina ha aprendido.\nEl entrenamiento: cómo aprende un modelo Imagina que quieres enseñar a un niño a reconocer gatos. No le das una definición (\u0026ldquo;animal de cuatro patas con bigotes\u0026rdquo;) — le muestras cientos de fotos de gatos y dices \u0026ldquo;esto es un gato\u0026rdquo;. Con suficientes ejemplos, el niño aprende a reconocer gatos que nunca ha visto.\nUn modelo de IA funciona igual, pero a una escala masiva:\nLe das datos de entrenamiento — millones o billones de ejemplos El modelo busca patrones — conexiones entre los datos que le permiten predecir Se evalúa y se corrige — si se equivoca, se ajustan los parámetros internos Se repite el proceso hasta que las predicciones son suficientemente buenas Para un modelo de lenguaje como Claude o GPT, los \u0026ldquo;datos de entrenamiento\u0026rdquo; son cantidades enormes de texto: libros, artículos, webs, código, conversaciones. El modelo aprende cómo funciona el lenguaje: qué palabras suelen ir juntas, cómo se estructura una frase, cómo se desarrolla un argumento.\nParámetros: el tamaño del cerebro Cuando oyes hablar de modelos de \u0026ldquo;7B\u0026rdquo;, \u0026ldquo;70B\u0026rdquo; o \u0026ldquo;405B\u0026rdquo;, la B significa billones de parámetros.\nUn parámetro es un número interno del modelo que se ajusta durante el entrenamiento. Piensa en los parámetros como las conexiones sinápticas del cerebro: cada una guarda un trocito de lo que el modelo ha aprendido.\nMás parámetros significa que el modelo puede aprender patrones más complejos y sutiles. Pero también que necesita más memoria para funcionar y es más lento.\nPara ponerlo en perspectiva:\nUn modelo pequeño (1-3B parámetros) puede funcionar en tu ordenador. Hace tareas básicas bien, pero se queda corto con razonamientos complejos. Un modelo mediano (7-13B) necesita un buen ordenador con GPU. Puede mantener conversaciones coherentes y hacer tareas variadas. Un modelo grande (70B+) necesita servidores potentes. Es lo que usan los servicios comerciales como ChatGPT o Claude. Un modelo gigante (200B+) necesita centros de datos enteros. Son los modelos punta de las grandes empresas. Más grande no siempre es mejor Una trampa común es pensar que el modelo más grande será siempre el mejor. No es así.\nUn modelo pequeño bien entrenado con datos de calidad puede superar a un modelo grande entrenado con datos mediocres. La calidad de los datos de entrenamiento es tan importante como el tamaño del modelo — y a menudo más.\nAdemás, un modelo gigante puede ser excesivo para tu tarea. Si solo necesitas que te resuma emails, un modelo de 7B puede hacerlo perfectamente. Gastar dinero en un modelo de 200B para esa tarea sería como alquilar un camión para ir a comprar el pan.\nLa importancia de los datos Hay una expresión en inglés: \u0026ldquo;Garbage in, garbage out\u0026rdquo; — si le das basura, te devuelve basura. Esto es especialmente cierto para los modelos de IA.\nUn modelo entrenado con textos llenos de errores tendrá errores. Un modelo entrenado mayoritariamente con textos en inglés será peor en catalán o castellano. Un modelo entrenado con datos sesgados reproducirá esos sesgos.\nPor eso las empresas que entrenan modelos invierten tanto en curar los datos: seleccionar, limpiar y equilibrar los textos con los que entrenan sus modelos.\nModelos abiertos vs modelos cerrados Modelos cerrados (propietarios): No puedes ver cómo están hechos ni descargarlos. Solo puedes usarlos a través de la API o la web de la empresa. Ejemplos: GPT de OpenAI, Claude de Anthropic, Gemini de Google.\nModelos abiertos (open source u open weights): Puedes descargar el modelo, ejecutarlo en tu ordenador, modificarlo y usarlo como quieras. Ejemplos: LLaMA de Meta, Mistral, Qwen.\nLos modelos cerrados suelen ser más potentes y no necesitas hardware propio. Pero dependes de la empresa, pagas por uso, y tus datos pasan por sus servidores.\nLos modelos abiertos te dan control total, privacidad y coste cero por uso. Pero necesitas hardware para ejecutarlos y a menudo son menos potentes que los mejores modelos cerrados.\nLa analogía del chef Si todo esto aún suena abstracto, piensa en un chef:\nLos datos de entrenamiento son todos los platos que ha probado, las recetas que ha estudiado, las cocinas que ha visitado Los parámetros son sus habilidades y conocimientos acumulados El modelo es el chef entrenado, listo para cocinar El prompt (que veremos más adelante) es lo que le pides que cocine La respuesta es el plato que te sirve Un chef con más experiencia (más parámetros) y mejores maestros (mejores datos) hará mejores platos. Pero incluso el mejor chef necesita que le pidas bien lo que quieres.\nConceptos clave de hoy Modelo: El resultado del entrenamiento — un archivo que contiene todo lo que la máquina ha aprendido Entrenamiento: El proceso de alimentar un modelo con datos para que aprenda patrones Parámetros (7B, 70B, 405B): Las conexiones internas del modelo. Más parámetros = más capacidad, más recursos Datos de entrenamiento: El material con el que aprende el modelo. La calidad es clave Modelo abierto: Puedes descargarlo y ejecutarlo en tu hardware Modelo cerrado: Solo accesible vía API o web de la empresa Próxima lección: La IA que ya usas sin saberlo — un recorrido por todas las aplicaciones de IA de tu día a día.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-04-que-es-un-modelo/","summary":"Qué es un modelo, cómo se entrena, por qué hay modelos grandes y pequeños, y por qué no todos son iguales.","title":"Lección 4: ¿Qué es un modelo de IA? (sin matemáticas)"},{"content":"IA invisible La IA más exitosa es la que no notas. No la ves, no sabes que está ahí, pero si la quitaras, tu día a día cambiaría drásticamente. Hoy haremos un recorrido por todas las aplicaciones de IA que probablemente ya usas.\nTu móvil es una fábrica de IA Cada vez que haces una foto, tu teléfono pone en marcha varios modelos de IA simultáneamente.\nModo noche: Cuando haces una foto con poca luz, la cámara no simplemente aumenta el brillo. Un modelo de IA analiza la imagen, separa la señal del ruido, y reconstruye detalles que el ojo humano apenas ve. Por eso las fotos de noche de los móviles modernos parecen milagros — lo son, computacionales.\nModo retrato (desenfoque): El teléfono tiene una cámara pequeña y plana que físicamente no puede desenfocar el fondo como una cámara profesional. Un modelo de IA detecta dónde estás tú y dónde está el fondo, y aplica el desenfoque artificialmente. Tan bien que la mayoría de gente no nota la diferencia.\nReconocimiento facial: Cuando desbloqueas el móvil con la cara, un modelo de IA compara tu cara con la que tiene guardada. Y no es una comparación simple de fotos — funciona con ángulos diferentes, con barba o sin ella, con gafas, de noche.\nTeclado predictivo: Cada vez que escribes un mensaje, el teclado predice la siguiente palabra. Esto es un pequeño modelo de lenguaje entrenado con millones de textos. No es tan potente como ChatGPT, pero la idea base es la misma: predecir la palabra más probable.\nNavegación y transporte Google Maps / Waze: No se limitan a calcular la ruta más corta — predicen el tráfico futuro. Analizan datos de millones de teléfonos en tiempo real, los combinan con patrones históricos y calculan el tiempo de llegada con una precisión sorprendente. Esto es Machine Learning puro.\nUber / Cabify: El precio del viaje no es fijo — un modelo de IA lo ajusta dinámicamente según la demanda, el tráfico, la hora y la zona.\nConducción asistida: Coches como Tesla, Mercedes o BMW usan modelos de Deep Learning para procesar las imágenes de las cámaras y detectar carriles, coches, peatones y señales.\nEntretenimiento Netflix: El 80% de lo que la gente ve en Netflix viene de recomendaciones de la IA. El modelo analiza qué has visto, durante cuánto tiempo, cuándo paraste, qué saltaste, y lo compara con millones de otros usuarios. Incluso las miniaturas que ves están personalizadas.\nSpotify / YouTube Music: El Discover Weekly de Spotify es un ejemplo brillante de IA. Cada lunes tienes una lista de 30 canciones que probablemente te gustarán. El modelo analiza tus escuchas, busca usuarios con gustos similares, y te ofrece lo que ellos escuchan y tú todavía no has descubierto.\nYouTube: El algoritmo de recomendación de YouTube es uno de los modelos de IA más potentes (y controvertidos) del mundo. Decide qué te muestra en la página principal y qué te sugiere después de cada vídeo.\nTikTok: El \u0026ldquo;For You\u0026rdquo; de TikTok es IA de recomendación llevada al extremo. Analiza no solo qué miras, sino cómo lo miras: cuánto tiempo ves cada vídeo, si lo vuelves a ver, si lo compartes, si lo comentas.\nComunicación Filtro de spam: Uno de los ejemplos más antiguos y exitosos de IA cotidiana. Analiza el contenido, el remitente, los patrones de formato, los enlaces, y decide si un email es legítimo o basura.\nTraducción automática: Google Translate pasó de ser un chiste a ser sorprendentemente útil gracias al Deep Learning. Desde 2016 usa una red neuronal que traduce frases enteras en lugar de palabra por palabra. DeepL subió el listón aún más.\nAsistentes de voz: Siri, Alexa y Google Assistant combinan varios modelos de IA: uno para entender tu voz, uno para interpretar qué quieres, uno para generar la respuesta, y uno para convertirla en voz.\nCompras y finanzas Amazon: Las recomendaciones de \u0026ldquo;quien ha comprado esto también ha comprado\u0026hellip;\u0026rdquo; son IA de filtrado colaborativo. Pero Amazon va mucho más allá: usa IA para decidir qué productos te muestra primero, qué precio ofrecerte, y cómo organizar sus almacenes.\nDetección de fraude bancario: Si tu tarjeta de crédito se bloquea cuando haces una compra extraña, es porque un modelo de IA ha detectado un patrón inusual en milisegundos.\nSalud Diagnóstico por imagen: Modelos de Deep Learning pueden detectar tumores en radiografías y mamografías con una precisión comparable a la de radiólogos expertos. No sustituyen al médico — pero le ayudan a no pasar por alto anomalías.\nLa pregunta que te queda Después de ver todo esto, quizás te preguntas: si la IA ya hace tantas cosas por mí, ¿por qué necesito entenderla?\nPorque hay una diferencia entre ser usuario pasivo de IA que otros han diseñado para ti, y ser usuario activo que entiende cómo funciona, elige qué herramientas usar, e incluso crea sus propios agentes.\nEsa es la diferencia que estamos construyendo en este curso.\nConceptos clave de hoy IA invisible: La IA más exitosa es la que no notas porque está integrada en productos cotidianos Recomendación: Sistemas que predicen qué te gustará basándose en tu comportamiento y el de otros Filtrado colaborativo: Recomendarte cosas basándose en qué hacen usuarios similares a ti Speech-to-text / Text-to-speech: Convertir voz a texto y viceversa — ambos son modelos de IA Próxima lección: Empezamos la Semana 2 — ¿Qué es un LLM? El modelo que entiende (y genera) texto.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-05-ia-en-el-dia-a-dia/","summary":"Un recorrido por todas las aplicaciones de IA que ya forman parte de tu vida cotidiana — desde el móvil hasta el coche.","title":"Lección 5: La IA que ya usas sin saberlo"},{"content":"Semana 2: entramos en el corazón de la revolución Si la Semana 1 fue entender el \u0026ldquo;mar\u0026rdquo; de la IA en general, ahora nos sumergimos en la tecnología específica que ha causado la explosión actual: los Large Language Models (LLM) — Modelos Grandes de Lenguaje.\nCuando usas ChatGPT, Claude, Gemini o cualquier chatbot moderno, estás hablando con un LLM. Cuando un agente de IA escribe, resume, traduce o programa, lo hace con un LLM. Entender qué es y cómo funciona un LLM es la clave para entender todo lo que vendrá después.\n¿Qué es un LLM? Un LLM es un modelo de IA entrenado con cantidades masivas de texto que puede entender y generar lenguaje humano.\nDesglosemos el nombre:\nLarge (Grande): Tiene billones de parámetros y ha sido entrenado con billones de palabras Language (Lenguaje): Su dominio es el texto — entenderlo y producirlo Model (Modelo): Como vimos en la Lección 4, es un \u0026ldquo;cerebro\u0026rdquo; entrenado Un LLM no es una base de datos que busca respuestas. No es un buscador como Google. No copia y pega texto de ningún sitio. Lo que hace es generar texto nuevo palabra por palabra, basándose en patrones que aprendió durante el entrenamiento.\n¿Cómo funciona? La predicción de la siguiente palabra El mecanismo base de un LLM es sorprendentemente sencillo de entender: predice la siguiente palabra.\nSi le das el texto \u0026ldquo;El gato subió a la\u0026hellip;\u0026rdquo;, el modelo calcula las probabilidades de todas las palabras posibles que podrían ir a continuación y elige la más probable. \u0026ldquo;¿Mesa?\u0026rdquo; \u0026ldquo;¿Azotea?\u0026rdquo; \u0026ldquo;¿Silla?\u0026rdquo; Basándose en todo el texto que vio durante el entrenamiento, decide qué palabra tiene más sentido.\nPero no lo hace una vez — lo hace para cada palabra. Genera la primera, la suma al texto, y entonces predice la segunda. Y la tercera. Y así sucesivamente, palabra por palabra, hasta completar la respuesta.\nPuede parecer un mecanismo demasiado simple para producir textos coherentes, razonamientos complejos y respuestas útiles. Pero cuando entrenas un modelo con billones de palabras y le das billones de parámetros, la predicción de \u0026ldquo;la siguiente palabra\u0026rdquo; se convierte en una capacidad emergente mucho más potente de lo que nadie esperaba.\nUn LLM no es un buscador Cuando buscas en Google, el buscador recorre un índice de páginas web y te muestra las que mejor encajan con tu búsqueda. La información viene de páginas web reales que existen en algún servidor.\nCuando preguntas a un LLM, el modelo genera una respuesta nueva basada en patrones que aprendió durante el entrenamiento. No busca en internet (salvo que tenga búsqueda web activada). Produce texto nuevo basándose en la probabilidad estadística de las palabras.\nEsto explica dos cosas importantes:\nPor qué los LLM pueden \u0026ldquo;inventarse\u0026rdquo; cosas: Si el modelo predice que la siguiente palabra más probable es X, la pondrá — aunque sea incorrecta. Esto se conoce como alucinación.\nPor qué los LLM no siempre tienen información actualizada: El modelo sabe lo que había en el texto de entrenamiento, que tiene una fecha de corte.\n¿Qué puede hacer un LLM? Un solo modelo puede: generar texto, responder preguntas, traducir, resumir, programar, analizar, y conversar. Todo con el mismo modelo — simplemente cambias lo que le pides (el prompt).\n¿Qué NO puede hacer un LLM? No \u0026ldquo;sabe\u0026rdquo; nada con certeza: Predice texto probable, no afirma verdades.\nNo tiene experiencias ni emociones: Cuando un LLM dice \u0026ldquo;entiendo cómo te sientes\u0026rdquo;, está generando la frase que estadísticamente sigue tu mensaje. No siente nada.\nNo piensa como un humano: El proceso interno es cálculo matemático de probabilidades, no razonamiento consciente.\nNo accede a internet (por defecto): Salvo que tenga herramientas de búsqueda web activadas.\nNo aprende de tus conversaciones: Cada conversación empieza de cero. El modelo no se modifica cuando hablas con él.\nConceptos clave de hoy LLM (Large Language Model): Modelo de IA entrenado con texto masivo para entender y generar lenguaje Predicción de la siguiente palabra: El mecanismo base de los LLM — genera texto prediciendo qué palabra viene después Alucinación: Cuando un LLM genera información incorrecta con aparente confianza RLHF: Técnica que hace que los modelos sean mejores siguiendo instrucciones humanas Próxima lección: Tokens — cómo un LLM \u0026ldquo;lee\u0026rdquo; el texto.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-06-que-es-un-llm/","summary":"Definimos LLM, entendemos por qué es diferente de una búsqueda en Google, y descubrimos cómo funciona la generación de texto.","title":"Lección 6: ¿Qué es un LLM? El modelo que entiende (y genera) texto"},{"content":"¿Por qué hablamos de tokens? Si has leído sobre IA, seguro que has visto frases como \u0026ldquo;el modelo admite 128K tokens\u0026rdquo; o \u0026ldquo;el precio es de $3 por millón de tokens\u0026rdquo;. Pero ¿qué es exactamente un token?\nEntender los tokens es práctico e importante porque afectan a tres cosas que te importarán cuando uses un LLM: cuánto cuesta, cuánto texto puede procesar, y cuánto de rápido responde.\nUn token NO es una palabra Aquí viene la primera sorpresa: un LLM no lee palabras. Lee tokens — trozos de texto que pueden ser palabras enteras, partes de palabras, o incluso caracteres individuales.\nEl proceso de convertir texto en tokens se llama tokenización, y lo hace un programa llamado tokenizador antes de que el texto llegue al modelo.\nVeamos ejemplos en inglés (donde la tokenización es más eficiente):\n\u0026ldquo;Hello\u0026rdquo; → 1 token (palabra común, va entera) \u0026ldquo;unhappiness\u0026rdquo; → 3 tokens: \u0026ldquo;un\u0026rdquo; + \u0026ldquo;happi\u0026rdquo; + \u0026ldquo;ness\u0026rdquo; \u0026ldquo;ChatGPT\u0026rdquo; → 2-3 tokens Y en castellano:\n\u0026ldquo;Hola\u0026rdquo; → 1 token (palabra corta y común) \u0026ldquo;Inteligencia\u0026rdquo; → 3-4 tokens (palabra larga y menos común en datos de entrenamiento en inglés) \u0026ldquo;Desarrollo\u0026rdquo; → 2-3 tokens ¿Por qué funciona así? La razón es eficiencia. Imagina que el modelo tuviera que aprender cada palabra de cada idioma como una unidad independiente. Necesitaría un vocabulario de millones de entradas.\nEn cambio, con la tokenización, el modelo trabaja con un vocabulario de 30.000-100.000 tokens que puede combinar para representar cualquier texto en cualquier idioma. Las palabras comunes en inglés tienden a ser un solo token. Las palabras menos comunes o de otros idiomas se dividen en trozos.\nPiénsalo como piezas de Lego: con un conjunto limitado de piezas puedes construir cualquier cosa. Las piezas más grandes cubren los casos comunes rápidamente. Las piezas pequeñas permiten construir cualquier palabra inusual.\n¿Por qué los idiomas no-ingleses \u0026ldquo;gastan\u0026rdquo; más tokens? Esto es importante y tiene consecuencias prácticas: escribir en catalán, castellano, árabe, japonés o cualquier idioma que no sea inglés consume más tokens para expresar la misma idea.\n¿Por qué? Porque el tokenizador se ha entrenado mayoritariamente con texto en inglés. Las palabras inglesas comunes se han convertido en tokens eficientes (1 palabra = 1 token). Las palabras en otros idiomas a menudo se dividen en fragmentos porque aparecen menos en los datos de entrenamiento.\nEn la práctica, un texto en castellano puede consumir entre un 20% y un 50% más de tokens que el mismo texto en inglés.\nTokens de entrada vs tokens de salida Cuando interactúas con un LLM, hay dos flujos de tokens:\nTokens de entrada (input): El texto que tú envías al modelo — tu pregunta, instrucciones, contexto, documentos adjuntos.\nTokens de salida (output): El texto que el modelo genera como respuesta. Cada palabra de la respuesta es uno o más tokens generados secuencialmente.\nLa mayoría de providers cobran ambos, pero con precios diferentes. Normalmente, los tokens de salida son más caros que los de entrada (porque generar requiere más cálculo que leer).\nEl precio por token Cuando ves un precio como \u0026ldquo;$3 por millón de tokens de entrada\u0026rdquo;, ¿qué significa en términos prácticos?\nUna regla rápida para el inglés: 1 token ≈ 0,75 palabras (o al revés, 1 palabra ≈ 1,3 tokens). Para el castellano, cuenta 1 palabra ≈ 1,5-2 tokens.\nUn millón de tokens en inglés son unas 750.000 palabras — el equivalente a unos 10 libros. A $3 por millón de tokens, procesar 10 libros cuesta $3.\nHerramientas para contar tokens No tienes que estimar a ojo — hay herramientas gratuitas:\nOpenAI Tokenizer (platform.openai.com/tokenizer): Pega un texto y te muestra cuántos tokens tiene y cómo se divide.\nTiktokenizer (tiktokenizer.vercel.app): Una interfaz visual donde ves los tokens con colores diferentes.\n¿Por qué todo esto importa para ti? Si quieres montar un agente con OpenClaw, los tokens serán parte constante de tu día a día:\nCoste: Cada interacción consume tokens. Entender cuántos gastas te ayuda a controlar la factura. Límite de contexto: El modelo tiene un límite de tokens que puede procesar de una vez. Velocidad: Generar más tokens de salida = más tiempo de respuesta. Optimización: Escribir prompts eficientes ahorra tokens y dinero. Conceptos clave de hoy Token: La unidad mínima de texto que procesa un LLM — puede ser una palabra, parte de una palabra, o un carácter Tokenización: El proceso de convertir texto en tokens Tokenizador: El programa que hace la tokenización (cada familia de modelos tiene el suyo) Tokens de entrada vs salida: La entrada es lo que envías, la salida es lo que el modelo genera Regla rápida: 1 palabra en inglés ≈ 1,3 tokens / 1 palabra en castellano ≈ 1,5-2 tokens Próxima lección: La ventana de contexto — la memoria a corto plazo de un LLM.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-07-tokens-y-tokenizacion/","summary":"Qué son los tokens, por qué no son palabras, y por qué importa entenderlos cuando hablamos de coste, velocidad y límites.","title":"Lección 7: Tokens — cómo un LLM 'lee' el texto"},{"content":"¿Qué es la ventana de contexto? La ventana de contexto (context window) es la cantidad total de texto que un LLM puede procesar de una sola vez. Incluye tanto lo que tú le envías (entrada) como lo que él genera (salida).\nPiensa en la ventana de contexto como la \u0026ldquo;memoria de trabajo\u0026rdquo; del modelo — el equivalente a tu memoria a corto plazo cuando lees un texto. Puedes tener en mente unas cuantas páginas de contenido. Si el texto es muy largo, las primeras páginas se van desdibujando mientras avanzas.\nUn LLM funciona igual: todo lo que cabe dentro de la ventana de contexto, lo puede \u0026ldquo;ver\u0026rdquo; y usar. Lo que no cabe, no existe para él.\n¿Cuánto cabe? La ventana de contexto varía mucho entre modelos:\nLos primeros modelos comerciales (GPT-3, 2020) tenían ventanas de 4.096 tokens — unas 3.000 palabras, poco más que un artículo corto.\nHoy los modelos punteros ofrecen ventanas mucho más grandes. Claude puede trabajar con 200.000 tokens (unas 150.000 palabras, el equivalente a un libro entero). GPT-4 llega a 128.000 tokens. Gemini 1.5 Pro llegó al millón de tokens.\nEstas cifras suenan enormes, pero en la práctica se llenan más rápido de lo que parece.\nEntrada + salida = contexto total Un punto importante que mucha gente no entiende: la ventana de contexto incluye todo — la entrada y la salida.\nSi un modelo tiene una ventana de 128K tokens y tú le envías un documento de 100K tokens, le quedan 28K tokens para generar la respuesta. En una conversación, cada mensaje tuyo y cada respuesta del modelo se acumulan dentro de la ventana.\n¿Qué pasa cuando llegas al límite? Cuando la conversación o la entrada supera la ventana de contexto, el modelo tiene que \u0026ldquo;descartar\u0026rdquo; información:\nTruncamiento: El sistema elimina los mensajes más antiguos de la conversación para hacer espacio a los nuevos. El modelo \u0026ldquo;olvida\u0026rdquo; el principio de la conversación.\nError: Algunos sistemas simplemente rechazan la entrada si supera el límite.\nUn LLM no recuerda entre conversaciones Esta es quizás la confusión más grande: un LLM no recuerda las conversaciones anteriores.\nCada vez que abres un chat nuevo con ChatGPT, Claude o cualquier LLM, el modelo empieza completamente de cero. No sabe quién eres, qué le preguntaste ayer, ni qué acordaste con él la semana pasada.\n¿Por qué? Porque el modelo es un programa estático que no cambia cuando hablas con él. Tus conversaciones no modifican los parámetros del modelo.\nEntonces, ¿cómo es que ChatGPT y Claude \u0026ldquo;recuerdan\u0026rdquo; cosas? Porque las plataformas añaden capas por encima del modelo:\nHistorial de conversación: El sistema guarda los mensajes anteriores y los vuelve a enviar al modelo en cada interacción Memoria persistente: Algunos sistemas extraen información clave de las conversaciones y la guardan en una base de datos separada System prompt: Instrucciones fijas que se envían al modelo en cada mensaje Todo esto son \u0026ldquo;trucos\u0026rdquo; externos al modelo — el modelo en sí no recuerda nada.\nConsejos prácticos Sé conciso: No llenes la ventana de contexto con texto innecesario.\nEstructura bien las conversaciones largas: Si tienes una conversación muy larga, considera empezar una nueva con un resumen de lo discutido.\nDa contexto relevante: Si necesitas que el modelo sepa algo, ponlo en el mensaje. No asumas que lo \u0026ldquo;sabe\u0026rdquo; de alguna conversación anterior.\nConceptos clave de hoy Ventana de contexto (context window): La cantidad total de tokens que un LLM puede procesar de una vez (entrada + salida) Truncamiento: Cuando el sistema elimina mensajes antiguos para hacer espacio Un LLM no recuerda entre conversaciones: Cada chat empieza de cero; la \u0026ldquo;memoria\u0026rdquo; la gestionan capas externas Historial de conversación: Truco de la plataforma — reenvía los mensajes anteriores al modelo consumiendo tokens Próxima lección: El mapa de los LLM — quién es quién en 2026.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-08-ventana-de-contexto/","summary":"Qué es el context window, por qué tiene límite, qué pasa cuando lo superas, y por qué un LLM no recuerda las conversaciones anteriores.","title":"Lección 8: La ventana de contexto — la memoria a corto plazo de un LLM"},{"content":"¿Por qué conocer el mapa? Cuando empieces a configurar tu propio agente, una de las primeras decisiones será: ¿qué modelo uso? Hay decenas de modelos disponibles y cada semana salen nuevos. Tener un mapa mental claro te ayudará a elegir con criterio en lugar de elegir a ciegas.\nLos grandes: empresas y modelos OpenAI — El pionero comercial OpenAI lanzó ChatGPT y encendió la revolución. Sus modelos de la familia GPT son los más conocidos del mercado. Se centra en ser el más potente y el primero en nuevas capacidades. Tiene la base de usuarios más grande y el ecosistema de desarrolladores más maduro. Como contrapartida, es uno de los providers más caros y sus modelos son completamente cerrados.\nAnthropic — Seguridad y utilidad Anthropic, fundada por antiguos miembros de OpenAI, crea la familia de modelos Claude. Su filosofía es construir IA potente pero segura — con mucho énfasis en seguir instrucciones correctamente, ser honesto sobre las limitaciones, y evitar contenido dañino.\nClaude destaca especialmente en tareas que requieren instrucciones complejas, escritura de calidad, y análisis de documentos largos (con un context window de 200K tokens).\nGoogle — El ecosistema integrado Google compite con la familia Gemini. Su ventaja es la integración con su ecosistema: Gmail, Google Docs, Google Search, Android. Google también fue pionero en la investigación que hizo posibles los LLM — el paper de los Transformers salió de Google.\nMeta — El líder open source Meta ha publicado sus modelos LLaMA como open source. Cualquier persona o empresa puede descargarlos, usarlos y modificarlos. Esta estrategia ha acelerado enormemente la innovación.\nMistral — La alternativa europea Mistral es una empresa francesa que ha demostrado que se pueden hacer modelos competitivos desde Europa. Sus modelos destacan por su eficiencia.\nModelos chinos DeepSeek sacudió el mercado con modelos que rivalizaban con los mejores occidentales. Qwen (Alibaba) y Kimi (Moonshot AI) ofrecen modelos potentes, muchos open source.\nModelos abiertos que puedes ejecutar tú Si quieres ejecutar un modelo en tu ordenador (con Ollama, que veremos en la Semana 3):\nLLaMA (Meta): La referencia. Modelos de 8B a 405B parámetros.\nMistral / Mixtral: Modelos eficientes con muy buen rendimiento para su tamaño.\nQwen (Alibaba): Buenos modelos multilingües. Especialmente competentes en idiomas no-ingleses.\nGemma (Google): Modelos pequeños y eficientes publicados como open source.\nPhi (Microsoft): Modelos pequeños (3-4B) sorprendentemente capaces.\n¿Cómo elegir un modelo? La elección depende de cuatro factores:\n1. Tarea: Para conversación general y razonamiento complejo, los modelos grandes son superiores. Para tareas específicas y repetitivas, un modelo pequeño puede ser suficiente.\n2. Presupuesto: Los modelos comerciales cobran por token. Los modelos abiertos locales tienen coste cero por uso, pero necesitas hardware.\n3. Privacidad: Si tus datos son sensibles, un modelo local garantiza que nada sale de tu ordenador.\n4. Calidad vs velocidad: Los modelos grandes son más precisos pero más lentos. Los pequeños son más rápidos y baratos, pero pueden cometer más errores.\nNo hay un \u0026ldquo;mejor modelo\u0026rdquo; universal — hay el mejor modelo para tu caso de uso.\nLos rankings: dónde comparar Chatbot Arena (lmsys.org): Ranking basado en votaciones humanas. El más fiable.\nArtificial Analysis (artificialanalysis.ai): Compara modelos en velocidad, precio y calidad.\nOpen LLM Leaderboard (Hugging Face): Ranking de modelos abiertos.\nEl paisaje cambia rápido Un aviso importante: este mapa caduca rápido. Cada pocos meses aparecen modelos nuevos que cambian el equilibrio. Por eso es más importante entender los criterios de elección que memorizar nombres de modelos.\nConceptos clave de hoy Modelos cerrados (GPT, Claude, Gemini): Más potentes, acceso vía API, pago por token Modelos abiertos (LLaMA, Mistral, Qwen): Descargables, ejecutables localmente, coste cero por uso Chatbot Arena: Ranking de modelos basado en votaciones humanas No hay \u0026ldquo;mejor modelo\u0026rdquo;: Hay el mejor modelo para tu caso de uso, presupuesto y necesidades Próxima lección: Tu primer prompt — cómo hablar con un LLM.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-09-modelos-actuales/","summary":"Conoce los principales modelos del momento, las empresas detrás, y las diferencias clave para elegir el que te conviene.","title":"Lección 9: El mapa de los LLM — quién es quién en 2026"},{"content":"El prompt: tu herramienta más poderosa De todas las cosas que aprenderás en este curso, la capacidad de escribir buenos prompts es probablemente la más útil en el día a día. Un buen prompt puede ser la diferencia entre una respuesta inútil y una respuesta brillante — con el mismo modelo.\nUn prompt es simplemente el texto que le envías al modelo. Tu pregunta, tus instrucciones, el contexto que le das. Todo lo que escribes en la caja de texto de un chatbot es un prompt.\n¿Por qué importa cómo preguntas? Recuerda de la Lección 6: un LLM genera texto prediciendo la palabra más probable dada la entrada. Si la entrada es vaga, la salida será vaga. Si la entrada es específica y clara, la salida será mucho mejor.\nComparemos dos prompts para la misma tarea:\nPrompt malo: \u0026ldquo;Explícame la IA\u0026rdquo;\nDemasiado amplio. El modelo no sabe a qué nivel explicarlo, cuánto de largo debe ser, ni qué aspecto de la IA te interesa.\nPrompt bueno: \u0026ldquo;Explícame qué es la inteligencia artificial en 3 párrafos cortos. El público es una persona adulta sin conocimientos técnicos. Usa ejemplos cotidianos como el móvil o Netflix.\u0026rdquo;\nAquí el modelo sabe exactamente qué quieres: longitud, nivel, y estilo.\nLas cuatro piezas de un buen prompt 1. Rol Decirle al modelo quién es o qué papel debe adoptar.\n\u0026ldquo;Eres un profesor de informática que explica conceptos a gente sin formación técnica.\u0026rdquo;\n2. Contexto Darle la información necesaria para responder bien.\n\u0026ldquo;Estoy preparando una presentación para los directivos de mi empresa. No tienen formación técnica pero toman decisiones de presupuesto.\u0026rdquo;\n3. Instrucción Decirle exactamente qué quieres que haga.\n\u0026ldquo;Escríbeme 5 puntos clave sobre por qué deberíamos invertir en IA, con un ejemplo concreto para cada punto.\u0026rdquo;\n4. Formato de salida Decirle cómo quieres la respuesta.\n\u0026ldquo;Responde en formato lista con puntos numerados. Cada punto debe tener un título en negrita seguido de una explicación de 2-3 líneas.\u0026rdquo;\nEjemplos prácticos Tarea: Escribir un email\nPrompt básico: \u0026ldquo;Escribe un email a mi jefe sobre vacaciones\u0026rdquo;\nPrompt mejorado: \u0026ldquo;Escribe un email breve y profesional a mi jefe, Jordi, pidiéndole 3 días de vacaciones la semana del 15 de junio. El tono debe ser cordial pero directo. Menciona que dejaré las tareas pendientes organizadas.\u0026rdquo;\nTarea: Entender un concepto\nPrompt básico: \u0026ldquo;¿Qué es blockchain?\u0026rdquo;\nPrompt mejorado: \u0026ldquo;Explícame qué es blockchain como si se lo explicaras a alguien que sabe usar un ordenador pero no sabe programar. Usa una analogía de la vida cotidiana. Máximo 200 palabras.\u0026rdquo;\nErrores comunes Ser demasiado vago: \u0026ldquo;Ayúdame con mi proyecto\u0026rdquo; — ¿Qué proyecto? ¿Qué ayuda?\nHacer demasiadas cosas a la vez: Mejor ir paso a paso.\nAsumir que lo sabe todo: \u0026ldquo;Haz lo que te dije ayer\u0026rdquo; — El modelo no recuerda conversaciones anteriores.\nNo especificar el formato: Si no le dices cómo quieres la respuesta, el modelo elegirá él.\nPrompt engineering: no hace falta ser programador El término prompt engineering suena muy técnico, pero simplemente significa \u0026ldquo;el arte de escribir buenos prompts\u0026rdquo;. No es programación — es comunicación clara y precisa.\nAlgunas técnicas útiles:\nFew-shot prompting: Darle ejemplos de lo que quieres. \u0026ldquo;Transforma estos títulos en slugs para URLs. Ejemplo: \u0026lsquo;¿Qué es la IA?\u0026rsquo; → \u0026lsquo;que-es-la-ia\u0026rsquo;. Ahora hazlo con: \u0026lsquo;¿Cómo funciona un LLM?\u0026rsquo;\u0026rdquo;\nChain of thought: Pedirle que razone paso a paso. \u0026ldquo;Antes de dar la respuesta final, explica tu razonamiento paso a paso.\u0026rdquo;\nIteración: No esperes que el primer prompt sea perfecto. Prueba, mira el resultado, y ajusta.\nEl prompt es la interfaz Piensa en el prompt como la interfaz entre tú y el modelo. Un modelo excelente con un prompt malo dará un resultado mediocre. Un modelo decente con un prompt excelente puede dar un resultado sorprendentemente bueno.\nCuando configures tu agente con OpenClaw, el system prompt será la pieza más importante de toda la configuración. Dedicarle tiempo vale mucho la pena.\nConceptos clave de hoy Prompt: El texto que envías al modelo — pregunta, instrucciones, contexto Las 4 piezas: Rol + Contexto + Instrucción + Formato de salida Prompt engineering: El arte de escribir prompts efectivos (no requiere programación) Few-shot: Dar ejemplos al modelo para que entienda el formato deseado Chain of thought: Pedir al modelo que razone paso a paso para mejorar la precisión Iteración: Ajustar el prompt basándose en el resultado hasta obtener lo que quieres Próxima lección: Empezamos la Semana 3 — ¿Qué es un provider? Quién te da acceso a los modelos.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-10-prompts-basicos/","summary":"Aprende a escribir prompts efectivos y entiende por qué el resultado depende de cómo preguntas.","title":"Lección 10: Tu primer prompt — cómo hablar con un LLM"},{"content":"Semana 3: cómo acceder a los modelos Ya sabes qué es un LLM, cómo funciona, y qué modelos existen. Ahora viene la pregunta práctica: ¿cómo accedo? No puedes llamar a Anthropic y pedir que te activen Claude. Necesitas un intermediario — y eso es un provider.\n¿Qué es un provider? Un provider es una empresa o servicio que te da acceso a un modelo de IA. Es el intermediario entre tú y el modelo.\nPiensa en una analogía sencilla: el modelo es una película. El provider es la plataforma donde la ves — Netflix, HBO, Amazon Prime. La misma película puede estar disponible en varias plataformas, con precios y condiciones diferentes. Con los LLM pasa exactamente lo mismo.\nProviders directos vs providers de inferencia Providers directos Son las empresas que crean el modelo y te lo venden directamente. OpenAI vende acceso a GPT. Anthropic vende acceso a Claude. Google ofrece Gemini.\nCon un provider directo, tienes la garantía de usar el modelo \u0026ldquo;oficial\u0026rdquo;, con las últimas actualizaciones. Normalmente es la opción más cara.\nProviders de inferencia Son empresas que no crean modelos, pero los ejecutan en sus servidores y te los ofrecen. Cogen modelos abiertos (LLaMA, Mistral, Qwen) y los ponen disponibles para todos.\nGroq es conocido por su velocidad brutal. Together AI ofrece gran variedad de modelos abiertos. NVIDIA NIM proporciona acceso con un tier gratuito. OpenRouter es un agregador — un único punto de acceso a decenas de modelos.\nLa ventaja de los providers de inferencia es el precio y la variedad. El inconveniente es que no siempre tienen los modelos más recientes.\n¿Por qué varía el precio? Hardware: Cada provider usa hardware diferente. Escala: Un provider grande puede ofrecer precios más bajos. Margen comercial: Cada provider decide su margen. Optimizaciones: Algunos aplican cuantización que puede afectar ligeramente la calidad.\nLa cadena completa Tú → Agente (OpenClaw) → Provider (API) → Modelo (LLM) → Respuesta ¿Cómo elegir un provider? Coste: Si el presupuesto es cero, busca tiers gratuitos (NVIDIA NIM, Google AI Studio, Groq free).\nVelocidad (latencia): Si necesitas respuestas rápidas, Groq es el rey.\nCalidad del modelo: Si necesitas el mejor modelo posible, ve al provider directo.\nFiabilidad: Los providers grandes tienen infraestructura robusta. Los tiers gratuitos pueden tener cortes.\nConceptos clave de hoy Provider: Empresa o servicio que te da acceso a un modelo de IA Provider directo: El creador del modelo que te lo vende (OpenAI, Anthropic, Google) Provider de inferencia: Empresa que ejecuta modelos abiertos en sus servidores (Groq, Together, NVIDIA NIM) OpenRouter: Agregador que da acceso a múltiples modelos y providers desde un solo punto La cadena: Tú → Agente → Provider (API) → Modelo → Respuesta Próxima lección: ¿Qué es una API? — La puerta de entrada a los LLM.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-11-que-es-un-provider/","summary":"Entiende la cadena modelo → provider → usuario, y por qué el mismo modelo puede costar diferente según dónde lo uses.","title":"Lección 11: ¿Qué es un provider? Quién te da acceso a los modelos"},{"content":"¿Por qué necesitas saber qué es una API? Si quieres usar un LLM desde el navegador (ChatGPT, Claude.ai), no necesitas saber qué es una API. Pero si quieres un agente propio — un bot de Telegram que trabaje para ti, una automatización que procese emails — necesitas conectarte al modelo por otra vía. Esa vía es la API.\n¿Qué es una API? API viene de Application Programming Interface — Interfaz de Programación de Aplicaciones. Suena intimidante, pero el concepto es sencillo.\nUna API es un sistema de comunicación estandarizado entre dos programas. Permite que un programa haga peticiones a otro y reciba respuestas, sin que ningún humano intervenga.\nLa analogía más clara es un restaurante:\nTú (el agente/programa) eres el cliente La carta es la documentación de la API — te dice qué puedes pedir El camarero es la API — lleva tu pedido a la cocina y te trae el plato La cocina es el modelo (LLM) — procesa el pedido y prepara el resultado Tú no entras en la cocina a cocinar. Haces el pedido al camarero, en un formato que él entiende, y él gestiona todo el proceso.\nAPI vs interfaz web Cuando usas ChatGPT en el navegador, detrás hay una API — pero la interfaz web te esconde toda la complejidad.\nCuando usas la API directamente, tú construyes la petición. Le dices al modelo exactamente qué quieres: qué modelo usar, cuántos tokens de respuesta, a qué temperatura, y qué texto procesar.\nLa diferencia clave: la interfaz web es para humanos interactivos. La API es para programas autónomos.\nAPI keys: tu clave de acceso Una API key es como una contraseña especial que te identifica ante el provider. Cada vez que tu agente hace una petición, envía la API key para que el provider sepa quién eres y a qué cuenta cargar el consumo.\nReglas de oro con las API keys:\nNunca compartas una API key. Si alguien la tiene, puede hacer peticiones a tu cuenta y tú pagarás la factura.\nNunca la pongas en código que subas a GitHub. Hay bots que escanean GitHub buscando API keys expuestas y las explotan en minutos.\nGuárdalas en variables de entorno. En lugar de poner la key directamente en el código, la guardas como variable del sistema operativo.\nPuedes revocarlas y crear nuevas. Si crees que una key se ha comprometido, elimínala inmediatamente.\nEl coste de la API La mayoría de providers cobran por token procesado:\nSi tu agente procesa 1000 peticiones al día, pagas por todos los tokens Si un día no lo usas, no pagas nada Los tokens de salida suelen ser más caros que los de entrada APIs compatibles con OpenAI Muchos providers de inferencia usan un formato de API compatible con OpenAI. Esto significa que la manera de enviar peticiones es la misma para todos — solo cambias la URL del provider y la API key.\nPara OpenClaw, esto es muy práctico: puedes cambiar de provider simplemente cambiando dos parámetros en la configuración.\nConceptos clave de hoy API: Interfaz de comunicación entre programas — el \u0026ldquo;camarero\u0026rdquo; entre tu agente y el modelo API key: Clave única que te identifica ante el provider. Nunca compartirla Petición: El mensaje que envías a la API (incluye modelo, mensaje, parámetros) Precio por token: El modelo de cobro de la mayoría de APIs de LLM API compatible con OpenAI: Formato estándar que muchos providers adoptan Próxima lección: Gratuito vs de pago — ¿dónde puedo usar IA sin pagar?\n","permalink":"https://clawlearning.github.io/es/posts/leccion-12-que-es-una-api/","summary":"Desmitificamos las APIs — qué son, cómo funcionan, y por qué las necesitas para tener un agente.","title":"Lección 12: ¿Qué es una API? La puerta de entrada a los LLM"},{"content":"El mito: \u0026ldquo;la IA es cara\u0026rdquo; Una de las barreras de entrada más comunes es la percepción de que usar IA cuesta dinero. Y sí, los mejores modelos comerciales tienen un coste. Pero hay un abanico enorme de opciones gratuitas que permiten hacer cosas muy interesantes sin gastar un céntimo.\nNivel 1: Chats web gratuitos La manera más fácil de usar IA gratis es a través de las interfaces web de los grandes modelos:\nChatGPT (OpenAI): La versión gratuita da acceso a GPT con un límite de mensajes por hora.\nClaude (Anthropic): Claude.ai ofrece un tier gratuito con acceso al modelo, también con límites.\nGemini (Google): Google AI Studio permite usar Gemini gratis.\nLimitaciones: Estos tiers gratuitos no dan acceso a la API. Puedes chatear en la web, pero no puedes conectar un agente.\nNivel 2: APIs con tier gratuito Algunos providers ofrecen APIs gratuitas con límites de uso:\nGoogle AI Studio: Acceso gratuito a la API de Gemini con límites generosos. Una de las mejores opciones para empezar sin pagar.\nNVIDIA NIM: Acceso a varios modelos (incluido Kimi K2.5) con tier gratuito. Tiene límites de velocidad (~40 peticiones por minuto) pero es funcional para agentes con uso moderado.\nGroq: Tier gratuito con velocidad impresionante. Ideal para pruebas y agentes con poco volumen.\nLimitaciones: Todos tienen límites de peticiones. Los tiers gratuitos pueden desaparecer o cambiar las condiciones en cualquier momento.\nNivel 3: Modelos locales (coste cero por uso) Aquí viene la opción más potente para presupuesto cero: ejecutar un modelo en tu propio ordenador.\nCon herramientas como Ollama, puedes descargar modelos abiertos y ejecutarlos localmente. Una vez descargado, el uso es completamente gratuito.\nRequisitos de hardware:\nPara modelos pequeños (1-3B parámetros): 8GB de RAM, cualquier CPU moderno. Respuestas lentas pero funcionales.\nPara modelos medianos (7-8B parámetros): 16GB de RAM, mejor con GPU dedicada. Respuestas a velocidad aceptable.\nPara modelos grandes (13-70B parámetros): 32-64GB de RAM o GPU con mucha VRAM. Aquí ya hablamos de hardware serio.\nVentajas: Coste cero, privacidad total, funciona sin internet.\nInconvenientes: Necesitas hardware decente, los modelos locales son menos potentes que los mejores modelos comerciales.\nLa combinación inteligente La mayoría de gente que monta agentes combina varias opciones:\nModelo caro para decisiones importantes: Claude o GPT para tareas que requieren máxima calidad.\nModelo gratuito para volumen: NVIDIA NIM o un modelo local para tareas rutinarias y repetitivas.\nEsta estrategia permite tener un agente potente sin arruinarse.\nResumen práctico Para alguien que empieza y quiere gastar cero:\nEmpieza con Google AI Studio (API gratuita de Gemini) para tu primer agente Instala Ollama con un modelo de 7-8B para experimentar localmente Regístrate en NVIDIA NIM como provider de reserva Con estas tres opciones tienes un agente funcional sin pagar nada.\nConceptos clave de hoy Tiers gratuitos de API: Google AI Studio, NVIDIA NIM, Groq — acceso gratuito con límites Modelos locales (Ollama): Descargas el modelo y lo ejecutas en tu hardware. Coste cero por uso Combinación inteligente: Modelo caro para calidad + modelo barato/gratuito para volumen El coste es por token: Pagas por cada palabra procesada, no por suscripción Próxima lección: Modelos locales — ejecutar un LLM en tu ordenador con Ollama.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-13-modelos-gratuitos-vs-pago/","summary":"Mapa de las opciones gratuitas reales para usar IA: desde chats web hasta modelos locales en tu ordenador.","title":"Lección 13: Gratuito vs de pago — ¿dónde puedo usar IA sin pagar?"},{"content":"¿Qué significa \u0026ldquo;modelo local\u0026rdquo;? Hasta ahora hemos hablado de modelos que se ejecutan en los servidores de alguien — OpenAI, Anthropic, Google. Tú envías texto por internet, ellos lo procesan, y te devuelven la respuesta.\nUn modelo local es exactamente lo contrario: descargas el modelo a tu ordenador y lo ejecutas tú. El texto no sale de tu máquina. No necesitas internet. No pagas por token.\nEs como la diferencia entre escuchar música en streaming (Spotify) y tener los MP3 en tu disco duro.\n¿Cuándo tiene sentido un modelo local? Tiene sentido cuando: quieres privacidad total, coste cero por uso, funcionar sin internet, o experimentar con diferentes modelos sin preocuparte por la factura.\nNo tiene sentido cuando: necesitas la máxima calidad posible, tu ordenador es antiguo o tiene poca RAM, necesitas respuestas muy rápidas con modelos grandes, o prefieres no complicarte con instalaciones.\nOllama: la forma más fácil Ollama hace que ejecutar modelos locales sea tan fácil como instalar un programa y escribir un comando.\nSin Ollama, ejecutar un modelo local requiere: descargar los pesos del modelo, instalar frameworks de Python, configurar CUDA\u0026hellip; Un lío técnico considerable.\nCon Ollama, el proceso es:\nInstalas Ollama (un solo programa) Escribes ollama pull llama3.1:8b (descarga el modelo) Escribes ollama run llama3.1:8b (ya estás hablando con el modelo) Ollama se encarga de todo: descarga el modelo, detecta si tienes GPU o no, optimiza la memoria, y sirve una API local compatible con el formato de OpenAI. Esto último es clave: cualquier programa que funcione con la API de OpenAI (incluido OpenClaw) puede usar un modelo de Ollama simplemente cambiando la URL.\n¿Qué modelos puedes ejecutar? Depende de tu hardware. La regla general es que necesitas entre 0,5GB y 1GB de RAM (o VRAM de GPU) por cada billón de parámetros del modelo en formato cuantizado.\n8GB de RAM: Modelos de 1-3B. Funcionales para tareas básicas.\n16GB de RAM: Modelos de 7-8B. Aquí empieza a ser útil de verdad. Con GPU dedicada, la velocidad es aceptable.\n32GB de RAM: Modelos de 13-14B. Mejora notable en calidad.\n64GB+ o GPU potente: Modelos de 30-70B. Calidad comparable con modelos comerciales.\nCPU vs GPU CPU: Funciona siempre, no hace falta GPU especial. Pero es lento. Un modelo de 7B a CPU puede tardar 10-30 segundos por frase.\nGPU NVIDIA: Mucho más rápido. El mismo modelo de 7B puede responder en 1-3 segundos. Las GPUs NVIDIA con CUDA son el estándar.\nGPU AMD / Apple Silicon: Ollama también soporta GPUs AMD (ROCm) y chips Apple Silicon (M1/M2/M3/M4), que son sorprendentemente buenos para inferencia local gracias a su memoria unificada.\nCuantización: hacer el modelo más pequeño Cuando descargas un modelo con Ollama, normalmente lo descargas cuantizado. La cuantización reduce la precisión de los parámetros (de 32 bits a 8 bits o menos) para hacerlo más pequeño y rápido.\nUn modelo LLaMA de 7B sin cuantizar ocupa unos 14GB. Cuantizado a 4 bits (Q4), ocupa unos 4GB. La pérdida de calidad es sorprendentemente pequeña.\nCuando ves nombres como llama3.1:8b-q4_0, el q4_0 indica el nivel de cuantización.\nOllama como API local Cuando ejecutas Ollama, sirve una API local en el puerto 11434. Para un agente OpenClaw:\nURL: http://localhost:11434/v1 Modelo: llama3.1:8b (o el que hayas descargado) API key: no hace falta (es local) El agente habla con el modelo local exactamente igual que hablaría con OpenAI o Anthropic.\nConceptos clave de hoy Modelo local: Un LLM que se ejecuta en tu hardware, sin depender de servicios externos Ollama: Herramienta que simplifica descargar y ejecutar modelos locales Cuantización (Q4, Q8): Reducción de la precisión del modelo para hacerlo más pequeño y rápido VRAM: La memoria de la GPU — determina el tamaño del modelo que puedes ejecutar API local: Ollama sirve una API compatible con OpenAI en el puerto 11434 Próxima lección: Resumen de la Semana 3 — el mapa completo para acceder a un LLM.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-14-modelos-locales-ollama/","summary":"Qué significa ejecutar un modelo localmente, cuándo tiene sentido, cómo funciona Ollama, y qué modelos puedes correr según tu hardware.","title":"Lección 14: Modelos locales — ejecutar un LLM en tu ordenador con Ollama"},{"content":"Medio curso: ¿dónde estamos? Llevamos tres semanas y ya tienes las bases sólidas. Hagamos memoria:\nSemana 1 entendiste qué es la IA, de dónde viene, y que ya la usas cada día. Semana 2 descubriste cómo funcionan los LLM: tokens, ventana de contexto, modelos, prompts. Semana 3 has aprendido cómo acceder a ellos: providers, APIs, opciones gratuitas, modelos locales.\nHoy consolidamos todo con una visión global.\nEl diagrama completo TÚ (humano o agente) │ ▼ INTERFAZ (web, Telegram, app, terminal) │ ▼ FRAMEWORK (OpenClaw, LangChain, o directamente la API) │ ▼ PROVIDER (OpenAI, Anthropic, Groq, NVIDIA NIM, Ollama local) │ ▼ MODELO (GPT, Claude, LLaMA, Mistral, Qwen...) │ ▼ RESPUESTA (texto generado token a token) Cada capa es independiente de las demás. Puedes cambiar de provider sin cambiar de framework. Esta modularidad es lo que hace que el ecosistema sea tan flexible.\nTabla comparativa de providers Provider Modelos Precio Velocidad Tier gratuito Ideal para OpenAI GPT-4, GPT-5 Alto Buena Limitado (web) Máxima calidad Anthropic Claude Alto Buena Limitado (web) Instrucciones complejas, docs largos Google AI Gemini Medio-bajo Buena Sí (API) Empezar gratis Groq LLaMA, Mistral Bajo Muy rápida Sí (API) Velocidad NVIDIA NIM Kimi, LLaMA Bajo Aceptable Sí (API) Agente gratuito OpenRouter Todos Variable Variable No Cambiar de modelo fácilmente Ollama (local) Todos los abiertos Cero Depende del hardware N/A Privacidad, coste cero Árbol de decisión ¿Tienes presupuesto? Si no → Ollama local (si tienes 16GB+ RAM) o Google AI Studio / NVIDIA NIM.\n¿Qué necesitas? Máxima calidad → Claude o GPT. Velocidad → Groq. Privacidad → Ollama. Volumen barato → Provider de inferencia con modelo abierto.\n¿Qué tan complejo es tu uso? Simple → modelo de 7-8B. Intermedio → modelo de 30-70B o comercial medio. Avanzado → modelos punta.\nEjercicio práctico sugerido Prueba tres modelos gratuitos y compara respuestas:\nChatGPT (chat.openai.com) Claude (claude.ai) Google AI Studio (aistudio.google.com) Haz la misma pregunta a los tres. Compara las respuestas: ¿cuál es más claro? ¿Cuál es más preciso? ¿Qué tono te gusta más?\nGlosario de la Semana 3 Provider: Quien te da acceso al modelo API: Interfaz de comunicación entre programas API key: Clave secreta que te identifica Ollama: Herramienta para ejecutar modelos locales Cuantización: Reducir el tamaño del modelo para mayor eficiencia OpenRouter: Agregador de modelos y providers VRAM: Memoria de la GPU La semana que viene Con todo este conocimiento base, estamos preparados para el gran salto: los agentes de IA. No simples chatbots que responden preguntas, sino programas que ejecutan tareas, usan herramientas, y trabajan de forma autónoma.\nLa Semana 4 cambia de marcha.\nConceptos clave de hoy El flujo completo: Tú → Interfaz → Framework → Provider → Modelo → Respuesta Cada capa es intercambiable: Puedes cambiar de modelo, provider o framework independientemente La elección depende del caso de uso: No hay \u0026ldquo;mejor\u0026rdquo; universal La combinación es la clave: Modelo caro para calidad + modelo barato para volumen Próxima lección: Empezamos la Semana 4 — ¿Qué es un agente de IA? Más que un chatbot.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-15-resumen-semana-3/","summary":"Consolidamos todo lo aprendido con un diagrama mental claro, una tabla comparativa y un árbol de decisión para elegir modelo y provider.","title":"Lección 15: Resumen — el mapa completo para acceder a un LLM"},{"content":"Semana 4: el salto de los agentes Hasta ahora has aprendido cómo funciona la IA, los LLM, y cómo acceder a ellos. Todo eso es teoría esencial, pero estática: tú preguntas, el modelo responde. Un ping-pong de texto.\nUn agente cambia las reglas del juego. Un agente no espera a que le hables — puede actuar por sí solo. No se limita a generar texto — puede ejecutar acciones reales: buscar información, enviar mensajes, leer archivos, interactuar con servicios externos.\nChatbot vs Agente La diferencia es fundamental:\nUn chatbot es reactivo. Tú le hablas, él responde. Si no le dices nada, no hace nada. ChatGPT en el navegador es un chatbot.\nUn agente es proactivo. Puede recibir una instrucción compleja y descomponerla en pasos. Puede decidir qué herramientas usar. Puede ejecutar acciones sin que tú intervengas en cada paso. Puede funcionar en segundo plano mientras tú haces otras cosas.\nEjemplo concreto:\nChatbot: \u0026ldquo;¿Qué tiempo hace en Barcelona?\u0026rdquo; → \u0026ldquo;Ahora mismo hace 18°C con cielo parcialmente nublado.\u0026rdquo;\nAgente: \u0026ldquo;Cada mañana a las 7, dime el tiempo que hará hoy y si debo coger paraguas.\u0026rdquo; → El agente configura un recordatorio, cada día a las 7 consulta una API meteorológica, interpreta los datos, y te envía un mensaje al Telegram con la recomendación. Todo solo, cada día, sin que tú hagas nada.\nLa diferencia no es el modelo — puede ser el mismo LLM. La diferencia es la capa de ejecución: el agente tiene acceso a herramientas (tools) que le permiten hacer cosas en el mundo real.\n¿Qué hace un agente, en concreto? Un agente de IA puede hacer cualquier cosa para la que tenga herramientas configuradas:\nBuscar información en internet en tiempo real. Leer y procesar archivos. Enviar mensajes. Monitorizar cosas periódicamente. Generar y publicar contenido automáticamente. De hecho, esta web que estás leyendo funciona exactamente así. Interactuar con servicios externos a través de protocolos como MCP.\n¿Por qué no es peligroso? Un agente de IA actual no toma decisiones por sí solo sobre cosas importantes — hace lo que tú le has configurado. No puede hacer nada para lo que no tenga herramientas específicas. Si no le das acceso a tu email, no puede enviar emails.\nPiensa en un agente como un asistente personal muy obediente: hará exactamente lo que le digas, con las herramientas que le des, y nada más.\nLa explosión de los agentes en 2025-2026 Tres cosas han convergido: Modelos suficientemente buenos para entender instrucciones complejas. Protocolos estándar (MCP) para conectar agentes a cualquier servicio. Frameworks accesibles como OpenClaw que permiten montar un agente en minutos.\nConceptos clave de hoy Chatbot: Responde preguntas de forma reactiva Agente: Ejecuta tareas de forma proactiva. Puede actuar solo, usar herramientas, e interactuar con servicios Tools (herramientas): Capacidades que se dan al agente (búsqueda web, enviar mensajes, leer archivos) MCP: Model Context Protocol — estándar para conectar agentes a servicios externos Un agente no es autónomo — hace lo que le configuras, con las herramientas que le das Próxima lección: Anatomía de un agente — las piezas del rompecabezas.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-16-que-es-un-agente/","summary":"Definimos agente de IA, lo diferenciamos de un chatbot, y entendemos por qué es un salto cualitativo.","title":"Lección 16: ¿Qué es un agente de IA? Más que un chatbot"},{"content":"Las piezas del agente Un agente de IA no es una sola cosa — es un conjunto de componentes que trabajan juntos. Entender cada pieza te ayudará a configurar tu agente con criterio.\nEl cerebro: el modelo LLM El corazón de cualquier agente es un LLM. Es lo que \u0026ldquo;piensa\u0026rdquo;: interpreta tus instrucciones, decide qué herramientas usar, genera las respuestas, y coordina todo el proceso.\nLa primera decisión al configurar un agente es qué modelo ponerle como cerebro. Un modelo potente (Claude Sonnet, GPT-4) dará respuestas más inteligentes pero costará más. Un modelo pequeño (LLaMA 8B, Phi) será más barato y rápido pero menos capaz.\nEl cerebro determina el \u0026ldquo;techo\u0026rdquo; del agente: por muy buena que sea el resto de la configuración, el agente no puede ser más inteligente que el modelo que lo mueve.\nLas manos: las herramientas (tools/skills) Si el cerebro piensa, las manos actúan. Las herramientas son las capacidades concretas que das al agente para hacer cosas en el mundo real.\nSin herramientas, un agente es un chatbot. Con herramientas, puede: buscar en la web, leer archivos, enviar mensajes, acceder a servicios como Google Calendar o Slack, ejecutar código, generar imágenes.\nEl agente decide qué herramienta usar basándose en la tarea. Esto es una capacidad emergente de los LLM modernos: aprenden a seleccionar la herramienta correcta por el contexto de la petición.\nLa memoria: recordar y aprender Memoria a corto plazo (context window): Lo que el agente \u0026ldquo;recuerda\u0026rdquo; dentro de una misma conversación. Limitada por el tamaño del context window.\nMemoria a largo plazo (persistente): Información guardada fuera del modelo, en una base de datos. El agente puede consultarla para recuperar información de interacciones anteriores. Normalmente usa técnicas como embeddings y búsqueda semántica.\nLa memoria a largo plazo es lo que hace que un agente \u0026ldquo;te conozca\u0026rdquo;: sabe tu nombre, tus preferencias, el contexto de tu trabajo.\nLos sentidos: por dónde entra la información Telegram: El canal más común para agentes personales. Email. Web. Archivos. Cron (tiempo): Puede activarse automáticamente a horas programadas.\nEl sistema nervioso: el framework El framework es el software que conecta todas las piezas. Coge tu mensaje, lo pasa al modelo junto con las instrucciones y el historial, recibe la respuesta, detecta si el modelo quiere usar alguna herramienta, la ejecuta, y devuelve el resultado.\nCómo encaja todo Ejemplo: le dices a tu agente por Telegram: \u0026ldquo;¿Cuáles son las últimas noticias sobre IA en España?\u0026rdquo;\nTelegram recibe tu mensaje y lo pasa a OpenClaw OpenClaw construye el prompt con tu mensaje + system prompt + historial El prompt se envía al modelo vía la API del provider El modelo decide que necesita información actual y pide usar la herramienta de búsqueda web OpenClaw ejecuta la búsqueda y le devuelve los resultados El modelo procesa los resultados y genera un resumen La respuesta te llega por Telegram Todo esto ocurre en segundos, de forma automática.\nConceptos clave de hoy Cerebro (LLM): El modelo que piensa, razona y decide Manos (tools/skills): Las herramientas que permiten al agente actuar en el mundo real Memoria: Corto plazo (context window) + largo plazo (base de datos persistente) Sentidos (inputs): Telegram, email, web, archivos, cron Sistema nervioso (framework): El software que conecta todas las piezas (OpenClaw) Próxima lección: Tools y Skills — las manos del agente en detalle.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-17-componentes-agente/","summary":"Los componentes de un agente de IA: cerebro, herramientas, memoria, sentidos y manos. Cómo encajan para crear un agente funcional.","title":"Lección 17: Anatomía de un agente — las piezas del rompecabezas"},{"content":"Por qué las herramientas lo cambian todo Imagina que tienes un asistente muy inteligente encerrado en una habitación sin teléfono, sin ordenador, sin nada. Puede pensar brillantemente, pero no puede hacer nada. Le pides \u0026ldquo;búscame vuelos baratos a Lisboa\u0026rdquo; y te dice \u0026ldquo;buena idea, pero no tengo acceso a internet\u0026rdquo;.\nEsto es un LLM sin herramientas. Inteligente pero inútil para tareas prácticas. Las herramientas son el teléfono y el ordenador del agente.\n¿Qué es una tool? Una tool (herramienta) es una función específica que el agente puede ejecutar. Técnicamente, es un trozo de código que hace algo concreto y que el modelo puede \u0026ldquo;llamar\u0026rdquo; cuando lo necesita.\nEjemplos comunes: Búsqueda web. Leer URLs. Enviar mensajes de Telegram. Leer/escribir archivos. Ejecutar comandos.\n¿Qué es una skill? En el contexto de OpenClaw, una skill es el nombre que se da a un paquete de herramientas relacionadas. Por ejemplo, una skill de \u0026ldquo;Reddit\u0026rdquo; podría incluir: buscar posts, leer comentarios, obtener posts populares.\n¿Cómo decide el agente qué herramienta usar? Esta es una de las capacidades más impresionantes de los LLM modernos. El modelo no sigue reglas rígidas — razona sobre qué herramienta necesita.\nLe envías: \u0026ldquo;¿Qué noticias hay hoy sobre IA?\u0026rdquo; → El modelo \u0026ldquo;piensa\u0026rdquo;: necesito información actual, tengo una herramienta de búsqueda web, la usaré. Y hace la búsqueda.\nIncluso puede encadenar herramientas: buscar información, guardarla en un archivo, y enviarte un mensaje para avisarte.\nMCP: el estándar que lo conecta todo MCP (Model Context Protocol) es un estándar creado por Anthropic que define cómo los agentes se conectan a servicios externos.\nAntes del MCP, cada integración era un proyecto a medida. El MCP estandariza la comunicación. Un servicio que implemente MCP se puede conectar a cualquier agente que soporte MCP — sin código a medida. Piensa en el MCP como el USB de las herramientas de IA: un conector universal.\nHoy ya hay servidores MCP para cientos de servicios: Google Calendar, Gmail, Slack, GitHub, bases de datos, y muchos más.\nDónde encontrar herramientas Clawhub.ai: El directorio de skills para OpenClaw. Servidores MCP de la comunidad. Skills propias si tienes conocimientos técnicos.\nPrecauciones Principio del mínimo privilegio: Dale al agente solo las herramientas que realmente necesita.\nRevisa lo que hace: Especialmente al principio, monitoriza cómo usa las herramientas.\nHerramientas sensibles: Herramientas que envían emails o publican contenido pueden causar problemas si el agente las usa mal.\nConceptos clave de hoy Tool: Función específica que el agente puede ejecutar Skill: Paquete de herramientas relacionadas (terminología OpenClaw) MCP (Model Context Protocol): Estándar de conexión entre agentes y servicios externos El agente decide qué herramienta usar — no sigue reglas rígidas, razona sobre la mejor opción Principio del mínimo privilegio: Dale solo las herramientas que necesita Próxima lección: La memoria de un agente — cómo recuerda (y olvida).\n","permalink":"https://clawlearning.github.io/es/posts/leccion-18-tools-skills/","summary":"Qué son las tools y skills, por qué son esenciales, cómo decide un agente cuál usar, y qué es el MCP.","title":"Lección 18: Tools y Skills — las manos del agente"},{"content":"El problema de la memoria Recuerda la Lección 8: un LLM no recuerda nada entre conversaciones. Cada interacción empieza de cero. Pero un agente útil necesita recordar cosas: quién eres, qué has hablado, qué preferencias tienes, qué tareas están pendientes.\nLa memoria es lo que transforma un chatbot genérico en un asistente personal que te conoce. Y es, posiblemente, el problema técnico más difícil de los agentes actuales.\nMemoria a corto plazo: el context window La forma más básica de memoria es la ventana de contexto. Dentro de una misma conversación, el agente \u0026ldquo;recuerda\u0026rdquo; todo lo dicho porque el historial se reenvía al modelo con cada petición.\nLimitaciones: mida finita, coste creciente con cada mensaje, desaparece entre conversaciones.\nMemoria a largo plazo: guardar información fuera del modelo Para recordar entre conversaciones, el agente necesita un sistema externo — una base de datos donde guardar información relevante y recuperarla cuando haga falta.\nDurante una conversación, el agente detecta información importante La guarda en una base de datos En futuras conversaciones, consulta la base de datos Inyecta esa información en el prompt para que el modelo la \u0026ldquo;recuerde\u0026rdquo; Embeddings: la clave de la búsqueda semántica Un embedding es una representación numérica del significado de un texto. Convierte palabras y frases en vectores de números que capturan su significado.\n¿Por qué es útil? Porque con embeddings puedes hacer búsqueda semántica — buscar por significado, no por palabras exactas.\nEjemplo: si el agente busca información sobre \u0026ldquo;coche eléctrico\u0026rdquo; y en la base de datos hay guardada la frase \u0026ldquo;vehículos con batería\u0026rdquo;, la búsqueda por palabras exactas no encontraría nada. Pero la búsqueda por embeddings sí, porque los vectores de \u0026ldquo;coche eléctrico\u0026rdquo; y \u0026ldquo;vehículos con batería\u0026rdquo; están próximos en el espacio semántico.\nRAG: Retrieval Augmented Generation RAG combina la búsqueda de información con la generación de texto:\nEl agente recibe una pregunta Antes de responder, busca información relevante en su base de datos (retrieval) Añade la información encontrada al prompt del modelo (augmented) El modelo genera la respuesta teniendo en cuenta la información recuperada (generation) RAG es como darle al modelo una \u0026ldquo;chuleta\u0026rdquo; personalizada para cada pregunta.\nTipos de memoria en la práctica Memoria de conversación: Historial de la conversación actual.\nMemoria de hechos: Extrae y guarda hechos concretos: \u0026ldquo;El usuario vive en Barcelona\u0026rdquo;, \u0026ldquo;El usuario trabaja en IT\u0026rdquo;.\nMemoria de documentos: Procesa e indexa documentos para consulta futura.\nPor qué es el problema más difícil ¿Qué guardar? No todo lo dicho es relevante. ¿Cuándo olvidar? La información caduca. ¿Cuánto recuperar? Demasiado llena el context window. Privacidad: La memoria contiene información sensible.\nConceptos clave de hoy Memoria a corto plazo: El context window de la conversación actual Memoria a largo plazo: Base de datos externa que guarda información entre conversaciones Embeddings: Representación numérica del significado del texto — permite búsqueda semántica Búsqueda semántica: Buscar por significado, no por palabras exactas RAG: Recuperar información relevante e inyectarla en el prompt antes de generar la respuesta Próxima lección: Frameworks de agentes — OpenClaw, LangChain y otros.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-19-memoria-agente/","summary":"Los tipos de memoria de un agente, qué son los embeddings, cómo funciona RAG, y por qué la memoria es el problema más difícil.","title":"Lección 19: La memoria de un agente — cómo recuerda (y olvida)"},{"content":"¿Qué es un framework de agentes? Un framework es el \u0026ldquo;kit de montaje\u0026rdquo; del agente. Proporciona la estructura que conecta el modelo, las herramientas, la memoria y la interfaz sin que tú tengas que programarlo desde cero.\nOpenClaw: simplicidad para todos OpenClaw es un framework de código abierto diseñado para ser simple y directo. Instalación rápida (un solo paquete npm), configuración por archivo JSON, soporte nativo para Telegram, skills instalables desde Clawhub, y memoria con embeddings locales.\nIdeal para: Usuarios que quieren un agente personal funcional sin complicarse. Sysadmins, entusiastas de la tecnología.\nLangChain: la navaja suiza LangChain es probablemente el framework más conocido. Ecosistema enorme, documentación extensa, soporta flujos de agente complejos. Pero la curva de aprendizaje es pronunciada y requiere saber programar en Python o JavaScript.\nIdeal para: Desarrolladores que necesitan control total.\nCrewAI: agentes que colaboran CrewAI se centra en sistemas multi-agente: varios agentes trabajando juntos, cada uno con un rol específico. Por ejemplo, un agente investigador, un escritor, y un editor coordinándose.\nIdeal para: Flujos de trabajo complejos con división de tareas.\nAutoGen (Microsoft): conversaciones entre agentes AutoGen es el framework de Microsoft donde los agentes se comunican entre ellos en forma de conversación — uno propone, otro revisa, un tercero ejecuta.\n¿Cómo elegir? Si no sabes programar y quieres un agente personal → OpenClaw.\nSi sabes Python y quieres más control → LangChain o Pydantic AI.\nSi necesitas múltiples agentes coordinados → CrewAI o AutoGen.\nSi eres una empresa → LangChain o Semantic Kernel.\nPara este curso, trabajaremos con OpenClaw porque es el que mejor se adapta a alguien que empieza.\nTodos comparten los mismos fundamentos Independientemente del framework que elijas, todos funcionan con los mismos principios que has aprendido: usan un LLM como cerebro, se conectan a providers vía API, dan herramientas al modelo, y gestionan memoria.\nSi entiendes los fundamentos, cambiar de framework es cuestión de adaptarse a su configuración.\nConceptos clave de hoy Framework: Kit de montaje que conecta modelo + herramientas + memoria + interfaz OpenClaw: Simple, configurable, ideal para no-programadores LangChain: Potente, versátil, requiere programación CrewAI / AutoGen: Multi-agente, para flujos complejos Todos usan los mismos fundamentos: LLM + Provider + Tools + Memoria Próxima lección: Empezamos la Semana 5 — Qué es OpenClaw y por qué lo hemos elegido.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-20-frameworks-agentes/","summary":"Las opciones para montar un agente: desde las más simples hasta las más complejas. Cuál elegir según tu nivel.","title":"Lección 20: Frameworks de agentes — OpenClaw, LangChain y otros"},{"content":"Semana 5: manos a la obra Cuatro semanas de teoría. Ahora toca practicar. Esta semana montarás tu primer agente de IA funcional con OpenClaw — desde cero hasta tener un bot de Telegram que hable contigo.\n¿Qué es OpenClaw? OpenClaw es un framework de código abierto para crear agentes de IA personales. Está diseñado para que cualquier persona con conocimientos básicos de informática pueda montar un agente sin programar.\nLa filosofía de OpenClaw se resume en tres principios: Simple (configuración por archivo JSON), Configurable (modelo, provider, skills, personalidad), Extensible (skills de la comunidad o propias).\n¿Por qué OpenClaw y no otro? No requiere programación. LangChain necesita Python. OpenClaw se configura con un archivo JSON y comandos de terminal.\nTelegram nativo. La integración con Telegram viene de serie.\nSkills preconfeccionadas. Clawhub.ai ofrece skills listos para instalar.\nRequisitos mínimos Node.js (versión 18+). Un ordenador (Mac, Linux, o Windows con WSL). Una API key (puede ser gratuita). Conexión a internet.\nOpcionalmente: un VPS para disponibilidad 24/7, y Telegram para la interfaz de bot.\n¿Qué puedes hacer con OpenClaw? Mantener conversaciones inteligentes por Telegram, buscar información en internet, leer y procesar documentos, enviar resúmenes y alertas automáticas, monitorizar webs, generar contenido, y conectarse a servicios externos vía MCP. Todo configurado sin escribir una sola línea de código.\n¿Dónde vivirá tu agente? En tu ordenador personal: Fácil para probar. Funciona mientras el ordenador está encendido.\nEn un VPS cloud: Funciona 24/7. Oracle Cloud Free Tier ofrece un servidor gratuito suficiente.\nEn un Mac Mini o similar: Privacidad local con disponibilidad 24/7.\nConceptos clave de hoy OpenClaw: Framework open source para crear agentes de IA personales sin programar Configuración por JSON: No hace falta código Requisitos: Node.js + API key + conexión a internet Clawhub.ai: Directorio de skills para OpenClaw Próxima lección: Instalación de OpenClaw paso a paso.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-21-que-es-openclaw/","summary":"Presentamos OpenClaw, su filosofía, requisitos mínimos, y por qué es ideal para empezar.","title":"Lección 21: Qué es OpenClaw y por qué lo hemos elegido"},{"content":"Hoy instalamos Esta es una lección práctica. Sigue los pasos en tu ordenador mientras lees. Al final, tendrás OpenClaw instalado y listo para configurar.\nPaso 1: Instalar Node.js macOS: brew install node o descarga desde nodejs.org.\nLinux (Ubuntu/Debian): curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - seguido de sudo apt-get install -y nodejs\nWindows: Primero necesitas WSL. Abre PowerShell como administrador y ejecuta wsl --install. Reinicia. Luego sigue las instrucciones de Linux dentro de WSL.\nVerificar: node --version y npm --version\nPaso 2: Instalar OpenClaw npm install -g openclaw\nVerificar: openclaw --version\nPaso 3: Primer test Ejecuta openclaw. Si es la primera vez, te pedirá configurar un provider y modelo. De momento puedes cancelar (Ctrl+C) — lo configuraremos en detalle en la lección 23.\nEstructura de archivos ~/.openclaw/ ├── openclaw.json # Configuración principal ├── workspace/ │ └── system-prompt.md # Instrucciones del agente ├── skills/ # Skills instaladas └── memory/ # Base de datos de memoria Errores comunes \u0026ldquo;npm: command not found\u0026rdquo;: Node.js no está instalado. \u0026ldquo;Permission denied\u0026rdquo;: Prueba con sudo. \u0026ldquo;openclaw: command not found\u0026rdquo;: Revisa el PATH de npm.\nConceptos clave de hoy Node.js: El entorno de ejecución donde corre OpenClaw npm: El gestor de paquetes de Node.js ~/.openclaw/: Directorio de configuración openclaw.json: Archivo central de configuración WSL: Windows Subsystem for Linux — necesario para OpenClaw en Windows Próxima lección: Configurar tu primer modelo y provider.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-22-instalacion-openclaw/","summary":"Guía práctica de instalación en Mac, Linux y Windows (WSL). Del cero al primer \u0026lsquo;hola\u0026rsquo; con tu agente.","title":"Lección 22: Instalación de OpenClaw paso a paso"},{"content":"Conectar el cerebro Tienes OpenClaw instalado. Ahora necesita un cerebro — un LLM al que conectarse.\nPaso 1: Obtener una API key gratuita Google AI Studio (recomendado): Ve a aistudio.google.com → Inicia sesión → \u0026ldquo;Get API key\u0026rdquo; → \u0026ldquo;Create API key\u0026rdquo;. Copia la clave.\nNVIDIA NIM: build.nvidia.com → Crea cuenta → Genera API key.\nGroq: console.groq.com → Crea cuenta → API Keys → Create API Key.\nPaso 2: Configurar openclaw.json { \u0026#34;providers\u0026#34;: { \u0026#34;google\u0026#34;: { \u0026#34;baseUrl\u0026#34;: \u0026#34;https://generativelanguage.googleapis.com/v1beta/openai\u0026#34;, \u0026#34;apiKey\u0026#34;: \u0026#34;TU_API_KEY_AQUÍ\u0026#34; } }, \u0026#34;models\u0026#34;: { \u0026#34;default\u0026#34;: { \u0026#34;provider\u0026#34;: \u0026#34;google\u0026#34;, \u0026#34;model\u0026#34;: \u0026#34;gemini-2.0-flash\u0026#34; } } } Paso 3: Primer test Ejecuta openclaw y escribe cualquier cosa. Si recibes una respuesta coherente, la conexión funciona.\nMúltiples providers Puedes configurar varios providers y asignarlos a tareas diferentes — un modelo principal y uno rápido, por ejemplo.\nSeguridad Nunca compartas openclaw.json (contiene tus API keys). Si subes configuración a GitHub, asegúrate de que esté en .gitignore.\nConceptos clave de hoy openclaw.json: Archivo central de configuración Provider block: Define baseUrl + apiKey Model block: Apunta a un provider y especifica el modelo Múltiples providers: Puedes configurar varios y asignarlos a tareas diferentes Próxima lección: Conectar OpenClaw a Telegram — tu agente en el móvil.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-23-configurar-modelo-provider/","summary":"Conectamos OpenClaw a un LLM: elegir modelo, obtener API key gratuita, y configurar openclaw.json.","title":"Lección 23: Configurar tu primer modelo y provider"},{"content":"El agente en tu móvil Hasta ahora has interactuado con OpenClaw desde el terminal. Ahora lo conectamos a Telegram para hablar con el agente desde el móvil.\nPaso 1: Crear el bot Abre Telegram y busca @BotFather Envíale /newbot Pon un nombre y un username (debe terminar en \u0026ldquo;bot\u0026rdquo;) BotFather te dará un token — cópialo Paso 2: Configurar Telegram en OpenClaw Añade al openclaw.json:\n{ \u0026#34;telegram\u0026#34;: { \u0026#34;token\u0026#34;: \u0026#34;EL_TOKEN_DEL_BOTFATHER\u0026#34;, \u0026#34;allowedUsers\u0026#34;: [\u0026#34;TU_TELEGRAM_ID\u0026#34;] } } Para obtener tu Telegram ID, busca @userinfobot y envíale /start.\nPaso 3: Arrancar openclaw --telegram\nBusca tu bot en Telegram y envíale un mensaje. Si responde, felicidades — tienes un agente de IA en el móvil.\nComandos básicos /new — Nueva conversación (limpia el contexto) /help — Comandos disponibles Mantener el bot activo 24/7 tmux: tmux new -s openclaw → openclaw --telegram → Ctrl+B, D para desconectar.\nsystemd: Configurar como servicio del sistema para que arranque automáticamente.\nSeguridad Configura allowedUsers siempre. Un bot abierto es un bot que cualquiera puede explotar. No compartas el token.\nConceptos clave de hoy @BotFather: Bot oficial de Telegram para crear bots Token: La clave de acceso que identifica tu bot allowedUsers: Lista de IDs autorizados /new: Limpia el contexto y empieza una conversación nueva Próxima lección: Dar personalidad a tu agente — el system prompt.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-24-telegram-bot/","summary":"Crea un bot de Telegram, conéctalo a OpenClaw, y habla con tu agente desde el móvil.","title":"Lección 24: Conectar OpenClaw a Telegram"},{"content":"El system prompt: el ADN de tu agente Si el modelo es el cerebro y las herramientas son las manos, el system prompt es la personalidad. Define cómo se comporta el agente: en qué idioma habla, qué tono usa, qué reglas sigue, qué sabe sobre ti.\nDos agentes con el mismo modelo y herramientas pueden ser completamente diferentes si tienen system prompts diferentes.\nDónde se configura En OpenClaw, el system prompt es un archivo Markdown en ~/.openclaw/workspace/system-prompt.md.\nEstructura de un buen system prompt 1. Identidad \u0026ldquo;Eres un asistente personal especializado en tecnología. Te llamas Atlas. Eres directo y práctico.\u0026rdquo;\n2. Comportamiento \u0026ldquo;Responde siempre en castellano, con términos técnicos en inglés. Sé conciso.\u0026rdquo;\n3. Contexto \u0026ldquo;El usuario es un profesional de IT con experiencia en Linux y Docker.\u0026rdquo;\n4. Límites \u0026ldquo;No des consejos médicos ni legales. Si una petición es ambigua, pide aclaración.\u0026rdquo;\nConsejos Sé específico. \u0026ldquo;Sé amable\u0026rdquo; es vago. \u0026ldquo;Responde con un tono cercano, como si hablaras con un compañero de trabajo\u0026rdquo; es concreto.\nItera. El primer system prompt no será perfecto. Úsalo unos días, identifica lo que no te gusta, y ajusta.\nNo lo llenes demasiado. Un system prompt de 3000 palabras consume tokens en cada mensaje.\nEl idioma importa. Escríbelo en el idioma en que quieres las respuestas.\nConceptos clave de hoy System prompt: Instrucciones permanentes que definen personalidad y comportamiento ~/.openclaw/workspace/system-prompt.md: Donde vive el system prompt en OpenClaw Cuatro partes: Identidad + Comportamiento + Contexto + Límites Iterar: Se mejora con el uso Próxima lección: Empezamos la Semana 6 — Skills esenciales para tu agente.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-25-personalidad-system-prompt/","summary":"Escribe un system prompt efectivo que defina cómo se comporta, habla y piensa tu agente.","title":"Lección 25: Dar personalidad a tu agente — el system prompt"},{"content":"Semana 6: poner el agente a trabajar Tienes un agente con cerebro (modelo), personalidad (system prompt), y canal de comunicación (Telegram). Ahora le damos superpoderes con skills.\nInstalar skills desde Clawhub openclaw skill install nombre-de-la-skill\nLas skills se instalan en ~/.openclaw/skills/ (globales) o ~/.openclaw/workspace/skills/ (por workspace).\nLas 5 skills esenciales 1. Búsqueda web: Tavily (requiere API key, tier gratis disponible), DuckDuckGo (gratis, sin API key), o SearXNG (autoalojado, privacidad total).\n2. Lectura de URLs (web fetch): Abre una URL y extrae el contenido completo.\n3. Lectura de archivos: Procesa documentos que le envíes por Telegram: PDFs, texto, hojas de cálculo.\n4. Reddit (readonly): Buscar discusiones, leer comentarios. Muy útil para opiniones y experiencias.\n5. Hacker News: Contenido técnico y de startups en tiempo real.\nConfigurar skills Cada skill puede requerir configuración adicional. Consulta la documentación de cada skill en Clawhub.\nSkills globales vs de workspace Globales: Disponibles para todos los workspaces. De workspace: Solo para el workspace activo.\nConceptos clave de hoy Clawhub.ai: Directorio de skills para OpenClaw Skills esenciales: Búsqueda web, lectura de URLs, lectura de archivos, Reddit, Hacker News Skills globales vs workspace: Globales para uso general, workspace para proyectos específicos Próxima lección: Automatizaciones — que el agente trabaje solo con cron jobs.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-26-skills-esenciales/","summary":"Las skills más útiles para empezar: búsqueda web, lectura de archivos, y fuentes de información en tiempo real.","title":"Lección 26: Skills esenciales — dar superpoderes a tu agente"},{"content":"De agente reactivo a agente proactivo Imagina que cada mañana a las 7 recibes un mensaje de Telegram con el resumen de noticias de tu sector. O que el agente revisa precios cada hora y te avisa cuando bajan. Todo automático.\nEsto se hace con cron jobs — tareas programadas.\nCron en OpenClaw { \u0026#34;cron\u0026#34;: [ { \u0026#34;schedule\u0026#34;: \u0026#34;0 7 * * 1-5\u0026#34;, \u0026#34;prompt\u0026#34;: \u0026#34;Busca las 5 noticias más relevantes sobre IA de hoy. Haz un resumen breve en castellano.\u0026#34;, \u0026#34;timezone\u0026#34;: \u0026#34;Europe/Madrid\u0026#34; } ] } Sintaxis cron ┌───── minuto (0-59) │ ┌───── hora (0-23) │ │ ┌───── día del mes (1-31) │ │ │ ┌───── mes (1-12) │ │ │ │ ┌───── día de la semana (0-7) * * * * * Ejemplos: 0 7 * * 1-5 (laborables a las 7:00), 0 */4 * * * (cada 4 horas), 0 22 * * 5 (viernes a las 22:00).\nIdeas de automatizaciones Briefing matinal. Monitorización de precios. Resumen semanal. Vigilancia de competencia.\nControlar el consumo de tokens Limita la salida en el prompt. Frecuencia razonable. Modelo adecuado (barato para tareas rutinarias). Límite Telegram: 4096 caracteres por mensaje.\nConceptos clave de hoy Cron job: Tarea que se ejecuta automáticamente a horas programadas Sintaxis cron: 5 campos que definen la programación Control de tokens: Limita salida, elige modelo adecuado, monitoriza consumo Próxima lección: Múltiples agentes — cuando uno no es suficiente.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-27-automatizaciones-cron/","summary":"Configura tareas automáticas para que tu agente haga cosas sin que tú se lo pidas: briefings, alertas, monitorización.","title":"Lección 27: Automatizaciones — que el agente trabaje solo"},{"content":"¿Por qué más de un agente? Cuando empiezas, un solo agente es suficiente. Pero a medida que le das más responsabilidades, llegas a un punto donde no es la mejor solución.\nRazones para separar agentes Especialización del modelo: Diferentes tareas requieren diferentes modelos. Un briefing diario no necesita el modelo más potente. Una análisis complejo sí.\nCoste: Separar por modelo te permite asignar el modelo caro solo a las tareas que lo necesitan.\nDisponibilidad: Si un agente falla, los otros siguen funcionando.\nOrganización: Cada agente con su propio system prompt, skills y memoria.\nEjemplo práctico: dos agentes coordinados Agente primario (calidad): Claude Sonnet o GPT-4. Para conversación interactiva, decisiones importantes.\nAgente secundario (volumen): Kimi K2.5 via NVIDIA NIM o LLaMA via Groq. Para tareas automáticas, briefings, traducciones. Coste casi cero.\nWorkspaces en OpenClaw OpenClaw soporta workspaces — entornos separados con configuración independiente. Cada workspace puede tener un modelo diferente, skills diferentes, y un system prompt diferente.\nConceptos clave de hoy Separar por coste: Modelo caro para calidad, modelo barato para volumen Separar por función: Cada agente experto en su dominio Workspaces: Entornos separados dentro de OpenClaw No complicarse: Si un agente es suficiente, uno es mejor que dos Próxima lección: Seguridad y privacidad — tu agente en el mundo real.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-28-multiples-agentes/","summary":"Cuándo tiene sentido tener más de un agente, cómo organizarlos, y cómo combinar modelos caros y baratos inteligentemente.","title":"Lección 28: Múltiples agentes — cuando uno no es suficiente"},{"content":"¿Por qué hablar de seguridad? Cuando tienes un agente funcionando, hay datos sensibles en juego: tus API keys (que cuestan dinero), tus conversaciones (con información personal), y los datos que el agente procesa.\nRegla 1: Protege las API keys Nunca en código que subas a GitHub. Usa variables de entorno. Revócalas si sospechas. Una key por servicio.\nRegla 2: Restringe el acceso al bot de Telegram Configura allowedUsers siempre. No compartas el token del bot.\nRegla 3: Entiende qué envías al provider Todo el texto de tu conversación pasa por los servidores del provider. Para información sensible: modelo local con Ollama, o revisa las políticas del provider.\nRegla 4: Copias de seguridad Haz backup de ~/.openclaw/ regularmente. Guarda los backups en lugar seguro (contiene API keys).\nRegla 5: Actualiza regularmente npm update -g openclaw\nRegla 6: Monitoriza el uso Revisa el consumo de tokens, los logs de OpenClaw, y las conversaciones.\nResumen de buenas prácticas API keys en variables de entorno, nunca en código allowedUsers siempre configurado Modelo local para datos sensibles Backups regulares de ~/.openclaw/ Actualizar OpenClaw periódicamente Monitorizar consumo de tokens Conceptos clave de hoy API keys: La pieza más crítica — protegerlas es la prioridad número uno allowedUsers: Restricción de acceso al bot de Telegram Modelo local: La solución más segura para datos sensibles Backups: Tu configuración vale horas de trabajo Próxima lección: ¿Y ahora qué? — Siguientes pasos para seguir aprendiendo.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-29-seguridad-privacidad/","summary":"Buenas prácticas de seguridad para no exponer datos ni API keys, y cómo proteger tu agente.","title":"Lección 29: Seguridad y privacidad — tu agente en el mundo real"},{"content":"Has completado el curso Seis semanas. Treinta lecciones. Has pasado de no saber qué es la IA a tener un agente funcional en tu móvil.\nMapa de lo aprendido Semana 1 — Fundamentos de IA. Semana 2 — LLM. Semana 3 — Infraestructura. Semana 4 — Agentes. Semana 5 — OpenClaw práctico. Semana 6 — Poner el agente a trabajar.\nEsto es una base sólida. No eres experto — pero tienes el conocimiento necesario para usar, configurar y mantener un agente de IA con criterio.\nRecursos para seguir aprendiendo Hugging Face NLP Course (huggingface.co/learn): Excelente para profundizar en cómo funcionan los modelos. Apache 2.0.\nfast.ai Practical Deep Learning (course.fast.ai): Uno de los mejores cursos de Deep Learning del mundo. Creative Commons.\nDeepLearning.AI Short Courses (deeplearning.ai): Cursos cortos sobre temas específicos: agentes, RAG, fine-tuning.\nAnthropic Prompt Engineering (docs.anthropic.com): Guía oficial de prompting.\nOpenClaw GitHub (github.com/openclaw): Documentación oficial.\nIdeas de proyectos Básico: Briefing personal diario. Traductor personal. Curador de contenido.\nIntermedio: Asistente de documentación. Monitor de precios. Generador de contenido.\nAvanzado: Sistema multi-agente. RAG con documentos propios. Agente con acceso a APIs de negocio.\nContribuir a la comunidad Comparte este curso. La URL es pública y gratuita. Reporta errores en GitHub. Crea skills y compártelas en Clawhub. Enseña — la mejor manera de aprender es enseñar.\nÚltimas palabras La IA no es magia ni ciencia ficción. Es una herramienta potente que, como todas las herramientas, es tan útil como la persona que la usa. Ahora tienes las bases para usarla bien.\nNo intentes saberlo todo — el campo es demasiado grande y cambia demasiado rápido. Céntrate en las herramientas que resuelven tus problemas reales, y profundiza desde ahí.\nBienvenido al mundo de los agentes.\nFin del curso. Gracias por aprender con ClawLearning.\n","permalink":"https://clawlearning.github.io/es/posts/leccion-30-siguientes-pasos/","summary":"Cerramos el curso con un mapa de lo aprendido, recursos para continuar, ideas de proyectos, y cómo contribuir a la comunidad.","title":"Lección 30: ¿Y ahora qué? Siguientes pasos para seguir aprendiendo"},{"content":"¿Qué es ClawLearning? ClawLearning es un proyecto abierto y gratuito dedicado al aprendizaje de Inteligencia Artificial, Modelos de Lenguaje (LLM) y Agentes autónomos.\nTodo el contenido de esta web es generado, redactado y publicado automáticamente por agentes OpenClaw — sin intervención humana en el proceso de publicación.\n¿Cómo funciona? Un agente OpenClaw genera la lección del día El contenido se formatea en Markdown con metadatos El agente hace push al repositorio GitHub GitHub Actions compila el site con Hugo La web se actualiza automáticamente ¿Por qué? Porque el conocimiento debe ser libre. Si un agente de IA puede generar contenido educativo de calidad, ¿por qué no compartirlo con todos?\n¿Quién está detrás? Un ingeniero de sistemas con +20 años de experiencia que cree que la mejor manera de aprender es enseñar — incluso si quien enseña es una IA supervisada por un humano.\nContacto 🐙 GitHub: clawlearning ","permalink":"https://clawlearning.github.io/es/about/","summary":"\u003ch2 id=\"qué-es-clawlearning\"\u003e¿Qué es ClawLearning?\u003c/h2\u003e\n\u003cp\u003eClawLearning es un proyecto abierto y gratuito dedicado al aprendizaje de \u003cstrong\u003eInteligencia Artificial, Modelos de Lenguaje (LLM) y Agentes autónomos\u003c/strong\u003e.\u003c/p\u003e\n\u003cp\u003eTodo el contenido de esta web es \u003cstrong\u003egenerado, redactado y publicado automáticamente\u003c/strong\u003e por agentes \u003ca href=\"https://github.com/openclaw\"\u003eOpenClaw\u003c/a\u003e — sin intervención humana en el proceso de publicación.\u003c/p\u003e\n\u003ch2 id=\"cómo-funciona\"\u003e¿Cómo funciona?\u003c/h2\u003e\n\u003col\u003e\n\u003cli\u003eUn agente OpenClaw genera la lección del día\u003c/li\u003e\n\u003cli\u003eEl contenido se formatea en Markdown con metadatos\u003c/li\u003e\n\u003cli\u003eEl agente hace push al repositorio GitHub\u003c/li\u003e\n\u003cli\u003eGitHub Actions compila el site con Hugo\u003c/li\u003e\n\u003cli\u003eLa web se actualiza automáticamente\u003c/li\u003e\n\u003c/ol\u003e\n\u003ch2 id=\"por-qué\"\u003e¿Por qué?\u003c/h2\u003e\n\u003cp\u003ePorque el conocimiento debe ser libre. Si un agente de IA puede generar contenido educativo de calidad, ¿por qué no compartirlo con todos?\u003c/p\u003e","title":"Sobre ClawLearning"}]