[{"content":"Què és la Intel·ligència Artificial? La Intel·ligència Artificial (IA) és la capacitat d\u0026rsquo;una màquina per fer tasques que normalment requeririen intel·ligència humana. Coses com entendre text, reconèixer imatges, prendre decisions o mantenir una conversa.\nPerò atenció: quan diem \u0026ldquo;intel·ligència\u0026rdquo; no volem dir que la màquina pensi, senti o tingui consciència. Vol dir que pot processar informació i donar respostes útils de manera que sembla intel·ligent.\nLa IA no és el que surt a les pel·lícules Oblidem-nos de Terminator, HAL 9000 i Matrix. La IA real del 2026 no vol dominar el món ni té sentiments. La IA actual és una eina — molt potent, sí — però una eina al cap i a la fi.\nLa IA de les pel·lícules es diu IA General (AGI): una intel·ligència que pot fer qualsevol tasca intel·lectual que faci un humà. Això encara no existeix, i no se sap quan existirà.\nEl que tenim avui es diu IA Estreta (Narrow AI): sistemes que fan UNA cosa molt bé. Un model que genera text, un altre que reconeix cares, un altre que tradueix idiomes. Cadascun és especialista en el seu camp, però no sap fer res més.\nJa fas servir IA cada dia (sense saber-ho) Potser penses que la IA és cosa de científics o programadors. Però si tens un mòbil, la fas servir cada dia:\nGoogle Maps calcula la millor ruta analitzant el trànsit en temps real amb IA. No és un càlcul simple de distància — prediu embussos, accidents i temps d\u0026rsquo;arribada usant milions de dades.\nSpotify i Netflix et recomanen cançons i pel·lícules. No ho fa un humà que mira els teus gustos — ho fa un model d\u0026rsquo;IA que compara el teu comportament amb milions d\u0026rsquo;altres usuaris i prediu què t\u0026rsquo;agradarà.\nEl corrector ortogràfic del teu mòbil prediu la paraula que estàs a punt d\u0026rsquo;escriure. Això és IA — un model entrenat amb milions de textos que ha après quines paraules solen anar juntes.\nEl filtre de spam del teu email separa el correu legítim de la brossa. No ho fa comparant amb una llista fixa — un model d\u0026rsquo;IA analitza el contingut, el remitent i patrons sospitosos per decidir.\nLes fotos del teu mòbil usen IA per al mode nit, el desenfocament de fons i el reconeixement facial. Quan el telèfon identifica cares o millora una foto fosca, és un model d\u0026rsquo;IA processant la imatge.\nIA Forta vs IA Feble Quan es parla d\u0026rsquo;IA, sovint es distingeix entre dos tipus:\nIA Feble (Narrow AI) és el que tenim avui. Sistemes dissenyats per fer una tasca concreta. ChatGPT genera text. Un cotxe autònom condueix. Un model de visió reconeix objectes. Cadascun és molt bo en el seu camp específic, però no pot fer res fora d\u0026rsquo;ell. ChatGPT no pot conduir un cotxe, i un cotxe autònom no pot escriure un poema.\nIA Forta (AGI — Artificial General Intelligence) seria una IA capaç de fer qualsevol tasca intel·lectual que faci un humà. Aprendre coses noves per si mateixa, adaptar-se a situacions desconegudes, raonar sobre qualsevol tema. Això encara no existeix. Hi ha debat sobre si estem a anys o a dècades de distància — o si és possible del tot.\nPer què importa ara? La IA ha passat de ser cosa de laboratoris a estar a l\u0026rsquo;abast de tothom. Amb eines com ChatGPT, Claude o Gemini, qualsevol persona pot interactuar amb un model d\u0026rsquo;IA usant llenguatge natural — sense saber programar, sense coneixements tècnics.\nAixò és un canvi de paradigma comparable a l\u0026rsquo;aparició d\u0026rsquo;Internet o dels smartphones. I com va passar amb Internet, qui entengui com funciona tindrà avantatge sobre qui simplement \u0026ldquo;l\u0026rsquo;usi sense pensar\u0026rdquo;.\nPer això estem aquí.\nConceptes clau d\u0026rsquo;avui IA (Intel·ligència Artificial): Capacitat d\u0026rsquo;una màquina per fer tasques que normalment requeririen intel·ligència humana IA Estreta (Narrow AI): IA dissenyada per una tasca concreta. És el que tenim avui IA General (AGI): IA hipotètica capaç de fer qualsevol tasca intel·lectual humana. Encara no existeix Model: El \u0026ldquo;cervell\u0026rdquo; entrenat que fa la feina. En parlarem molt més a les properes lliçons Propera lliçó: Breu història de la IA — de Turing a ChatGPT.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-01-que-es-la-ia/","summary":"Definim la IA de forma clara, desmuntem mites de ciència ficció, i descobrim que ja la fem servir cada dia.","title":"Lliçó 1: Què és la Intel·ligència Artificial?"},{"content":"Per què importa la història? No cal ser historiador per entendre la IA, però saber d\u0026rsquo;on ve ajuda a entendre on som. La IA no va aparèixer de cop amb ChatGPT — porta 70 anys d\u0026rsquo;evolució, amb èxits espectaculars i fracassos estrepitosos.\n1950: Alan Turing i la pregunta clau Tot comença amb una pregunta senzilla: \u0026ldquo;Pot una màquina pensar?\u0026rdquo;\nAlan Turing, matemàtic britànic considerat el pare de la informàtica, va proposar el 1950 el que avui coneixem com el Test de Turing: si una persona parla amb una màquina i no pot distingir si les respostes vénen d\u0026rsquo;un humà o d\u0026rsquo;una màquina, llavors la màquina es pot considerar \u0026ldquo;intel·ligent\u0026rdquo;.\nTuring no va arribar a veure cap IA funcional — va morir el 1954. Però va plantar la llavor.\n1956-1970: L\u0026rsquo;eufòria inicial El 1956, un grup de científics es van reunir a la Universitat de Dartmouth i van encunyar el terme \u0026ldquo;Intel·ligència Artificial\u0026rdquo;. Estaven convençuts que en una generació tindrien màquines tan intel·ligents com humans.\nAquells primers anys van ser d\u0026rsquo;optimisme desbocat. Es van crear programes que podien jugar a escacs, resoldre problemes lògics i mantenir converses bàsiques. ELIZA (1966), un programa que simulava ser un psicoterapeuta, va sorprendre molta gent — tot i que simplement reformulava el que li deies com a pregunta.\n1970-1980: El primer hivern L\u0026rsquo;optimisme es va estavellar contra la realitat. Els ordinadors dels anys 70 eren massa lents i tenien massa poca memòria per fer res realment intel·ligent. Els governs van retallar la financiació perquè les promeses no es complien.\nAixò es coneix com el primer hivern de la IA — un període de desil·lusió on gairebé ningú volia invertir en IA.\n1980-1990: Sistemes experts i el segon intent Als anys 80, la IA va reviure amb els sistemes experts: programes amb regles escrites a mà per experts humans. Per exemple, un sistema expert mèdic tenia milers de regles del tipus \u0026ldquo;si el pacient té febre I tos I dificultat per respirar, llavors considereu pneumònia\u0026rdquo;.\nVan funcionar en camps molt específics, però tenien un problema fonamental: cada regla s\u0026rsquo;havia d\u0026rsquo;escriure manualment. A mesura que el domini es feia complex, mantenir les regles era insostenible.\n1990-2000: El segon hivern Els sistemes experts van mostrar les seves limitacions. La financiació es va tornar a retallar. La IA va tornar a caure en descrèdit. Segon hivern.\nMentrestant, en silenci, uns investigadors treballaven en una idea diferent: en lloc de programar regles a mà, i si deixéssim que la màquina aprengués dels exemples? Això es deia Machine Learning — aprenentatge automàtic.\n2012: La revolució del Deep Learning El punt d\u0026rsquo;inflexió va arribar el 2012, quan un sistema de Deep Learning (aprenentatge profund) va guanyar la competició ImageNet de reconeixement d\u0026rsquo;imatges amb un marge brutal sobre tots els mètodes anteriors.\nLa clau va ser la combinació de tres coses que no existien juntes fins llavors:\nDades massives — Internet havia generat quantitats enormes de text, imatges i vídeos GPUs potents — les targetes gràfiques de videojocs resultaven ser perfectes per entrenar xarxes neuronals Algorismes millorats — xarxes neuronals amb moltes capes (\u0026ldquo;profundes\u0026rdquo;) que podien aprendre patrons complexos A partir de 2012, la IA no ha parat de créixer.\n2017: L\u0026rsquo;arquitectura Transformer Un paper de Google titulat \u0026ldquo;Attention Is All You Need\u0026rdquo; va presentar l\u0026rsquo;arquitectura Transformer — la base de tots els models de llenguatge moderns. Sense aquest paper, no existirien ni GPT, ni Claude, ni Gemini, ni cap dels models que fem servir avui.\nEls Transformers van resoldre un problema clau: com processar seqüències llargues de text de manera eficient i paral·lela. Abans, els models llegien el text paraula per paraula. Els Transformers poden \u0026ldquo;veure\u0026rdquo; tot el text d\u0026rsquo;un cop i decidir a quines parts prestar atenció.\n2022: ChatGPT i l\u0026rsquo;explosió El novembre de 2022, OpenAI va llançar ChatGPT — i va canviar-ho tot. No era el primer chatbot, ni el primer LLM, ni tan sols el model més potent del moment. Però va ser el primer que qualsevol persona podia provar gratis al navegador.\nEn 5 dies va arribar a 1 milió d\u0026rsquo;usuaris. En 2 mesos, a 100 milions. La IA va passar de ser un tema de laboratori a ser tema de conversa al bar.\n2023-2026: La cursa actual Des de ChatGPT, la cursa ha estat vertiginosa:\nAnthropic va llançar Claude, amb èmfasi en seguretat i utilitat Google va respondre amb Gemini Meta va apostar per l\u0026rsquo;open source amb LLaMA Mistral va emergir com l\u0026rsquo;alternativa europea DeepSeek i altres models xinesos van demostrar que la innovació és global Avui, els models no només generen text — entenen imatges, àudio i vídeo. I amb l\u0026rsquo;aparició de frameworks com OpenClaw, qualsevol persona pot tenir el seu propi agent d\u0026rsquo;IA funcionant.\nEl patró dels hiverns i estius Si observes la història, veus un patró clar: eufòria → promeses exagerades → decepció → hivern → nova tecnologia → eufòria.\nEstem en un estiu de la IA? Probablement. Vindrà un altre hivern? Potser, però amb una diferència: aquesta vegada la IA ja està integrada en productes que milions de persones usen cada dia. No és fàcil \u0026ldquo;desinstal·lar\u0026rdquo; una cosa que ja ha canviat com treballem.\nConceptes clau d\u0026rsquo;avui Test de Turing: Si no pots distingir una màquina d\u0026rsquo;un humà en una conversa, la màquina és \u0026ldquo;intel·ligent\u0026rdquo; Hivern de la IA: Període de desil·lusió on es retalla la inversió en IA (n\u0026rsquo;hi ha hagut dos) Deep Learning: Aprenentatge automàtic amb xarxes neuronals profundes (moltes capes) Transformer: L\u0026rsquo;arquitectura que va fer possibles els LLM moderns (2017) Machine Learning: Fer que les màquines aprenguin dels exemples en lloc de programar-les regla per regla Propera lliçó: Tipus d\u0026rsquo;IA — com classifiquem les màquines intel·ligents.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-02-breu-historia-ia/","summary":"D\u0026rsquo;on ve la IA, per què va \u0026lsquo;morir\u0026rsquo; dues vegades, i com hem arribat fins al boom actual.","title":"Lliçó 2: Breu història de la IA — de Turing a ChatGPT"},{"content":"Per què classificar la IA? Quan algú diu \u0026ldquo;IA\u0026rdquo;, pot estar parlant de coses molt diferents. El filtre de spam del teu email és IA. ChatGPT és IA. Un cotxe autònom és IA. Però funcionen de maneres completament diferents.\nEntendre els tipus d\u0026rsquo;IA t\u0026rsquo;ajudarà a saber de què parla la gent quan diu \u0026ldquo;machine learning\u0026rdquo;, \u0026ldquo;deep learning\u0026rdquo; o \u0026ldquo;IA generativa\u0026rdquo; — termes que sonen similars però signifiquen coses molt diferents.\nEl gran paraigua: Intel·ligència Artificial La IA és el paraigua general que ho engloba tot. Qualsevol sistema que faci tasques que normalment requeririen intel·ligència humana és IA. Dins d\u0026rsquo;aquest paraigua, hi ha nivells.\nPensa-t\u0026rsquo;ho com cercles concèntrics: la IA és el cercle gran, dins hi ha el Machine Learning, i dins d\u0026rsquo;aquest hi ha el Deep Learning. No són coses diferents — cadascun és un subconjunt de l\u0026rsquo;anterior.\nMachine Learning: aprendre dels exemples El Machine Learning (ML, aprenentatge automàtic) és la branca de la IA on la màquina aprèn dels exemples en lloc de ser programada amb regles.\nEn la programació tradicional, tu li dius a l\u0026rsquo;ordinador exactament què ha de fer: \u0026ldquo;si l\u0026rsquo;email conté la paraula \u0026lsquo;viagra\u0026rsquo;, és spam\u0026rdquo;. En Machine Learning, li dones milers d\u0026rsquo;emails etiquetats com a \u0026ldquo;spam\u0026rdquo; o \u0026ldquo;no spam\u0026rdquo;, i la màquina aprèn sola a distingir-los. Pot descobrir patrons que tu ni imaginaves.\nHi ha tres tipus principals d\u0026rsquo;aprenentatge:\nAprenentatge supervisat: Li dones dades amb les respostes correctes, i aprèn a predir-les. Exemple: li mostres 10.000 fotos de gats i gossos etiquetades, i aprèn a distingir-los en fotos noves.\nAprenentatge no supervisat: Li dones dades sense etiquetar, i busca patrons per si sol. Exemple: li dones dades de clients i descobreix grups (els que compren molt, els que compren poc, els que compren de nit\u0026hellip;) sense que tu li diguis quins grups buscar.\nAprenentatge per reforç: La màquina aprèn per prova i error, rebent \u0026ldquo;recompenses\u0026rdquo; quan ho fa bé i \u0026ldquo;penalitzacions\u0026rdquo; quan ho fa malament. Exemple: un programa que juga a escacs juga milions de partides contra si mateix i aprèn quines estratègies funcionen.\nDeep Learning: xarxes neuronals profundes El Deep Learning és un subconjunt del Machine Learning que usa xarxes neuronals artificials — estructures inspirades (molt vagament) en el cervell humà.\nUna xarxa neuronal és una cadena de capes de \u0026ldquo;neurones\u0026rdquo; que processen la informació. Cada capa detecta patrons a un nivell diferent. En reconeixement d\u0026rsquo;imatges, per exemple, la primera capa detecta línies, la segona formes, la tercera objectes, la quarta escenes completes.\n\u0026ldquo;Profund\u0026rdquo; (deep) vol dir que la xarxa té moltes capes. Les xarxes dels anys 90 tenien 2-3 capes. Les d\u0026rsquo;avui poden tenir centenars. Més capes = capacitat de detectar patrons més complexos, però també necessita més dades i més potència de càlcul.\nTot el que estem veient al boom actual — reconeixement de veu, generació de text, traducció, generació d\u0026rsquo;imatges — és Deep Learning.\nIA Generativa: crear coses noves La IA Generativa és la branca que ha causat l\u0026rsquo;explosió actual. Són models entrenats per crear contingut nou: text, imatges, àudio, vídeo, codi.\nA diferència d\u0026rsquo;una IA que classifica (spam o no spam) o prediu (quin serà el preu demà), la IA generativa produeix coses que no existien. Escriu textos, pinta imatges, compon música.\nEls exemples més coneguts:\nGeneració de text: GPT, Claude, Gemini, LLaMA Generació d\u0026rsquo;imatges: DALL-E, Midjourney, Stable Diffusion Generació de codi: GitHub Copilot, Claude, Cursor Generació de vídeo: Sora, Runway Generació de veu: ElevenLabs Quan fem servir ChatGPT o Claude, estem usant IA generativa de text. L\u0026rsquo;eina no busca informació a internet (tret que tingui cerca web activada) — genera text nou paraula per paraula.\nOn encaixen les eines que coneixes? Ara que tens el mapa, veiem on cauen les eines populars:\nChatGPT, Claude, Gemini: Són IA generativa de text, construïda amb Deep Learning, específicament amb l\u0026rsquo;arquitectura Transformer. Pertanyen a la família dels LLM (Large Language Models), que veurem en detall a la setmana 2.\nGoogle Maps (rutes): Machine Learning supervisat. Entrenat amb dades de trànsit real per predir temps d\u0026rsquo;arribada.\nSpotify (recomanacions): Machine Learning no supervisat + supervisat. Agrupa usuaris amb gustos similars i prediu què t\u0026rsquo;agradarà.\nFiltre de spam: Machine Learning supervisat. Entrenat amb milions d\u0026rsquo;emails etiquetats.\nTesla Autopilot: Deep Learning amb visió per computador + aprenentatge per reforç. Processa imatges de les càmeres en temps real.\nNo tot el que diu \u0026ldquo;IA\u0026rdquo; és IA Un avís important: el terme \u0026ldquo;IA\u0026rdquo; s\u0026rsquo;ha convertit en un terme de màrqueting. Veuràs productes que diuen \u0026ldquo;amb IA\u0026rdquo; que realment fan coses molt simples — a vegades són regles programades a mà sense cap aprenentatge automàtic.\nSi una empresa diu que el seu producte \u0026ldquo;usa IA\u0026rdquo;, pregunta\u0026rsquo;t: aprèn de les dades? O simplement segueix regles fixes? Si és el segon cas, és programació tradicional amb un nom modern.\nConceptes clau d\u0026rsquo;avui Machine Learning: La màquina aprèn dels exemples en lloc de ser programada amb regles Deep Learning: Machine Learning amb xarxes neuronals de moltes capes IA Generativa: Models que creen contingut nou (text, imatges, codi, vídeo) Aprenentatge supervisat: Aprendre amb dades etiquetades (preguntes amb resposta correcta) Aprenentatge no supervisat: Trobar patrons en dades sense etiquetar Aprenentatge per reforç: Aprendre per prova i error amb recompenses Propera lliçó: Què és un model d\u0026rsquo;IA? — sense matemàtiques, prometut.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-03-tipus-ia/","summary":"Les diferents categories d\u0026rsquo;IA explicades de forma pràctica: Machine Learning, Deep Learning, IA generativa i molt més.","title":"Lliçó 3: Tipus d'IA — com classifiquem les màquines intel·ligents"},{"content":"Què és un model? Un model d\u0026rsquo;IA és un programa que ha estat entrenat amb dades per fer una tasca. Pensa en ell com un cervell especialitzat: ha absorbit una quantitat enorme d\u0026rsquo;informació i ha après patrons que li permeten fer prediccions o generar contingut.\nLa paraula \u0026ldquo;model\u0026rdquo; pot confondre perquè s\u0026rsquo;usa molt en ciència amb significats diferents. En IA, un model és simplement el resultat de l\u0026rsquo;entrenament: un fitxer (o conjunt de fitxers) que conté tot el que la màquina ha après.\nL\u0026rsquo;entrenament: com aprèn un model Imagina que vols ensenyar a un nen a reconèixer gats. No li dones una definició (\u0026ldquo;animal de quatre potes amb bigotis\u0026rdquo;) — li mostres centenars de fotos de gats i dius \u0026ldquo;això és un gat\u0026rdquo;. Amb prou exemples, el nen aprèn a reconèixer gats que mai ha vist.\nUn model d\u0026rsquo;IA funciona igual, però a una escala massiva:\nLi dones dades d\u0026rsquo;entrenament — milions o bilions d\u0026rsquo;exemples El model busca patrons — connexions entre les dades que li permeten predir S\u0026rsquo;avalua i es corregeix — si s\u0026rsquo;equivoca, s\u0026rsquo;ajusten els paràmetres interns Es repeteix el procés fins que les prediccions són prou bones Per a un model de llenguatge com Claude o GPT, les \u0026ldquo;dades d\u0026rsquo;entrenament\u0026rdquo; són quantitats enormes de text: llibres, articles, webs, codi, converses. El model aprèn com funciona el llenguatge: quines paraules solen anar juntes, com s\u0026rsquo;estructura una frase, com es desenvolupa un argument.\nParàmetres: la mida del cervell Quan sents parlar de models de \u0026ldquo;7B\u0026rdquo;, \u0026ldquo;70B\u0026rdquo; o \u0026ldquo;405B\u0026rdquo;, la B vol dir bilions de paràmetres.\nUn paràmetre és un número intern del model que s\u0026rsquo;ajusta durant l\u0026rsquo;entrenament. Pensa en els paràmetres com les connexions sinàptiques del cervell: cadascuna guarda un trosset del que el model ha après.\nMés paràmetres vol dir que el model pot aprendre patrons més complexos i subtils. Però també vol dir que necessita més memòria per funcionar i és més lent.\nPer posar-ho en perspectiva:\nUn model petit (1-3B paràmetres) pot funcionar al teu ordinador. Fa tasques bàsiques bé, però es queda curt amb raonaments complexos. Un model mitjà (7-13B) necessita un bon ordinador amb GPU. Pot mantenir converses coherents i fer tasques variades. Un model gran (70B+) necessita servidors potents. És el que fan servir els serveis comercials com ChatGPT o Claude. Un model gegant (200B+) necessita centres de dades sencers. Són els models punta de les grans empreses. Més gran no sempre és millor Una trampa comuna és pensar que el model més gran serà sempre el millor. No és així.\nUn model petit ben entrenat amb dades de qualitat pot superar un model gran entrenat amb dades mediocres. La qualitat de les dades d\u0026rsquo;entrenament és tan important com la mida del model — i sovint més.\nA més, un model gegant pot ser excessiu per a la teva tasca. Si només necessites que et resumeixi emails, un model de 7B pot fer-ho perfectament. Gastar diners en un model de 200B per a aquesta tasca seria com llogar un camió per anar a comprar el pa.\nLa importància de les dades Hi ha una expressió en anglès: \u0026ldquo;Garbage in, garbage out\u0026rdquo; — si li dones brossa, et torna brossa. Això és especialment cert per als models d\u0026rsquo;IA.\nUn model entrenat amb textos plens d\u0026rsquo;errors tindrà errors. Un model entrenat majoritàriament amb textos en anglès serà pitjor en català. Un model entrenat amb dades esbiaixades reproduirà aquests biaixos.\nPer això les empreses que entrenen models inverteixen tant en curar les dades: seleccionar, netejar i equilibrar els textos amb què entrenen els seus models. No és només qüestió de quantitat — la qualitat i diversitat de les dades determinen la qualitat del model resultant.\nModels oberts vs models tancats Una distinció important és entre models oberts i tancats:\nModels tancats (propietaris): No pots veure com estan fets ni descarregar-los. Només pots usar-los a través de l\u0026rsquo;API o la web de l\u0026rsquo;empresa. Exemples: GPT d\u0026rsquo;OpenAI, Claude d\u0026rsquo;Anthropic, Gemini de Google.\nModels oberts (open source o open weights): Pots descarregar el model, executar-lo al teu ordinador, modificar-lo i usar-lo com vulguis. Exemples: LLaMA de Meta, Mistral, Qwen.\nCada opció té avantatges:\nEls models tancats solen ser més potents (les empreses no publiquen els seus millors models) i no necessites hardware propi. Però depens de l\u0026rsquo;empresa, pagues per ús, i les teves dades passen pels seus servidors.\nEls models oberts et donen control total, privacitat, i cost zero per ús. Però necessites hardware per executar-los i sovint són menys potents que els millors models tancats.\nL\u0026rsquo;analogia del xef Si tot això encara sona abstracte, pensa en un xef:\nLes dades d\u0026rsquo;entrenament són tots els plats que ha provat, les receptes que ha estudiat, les cuines que ha visitat Els paràmetres són les seves habilitats i coneixements acumulats El model és el xef entrenat, llest per cuinar El prompt (que veurem més endavant) és el que li demanes que cuini La resposta és el plat que et serveix Un xef amb més experiència (més paràmetres) i millors mestres (millors dades) farà millors plats. Però fins i tot el millor xef necessita que li demanis bé el que vols — si li dius \u0026ldquo;fes menjar\u0026rdquo;, el resultat serà aleatori. Si li dius \u0026ldquo;fes un risotto de bolets amb un toc de tòfona\u0026rdquo;, el resultat serà molt millor.\nConceptes clau d\u0026rsquo;avui Model: El resultat de l\u0026rsquo;entrenament — un fitxer que conté tot el que la màquina ha après Entrenament: El procés d\u0026rsquo;alimentar un model amb dades perquè aprengui patrons Paràmetres (7B, 70B, 405B): Les connexions internes del model. Més paràmetres = més capacitat, més recursos Dades d\u0026rsquo;entrenament: El material amb què aprèn el model. La qualitat és clau Model obert: Pots descarregar-lo i executar-lo al teu hardware Model tancat: Només accessible via API o web de l\u0026rsquo;empresa Propera lliçó: La IA que ja fas servir sense saber-ho — un recorregut per totes les aplicacions d\u0026rsquo;IA del teu dia a dia.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-04-que-es-un-model/","summary":"Què és un model, com s\u0026rsquo;entrena, per què n\u0026rsquo;hi ha de grans i petits, i per què no tots els models són iguals.","title":"Lliçó 4: Què és un model d'IA? (sense matemàtiques)"},{"content":"IA invisible La IA més exitosa és la que no notes. No la veus, no saps que hi és, però si la traguessis, el teu dia a dia canviaria dràsticament. Avui farem un recorregut per totes les aplicacions d\u0026rsquo;IA que probablement ja fas servir.\nEl teu mòbil és una fàbrica d\u0026rsquo;IA Cada vegada que fas una foto, el teu telèfon posa en marxa diversos models d\u0026rsquo;IA simultàniament.\nMode nit: Quan fas una foto amb poca llum, la càmera no simplement augmenta la brillantor. Un model d\u0026rsquo;IA analitza la imatge, separa el senyal del soroll, i reconstrueix detalls que l\u0026rsquo;ull humà a penes veu. Per això les fotos de nit dels mòbils moderns semblen miracles — ho són, computacionals.\nMode retrat (desenfocament): El telèfon té una càmera petita i plana que físicament no pot desenfocar el fons com una càmera professional. Un model d\u0026rsquo;IA detecta on ets tu i on és el fons, i aplica el desenfocament artificialment. Tan bé que la majoria de gent no nota la diferència.\nReconeixement facial: Quan desbloqueges el mòbil amb la cara, un model d\u0026rsquo;IA compara la teva cara amb la que té guardada. I no és una comparació simple de fotos — funciona amb angles diferents, amb barba o sense, amb ulleres, de nit.\nTeclat predictiu: Cada vegada que escrius un missatge, el teclat prediu la paraula següent. Això és un petit model de llenguatge entrenat amb milions de textos. No és tan potent com ChatGPT, però la idea base és la mateixa: predir la paraula més probable.\nNavegació i transport Google Maps / Waze: No es limiten a calcular la ruta més curta — prediuen el trànsit futur. Analitzen dades de milions de telèfons en temps real, les combinen amb patrons històrics (els divendres a les 18h l\u0026rsquo;autopista X es col·lapsa) i calculen el temps d\u0026rsquo;arribada amb una precisió sorprenent. Això és Machine Learning pur.\nUber / Cabify: El preu del viatge no és fix — un model d\u0026rsquo;IA l\u0026rsquo;ajusta dinàmicament segons la demanda, el trànsit, l\u0026rsquo;hora i la zona. Si plou i hi ha poca oferta de conductors, el preu puja. L\u0026rsquo;algoritme busca l\u0026rsquo;equilibri entre oferta i demanda en temps real.\nConducció assistida: Cotxes com Tesla, Mercedes o BMW usen models de Deep Learning per processar les imatges de les càmeres i detectar carrils, cotxes, vianants i senyals. No és un cotxe autònom complet (encara), però la IA ja frena per tu si detecta un obstacle, manté el carril i aparca sola.\nEntreteniment Netflix: El 80% del que la gent mira a Netflix ve de recomanacions de la IA. El model analitza què has vist, durant quant de temps, quan vas parar, què vas saltar, i ho compara amb milions d\u0026rsquo;altres usuaris. Fins i tot les miniatures que veus estan personalitzades — si t\u0026rsquo;agraden les pel·lícules d\u0026rsquo;acció, et mostra una miniatura amb una escena d\u0026rsquo;acció; si prefereixes el drama, la miniatura serà diferent per a la mateixa pel·lícula.\nSpotify / YouTube Music: El Discover Weekly de Spotify és un exemple brillant d\u0026rsquo;IA. Cada dilluns tens una llista de 30 cançons que probablement t\u0026rsquo;agradaran. El model analitza les teves escoltes, busca usuaris amb gustos similars, i t\u0026rsquo;ofereix el que ells escolten i tu encara no has descobert.\nYouTube: L\u0026rsquo;algoritme de recomanació de YouTube és un dels models d\u0026rsquo;IA més potents (i controvertits) del món. Decideix què et mostra a la pàgina principal i què et suggereix després de cada vídeo. Està optimitzat per maximitzar el temps que passes mirant — per bé i per mal.\nTikTok: El \u0026ldquo;For You\u0026rdquo; de TikTok és IA de recomanació portada a l\u0026rsquo;extrem. Analitza no només què mires, sinó com ho mires: quant de temps mires cada vídeo, si el tornes a veure, si el comparteixes, si el comentes. En menys de 30 minuts d\u0026rsquo;ús, el model ja té un perfil bastant precís dels teus gustos.\nComunicació Filtre de spam: El filtre de spam del teu email és un dels exemples més antics i exitosos d\u0026rsquo;IA quotidiana. Analitza el contingut, el remitent, els patrons de formatting, els enllaços, i decideix si un email és legítim o brossa. Cada vegada que marques un email com a spam, estàs entrenant el model.\nTraducció automàtica: Google Translate va passar de ser una broma a ser sorprenentment útil gràcies al Deep Learning. Des del 2016 usa una xarxa neuronal que tradueix frases senceres en lloc de paraula per paraula. DeepL, un competidor europeu, va pujar el llistó encara més amb models específicament dissenyats per a traducció.\nAssistents de veu: Siri, Alexa i Google Assistant combinen diversos models d\u0026rsquo;IA: un per entendre la teva veu (speech-to-text), un per interpretar què vols (processament del llenguatge natural), un per generar la resposta, i un per convertir-la en veu (text-to-speech). Cada frase que els dius passa per almenys quatre models d\u0026rsquo;IA.\nCompres i finances Amazon: Les recomanacions de \u0026ldquo;qui ha comprat això també ha comprat\u0026hellip;\u0026rdquo; són IA de filtratge col·laboratiu. Però Amazon va molt més enllà: usa IA per decidir quins productes et mostra primer, quin preu oferir-te, quan fer promocions, i fins i tot com organitzar els seus magatzems per enviar-te les coses més ràpid.\nDetecció de frau bancari: Si la teva targeta de crèdit es bloqueja quan fas una compra estranya, és perquè un model d\u0026rsquo;IA ha detectat un patró inusual. Compra a les 3 de la matinada des d\u0026rsquo;un país on mai has estat? El model ho marca com a sospitós en mil·lisegons.\nPublicitat personalitzada: Per què et surten anuncis de coses que acabes de buscar (o de pensar)? Models d\u0026rsquo;IA analitzen el teu comportament de navegació, les teves compres, i la teva demografia per mostrar-te anuncis que tenen més probabilitat de funcionar. No et llegeixen la ment — però el model és tan bo que a vegades ho sembla.\nSalut Diagnòstic per imatge: Models de Deep Learning poden detectar tumors en radiografies i mamografies amb una precisió comparable (i a vegades superior) a la de radiòlegs experts. No substitueixen el metge — però l\u0026rsquo;ajuden a no passar per alt anomalies.\nPredicció de malalties: Alguns hospitals usen models que analitzen l\u0026rsquo;historial clínic del pacient per predir el risc de malalties futures. Un model pot detectar patrons subtils en analítiques de sang que un humà no veuria.\nSeguretat Reconeixement facial en aeroports: Cada vegada més aeroports usen IA per verificar identitats. El model compara la teva cara amb la foto del passaport en segons.\nDetecció de contingut il·legal: Les plataformes de xarxes socials usen IA per detectar i eliminar contingut que viola les seves polítiques — des de discurs d\u0026rsquo;odi fins a contingut il·legal. No ho poden fer manualment amb el volum de contingut que es publica cada segon.\nLa pregunta que et queda Després de veure tot això, potser et preguntes: si la IA ja fa tantes coses per mi, per què necessito entendre-la?\nPerquè hi ha una diferència entre ser usuari passiu d\u0026rsquo;IA que altres han dissenyat per tu, i ser usuari actiu que entén com funciona, tria quines eines usar, i fins i tot crea els seus propis agents.\nAquesta és la diferència que estem construint en aquest curs.\nConceptes clau d\u0026rsquo;avui IA invisible: La IA més exitosa és la que no notes perquè està integrada en productes quotidians Recomanació: Sistemes que prediuen què t\u0026rsquo;agradarà basant-se en el teu comportament i el d\u0026rsquo;altres Filtratge col·laboratiu: Recomanar-te coses basant-se en què fan usuaris similars a tu Speech-to-text / Text-to-speech: Convertir veu a text i viceversa — ambdós són models d\u0026rsquo;IA Propera lliçó: Comencem la Setmana 2 — Què és un LLM? El model que entén (i genera) text.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-05-ia-al-dia-a-dia/","summary":"Un recorregut per totes les aplicacions d\u0026rsquo;IA que ja formen part de la teva vida quotidiana — des del mòbil fins al cotxe.","title":"Lliçó 5: La IA que ja fas servir sense saber-ho"},{"content":"Setmana 2: entrem al cor de la revolució Si la Setmana 1 va ser entendre el \u0026ldquo;mar\u0026rdquo; de la IA en general, ara ens capbussem en la tecnologia específica que ha causat l\u0026rsquo;explosió actual: els Large Language Models (LLM) — Models Grans de Llenguatge.\nQuan fas servir ChatGPT, Claude, Gemini o qualsevol chatbot modern, estàs parlant amb un LLM. Quan un agent d\u0026rsquo;IA escriu, resumeix, tradueix o programa, ho fa amb un LLM. Entendre què és i com funciona un LLM és la clau per entendre tot el que vindrà després.\nQuè és un LLM? Un LLM és un model d\u0026rsquo;IA entrenat amb quantitats massives de text que pot entendre i generar llenguatge humà.\nDesglossem el nom:\nLarge (Gran): Té bilions de paràmetres i ha estat entrenat amb bilions de paraules Language (Llenguatge): El seu domini és el text — entendre\u0026rsquo;l i produir-ne Model: Com hem vist a la Lliçó 4, és un \u0026ldquo;cervell\u0026rdquo; entrenat Un LLM no és una base de dades que busca respostes. No és un buscador com Google. No copia i enganxa text de cap lloc. El que fa és generar text nou paraula per paraula, basant-se en patrons que ha après durant l\u0026rsquo;entrenament.\nCom funciona? La predicció de la paraula següent El mecanisme base d\u0026rsquo;un LLM és sorprenentment simple d\u0026rsquo;entendre: prediu la paraula següent.\nSi li dones el text \u0026ldquo;El gat va pujar a la\u0026hellip;\u0026rdquo;, el model calcula les probabilitats de totes les paraules possibles que podrien anar a continuació i tria la més probable. \u0026ldquo;Taula\u0026rdquo;? \u0026ldquo;Teulada\u0026rdquo;? \u0026ldquo;Cadira\u0026rdquo;? Basant-se en tot el text que ha vist durant l\u0026rsquo;entrenament, decideix quina paraula té més sentit.\nPerò no ho fa una vegada — ho fa per cada paraula. Genera la primera paraula, la suma al text, i llavors prediu la segona. I la tercera. I així successivament, paraula per paraula, fins que la resposta és completa.\nPot semblar un mecanisme massa simple per produir textos coherents, raonaments complexos i respostes útils. Però quan entrenes un model amb bilions de paraules i li dones bilions de paràmetres, la predicció de \u0026ldquo;la paraula següent\u0026rdquo; es converteix en una capacitat emergent molt més potent del que ningú esperava.\nUn LLM no és un buscador Aquesta és una confusió molt comuna i val la pena aclarir-la bé.\nQuan busques a Google, el buscador recorre un índex de pàgines web i et mostra les que millor encaixen amb la teva cerca. La informació ve de pàgines web reals que existeixen en algun servidor.\nQuan preguntes a un LLM, el model genera una resposta nova basada en patrons que va aprendre durant l\u0026rsquo;entrenament. No busca a internet (tret que tingui cerca web activada). No consulta cap base de dades en temps real. Produeix text nou basant-se en la probabilitat estadística de les paraules.\nAixò explica dues coses importants:\nPer què els LLM poden \u0026ldquo;inventar-se\u0026rdquo; coses: Si el model prediu que la paraula següent més probable és X, la posarà — encara que sigui incorrecta. Això es coneix com a al·lucinació.\nPer què els LLM no sempre tenen informació actualitzada: El model sap el que havia al text d\u0026rsquo;entrenament, que té una data de tall. No sap què ha passat després d\u0026rsquo;aquella data, tret que tingui accés a cerca web.\nQuè pot fer un LLM? La versatilitat dels LLM és el que els fa tan revolucionaris. Un sol model pot:\nGenerar text: Escriure articles, emails, cartes, històries, poemes, resums.\nRespondre preguntes: Des de preguntes simples fins a raonaments complexos de múltiples passos.\nTraduir: Convertir text entre idiomes, sovint amb qualitat sorprenentment bona.\nResumir: Condensar textos llargs en resums breus mantenint les idees principals.\nProgramar: Escriure codi en pràcticament qualsevol llenguatge de programació.\nAnalitzar: Examinar dades, text o arguments i donar-ne una interpretació.\nConversar: Mantenir diàlegs coherents sobre qualsevol tema, recordant el context de la conversa.\nTot això amb el mateix model, sense canviar-lo ni reentrenar-lo. Simplement canvies el que li demanes (el prompt) i el model adapta la seva sortida.\nQuè NO pot fer un LLM? Igual d\u0026rsquo;important que saber què pot fer és saber què no:\nNo \u0026ldquo;sap\u0026rdquo; res amb certesa: Prediu text probable, no afirma veritats. Pot generar informació incorrecta amb total convicció.\nNo té experiències ni emocions: Quan un LLM diu \u0026ldquo;entenc com et sents\u0026rdquo;, està generant la frase que estadísticament segueix el teu missatge. No sent res.\nNo pensa com un humà: El procés intern és càlcul matemàtic de probabilitats, no raonament conscient. Pot simular raonament de manera impressionant, però el mecanisme subjacent és fonamentalment diferent.\nNo accedeix a internet (per defecte): Tret que tingui eines de cerca web activades, no pot consultar informació en temps real.\nNo aprèn de les teves converses: Cada conversa comença de zero. El model no es modifica quan parles amb ell. (Alguns sistemes afegeixen memòria per sobre del model, però el model base no canvia.)\nPer què ara i no abans? Els models de llenguatge existeixen des de fa dècades. El que ha canviat és l\u0026rsquo;escala:\nMés dades: Internet ha generat bilions de textos accessibles per a l\u0026rsquo;entrenament Més potència: Les GPUs modernes permeten entrenar models amb centenars de bilions de paràmetres Millors arquitectures: El Transformer (2017) va fer possible processar text de manera molt més eficient RLHF: El Reinforcement Learning from Human Feedback va fer que els models fossin molt millors seguint instruccions i generant respostes útils La combinació d\u0026rsquo;aquests quatre factors és el que ha produït l\u0026rsquo;explosió que estem vivint.\nConceptes clau d\u0026rsquo;avui LLM (Large Language Model): Model d\u0026rsquo;IA entrenat amb text massiu per entendre i generar llenguatge Predicció de la paraula següent: El mecanisme base dels LLM — genera text predient quina paraula ve després Al·lucinació: Quan un LLM genera informació incorrecta amb aparent confiança RLHF: Tècnica que fa que els models siguin millors seguint instruccions humanes Propera lliçó: Tokens — com un LLM \u0026ldquo;llegeix\u0026rdquo; el text.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-06-que-es-un-llm/","summary":"Definim LLM, entenem per què és diferent d\u0026rsquo;una cerca a Google, i descobrim com funciona la generació de text.","title":"Lliçó 6: Què és un LLM? El model que entén (i genera) text"},{"content":"Per què parlem de tokens? Si has llegit sobre IA, segur que has vist frases com \u0026ldquo;el model admet 128K tokens\u0026rdquo; o \u0026ldquo;el preu és de $3 per milió de tokens\u0026rdquo;. Però què és exactament un token?\nEntendre els tokens és pràctic i important perquè afecten tres coses que et preocuparan quan usis un LLM: quant costa, quant de text pot processar, i quant de ràpid respon.\nUn token NO és una paraula Aquí ve la primera sorpresa: un LLM no llegeix paraules. Llegeix tokens — trossos de text que poden ser paraules senceres, parts de paraules, o fins i tot caràcters individuals.\nEl procés de convertir text en tokens es diu tokenització, i el fa un programa anomenat tokenitzador abans que el text arribi al model.\nVegem exemples en anglès (on la tokenització és més eficient):\n\u0026ldquo;Hello\u0026rdquo; → 1 token (paraula comuna, va sencera) \u0026ldquo;unhappiness\u0026rdquo; → 3 tokens: \u0026ldquo;un\u0026rdquo; + \u0026ldquo;happiness\u0026rdquo; → en realitat és \u0026ldquo;un\u0026rdquo; + \u0026ldquo;happi\u0026rdquo; + \u0026ldquo;ness\u0026rdquo; \u0026ldquo;ChatGPT\u0026rdquo; → 2-3 tokens: \u0026ldquo;Chat\u0026rdquo; + \u0026ldquo;G\u0026rdquo; + \u0026ldquo;PT\u0026rdquo; o similar I en català:\n\u0026ldquo;Hola\u0026rdquo; → 1 token (paraula curta i comuna) \u0026ldquo;Intel·ligència\u0026rdquo; → 3-4 tokens (paraula llarga i poc comuna en dades d\u0026rsquo;entrenament en anglès) \u0026ldquo;Desenvolupament\u0026rdquo; → 3-5 tokens Per què funciona així? La raó és eficiència. Imagina que el model hagués d\u0026rsquo;aprendre cada paraula de cada idioma com una unitat independent. Necessitaria un vocabulari de milions d\u0026rsquo;entrades.\nEn canvi, amb la tokenització, el model treballa amb un vocabulari de 30.000-100.000 tokens que pot combinar per representar qualsevol text en qualsevol idioma. Les paraules comunes en anglès (que és l\u0026rsquo;idioma dominant en les dades d\u0026rsquo;entrenament) tendeixen a ser un sol token. Les paraules menys comunes o d\u0026rsquo;altres idiomes es divideixen en trossos.\nPensa-ho com les peces de Lego: amb un conjunt limitat de peces pots construir qualsevol cosa. Les peces més grans (tokens de paraules senceres) cobreixen els casos comuns ràpidament. Les peces petites (tokens de fragments) permeten construir qualsevol paraula inusual.\nPer què els idiomes no-anglesos \u0026ldquo;gasten\u0026rdquo; més tokens? Això és important i té conseqüències pràctiques: escriure en català, castellà, àrab, japonès o qualsevol idioma que no sigui anglès consumeix més tokens per expressar la mateixa idea.\nPer què? Perquè el tokenitzador s\u0026rsquo;ha entrenat majoritàriament amb text en anglès. Les paraules angleses comunes s\u0026rsquo;han convertit en tokens eficients (1 paraula = 1 token). Les paraules en altres idiomes sovint es divideixen en fragments perquè apareixen menys en les dades d\u0026rsquo;entrenament.\nEn la pràctica, un text en català pot consumir entre un 20% i un 50% més de tokens que el mateix text en anglès. Això vol dir que et costa més diners processar-lo i que \u0026ldquo;cap menys text\u0026rdquo; dins la finestra de context del model.\nTokens d\u0026rsquo;entrada vs tokens de sortida Quan interactues amb un LLM, hi ha dos fluxos de tokens:\nTokens d\u0026rsquo;entrada (input): El text que tu envies al model — la teva pregunta, instruccions, context, documents adjunts. Tot això es tokenitza i entra al model.\nTokens de sortida (output): El text que el model genera com a resposta. Cada paraula de la resposta és un o més tokens generats seqüencialment.\nLa majoria de providers cobren ambdós, però amb preus diferents. Normalment, els tokens de sortida són més cars que els d\u0026rsquo;entrada (perquè generar requereix més càlcul que llegir).\nEl preu per token Quan veus un preu com \u0026ldquo;$3 per milió de tokens d\u0026rsquo;entrada\u0026rdquo;, què significa en termes pràctics?\nUna regla ràpida per a l\u0026rsquo;anglès: 1 token ≈ 0,75 paraules (o al revés, 1 paraula ≈ 1,3 tokens). Per al català, compta 1 paraula ≈ 1,5-2 tokens.\nAixò vol dir que un milió de tokens d\u0026rsquo;entrada en anglès són unes 750.000 paraules — l\u0026rsquo;equivalent a uns 10 llibres. A $3 per milió de tokens, processar 10 llibres d\u0026rsquo;entrada costa $3. Barat? Depèn de l\u0026rsquo;ús que en facis. Si el teu agent processa centenars de peticions al dia, els tokens s\u0026rsquo;acumulen ràpid.\nEines per comptar tokens No has d\u0026rsquo;estimar a ull — hi ha eines gratuïtes per comptar tokens exactament:\nOpenAI Tokenizer (platform.openai.com/tokenizer): Enganxa un text i et mostra quants tokens té i com es divideix. És per als models d\u0026rsquo;OpenAI, però dona una idea general.\nTiktokenizer (tiktokenizer.vercel.app): Una interfície visual on veus els tokens amb colors diferents, molt útil per entendre com es divideix el text.\nNo tots els models usen el mateix tokenitzador — Claude, GPT i Gemini poden tokenitzar el mateix text de manera lleugerament diferent. Però les diferències no són dràstiques.\nPer què tot això importa per a tu? Si estàs aquí perquè vols muntar un agent amb OpenClaw, els tokens seran una part constant del teu dia a dia:\nCost: Cada interacció amb el teu agent consumeix tokens. Entendre quants en gastes t\u0026rsquo;ajuda a controlar la factura.\nLímit de context: El model té un límit de tokens que pot processar d\u0026rsquo;un cop (la \u0026ldquo;finestra de context\u0026rdquo; que veurem a la lliçó següent). Si el superes, el model comença a \u0026ldquo;oblidar\u0026rdquo; informació.\nVelocitat: Generar més tokens de sortida = més temps de resposta. Un model que genera una resposta de 500 tokens és més ràpid que un que en genera 2000.\nOptimització: Escriure prompts eficients (clars i concisos) no és només bona pràctica — estalvia tokens i diners.\nConceptes clau d\u0026rsquo;avui Token: La unitat mínima de text que processa un LLM — pot ser una paraula, part d\u0026rsquo;una paraula, o un caràcter Tokenització: El procés de convertir text en tokens Tokenitzador: El programa que fa la tokenització (cada família de models té el seu) Tokens d\u0026rsquo;entrada vs sortida: L\u0026rsquo;entrada és el que envies, la sortida és el que el model genera Regla ràpida: 1 paraula en anglès ≈ 1,3 tokens / 1 paraula en català ≈ 1,5-2 tokens Propera lliçó: La finestra de context — la memòria a curt termini d\u0026rsquo;un LLM.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-07-tokens-i-tokenitzacio/","summary":"Què són els tokens, per què no són paraules, i per què importa entendre\u0026rsquo;ls quan parles de cost, velocitat i límits.","title":"Lliçó 7: Tokens — com un LLM 'llegeix' el text"},{"content":"Què és la finestra de context? La finestra de context (context window) és la quantitat total de text que un LLM pot processar d\u0026rsquo;un sol cop. Inclou tant el que tu li envies (entrada) com el que ell genera (sortida).\nPensa en la finestra de context com la \u0026ldquo;memòria de treball\u0026rdquo; del model — l\u0026rsquo;equivalent a la teva memòria a curt termini quan llegeixes un text. Pots tenir al cap unes quantes pàgines de contingut. Si el text és molt llarg, les primeres pàgines es van desdibuixant mentre avances.\nUn LLM funciona igual: tot el que cap dins la finestra de context, ho pot \u0026ldquo;veure\u0026rdquo; i usar. El que no hi cap, no existeix per a ell.\nQuant hi cap? La mida de la finestra de context es mesura en tokens i varia molt entre models:\nEls primers models comercials (GPT-3, 2020) tenien finestres de 4.096 tokens — unes 3.000 paraules, poc més que un article curt.\nAvui els models puntuals ofereixen finestres molt més grans. Claude pot treballar amb 200.000 tokens (unes 150.000 paraules, l\u0026rsquo;equivalent a un llibre sencer). GPT-4 arriba a 128.000 tokens. Gemini 1.5 Pro va arribar al milió de tokens.\nAquestes xifres sonen enormes, però en la pràctica s\u0026rsquo;omplen més ràpid del que sembla. Si li dones al model un document de 50 pàgines i li fas preguntes, gran part de la finestra ja està ocupada pel document.\nEntrada + sortida = context total Un punt important que molta gent no entén: la finestra de context inclou tot — l\u0026rsquo;entrada i la sortida.\nSi un model té una finestra de 128K tokens i tu li envies un document de 100K tokens, li queden 28K tokens per generar la resposta. Si li dones un document de 127K tokens, pràcticament no pot respondre.\nEn una conversa, la cosa es complica: cada missatge teu i cada resposta del model s\u0026rsquo;acumulen dins la finestra. Una conversa llarga pot arribar al límit sense que te n\u0026rsquo;adonis.\nQuè passa quan arribes al límit? Quan la conversa o l\u0026rsquo;entrada supera la finestra de context, el model ha de \u0026ldquo;descartar\u0026rdquo; informació. Depenent del sistema, pot passar una de dues coses:\nTruncament: El sistema elimina els missatges més antics de la conversa per fer espai als nous. El model \u0026ldquo;oblida\u0026rdquo; el principi de la conversa. Això pot causar que perdi el fil d\u0026rsquo;una discussió llarga.\nError: Alguns sistemes simplement rebutgen l\u0026rsquo;entrada si supera el límit i et demanen que la redueixis.\nCap de les dues opcions és ideal. Per això, gestionar bé el context és una habilitat important quan treballes amb LLM.\nUn LLM no recorda entre converses Aquesta és potser la confusió més gran que té la gent: un LLM no recorda les converses anteriors.\nCada vegada que obres un xat nou amb ChatGPT, Claude o qualsevol LLM, el model comença completament de zero. No sap qui ets, què li vas preguntar ahir, ni què vas acordar amb ell la setmana passada.\nPer què? Perquè el model és un programa estàtic que no canvia quan parles amb ell. Les teves converses no modifiquen els paràmetres del model. Quan tanques el xat, tot desapareix (pel que fa al model).\nLlavors, com és que ChatGPT i Claude \u0026ldquo;recorden\u0026rdquo; coses? Perquè les plataformes afegeixen capes per sobre del model:\nHistorial de conversa: El sistema guarda els missatges anteriors i els torna a enviar al model en cada interacció (consumint tokens de la finestra de context) Memòria persistent: Alguns sistemes extreuen informació clau de les converses i la guarden en una base de dades separada, injectant-la en futures converses System prompt: Instruccions fixes que s\u0026rsquo;envien al model en cada missatge (consumint tokens però mantenint coherència) Tot això són \u0026ldquo;trucs\u0026rdquo; externs al model — el model en si no recorda res.\nConsells pràctics sobre el context Sigues concís: No omplis la finestra de context amb text innecessari. Cada token que malbarates és un token menys per a la resposta o per al context important.\nEstructura bé les converses llargues: Si tens una conversa molt llarga, considera començar-ne una de nova amb un resum del que heu discutit fins ara.\nDóna context rellevant: Si necessites que el model sàpiga alguna cosa, posa-ho al missatge. No assumeixis que ho \u0026ldquo;sap\u0026rdquo; d\u0026rsquo;alguna conversa anterior.\nEntén el trade-off: Finestres de context més grans permeten treballar amb documents llargs, però també costen més (més tokens processats) i poden ser més lentes.\nConceptes clau d\u0026rsquo;avui Finestra de context (context window): La quantitat total de tokens que un LLM pot processar d\u0026rsquo;un cop (entrada + sortida) Truncament: Quan el sistema elimina missatges antics per fer espai als nous Un LLM no recorda entre converses: Cada xat comença de zero; la \u0026ldquo;memòria\u0026rdquo; la gestionen capes externes Historial de conversa: Truc de la plataforma — reenvia els missatges anteriors al model consumint tokens Propera lliçó: El mapa dels LLM — qui és qui al 2026.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-08-context-window/","summary":"Què és el context window, per què té límit, què passa quan el superes, i per què un LLM no recorda les converses anteriors.","title":"Lliçó 8: La finestra de context — la memòria a curt termini d'un LLM"},{"content":"Per què cal conèixer el mapa? Quan comencis a configurar el teu propi agent, una de les primeres decisions serà: quin model uso? Hi ha desenes de models disponibles i cada setmana en surten de nous. Tenir un mapa mental clar t\u0026rsquo;ajudarà a triar amb criteri en lloc de triar a cegues.\nEls grans: empreses i models OpenAI — El pioner comercial OpenAI va llançar ChatGPT i va encendre la revolució. Els seus models de la família GPT són els més coneguts del mercat.\nOpenAI se centra en ser el més potent i el primer en noves capacitats. Té la base d\u0026rsquo;usuaris més gran i l\u0026rsquo;ecosistema de desenvolupadors més madur. Com a contrapartida, és un dels providers més cars i els seus models són completament tancats.\nAnthropic — Seguretat i utilitat Anthropic, fundada per antics membres d\u0026rsquo;OpenAI, crea la família de models Claude. La seva filosofia és construir IA potent però segura — amb molt d\u0026rsquo;èmfasi en seguir instruccions correctament, ser honest sobre les limitacions, i evitar contingut nociu.\nClaude destaca especialment en tasques que requereixen instruccions complexes, escriptura de qualitat, i anàlisi de documents llargs (amb un context window de 200K tokens). Per a molts desenvolupadors i usuaris avançats, Claude és el model preferit per la qualitat de les seves respostes.\nGoogle — L\u0026rsquo;ecosistema integrat Google competeix amb la família Gemini. L\u0026rsquo;avantatge de Google és la integració amb el seu ecosistema: Gmail, Google Docs, Google Search, Android. Gemini pot accedir a les teves dades de Google de manera nativa.\nGoogle també ha sigut pioner en la recerca que va fer possibles els LLM — el paper \u0026ldquo;Attention Is All You Need\u0026rdquo; (Transformers) va sortir de Google. Irònicament, van trigar a capitalitzar-ho comercialment.\nMeta — El líder open source Meta (Facebook) ha pres un camí diferent: publica els seus models LLaMA com a open source. Qualsevol persona o empresa pot descarregar-los, usar-los i modificar-los.\nAquesta estratègia ha accelerat enormement la innovació. La comunitat open source ha creat centenars de variants de LLaMA optimitzades per a tasques específiques, idiomes concrets o hardware limitat. Si vols executar un model al teu ordinador sense pagar per token, probablement faràs servir un model basat en LLaMA o els seus derivats.\nMistral — L\u0026rsquo;alternativa europea Mistral és una empresa francesa que ha demostrat que es poden fer models competitius des d\u0026rsquo;Europa. Els seus models destaquen per la seva eficiència — ofereixen bon rendiment amb mides relativament petites.\nMistral publica tant models oberts com models comercials. Els seus models oberts (com Mistral 7B) han sigut molt populars per a ús local.\nModels xinesos — La innovació global Empreses xineses han emergit amb força. DeepSeek va sacsejar el mercat amb models que rivalizaven amb els millors occidentals. Qwen (Alibaba) i Kimi (Moonshot AI) ofereixen models potents, molts d\u0026rsquo;ells open source.\nAquests models demostren que la innovació en IA és global i que la competència beneficia tothom.\nModels oberts que pots executar tu Si vols executar un model al teu ordinador (amb Ollama, que veurem a la Setmana 3), aquestes són les famílies més populars:\nLLaMA (Meta): La referència. Models de 8B a 405B paràmetres. El de 8B funciona en la majoria d\u0026rsquo;ordinadors moderns amb 16GB de RAM.\nMistral / Mixtral: Models eficients que donen molt bon rendiment per la seva mida. Mixtral usa una arquitectura \u0026ldquo;Mixture of Experts\u0026rdquo; que és més eficient.\nQwen (Alibaba): Bons models multilingües. Qwen2.5 és especialment competent en idiomes no-anglesos.\nGemma (Google): Models petits i eficients que Google publica com a open source. Ideals per a tasques lleugeres.\nPhi (Microsoft): Models petits (3-4B paràmetres) sorprenentment capaços. Demostren que la mida no ho és tot.\nCom triar un model? La tria depèn de quatre factors:\n1. Tasca: Per a conversa general i raonament complex, els models grans (Claude, GPT) són superiors. Per a tasques específiques i repetitives, un model petit pot ser suficient i molt més barat.\n2. Pressupost: Els models comercials cobren per token. Els models oberts locals tenen cost zero per ús, però necessites hardware.\n3. Privacitat: Si les teves dades són sensibles, un model local garanteix que res surt del teu ordinador. Amb un model comercial, les teves dades passen pels servidors de l\u0026rsquo;empresa.\n4. Qualitat vs velocitat: Els models grans són més precisos però més lents. Els models petits són més ràpids i barats, però poden fer més errors.\nNo hi ha un \u0026ldquo;millor model\u0026rdquo; universal — hi ha el millor model per al teu cas d\u0026rsquo;ús.\nEls rànquings: on comparar Si vols veure com es comparen els models objectivament:\nChatbot Arena (lmsys.org): Rànquing basat en votacions humanes. Les persones comparen respostes de dos models anònims i trien la millor. És considerat el rànquing més fiable perquè reflecteix preferències reals d\u0026rsquo;usuaris.\nArtificial Analysis (artificialanalysis.ai): Compara models en velocitat, preu i qualitat. Molt útil per entendre el cost real de cada opció.\nOpen LLM Leaderboard (Hugging Face): Rànquing de models oberts avaluats en benchmarks estandarditzats.\nEl paisatge canvia ràpid Un avís important: aquest mapa caduca ràpid. Cada pocs mesos apareixen models nous que canvien l\u0026rsquo;equilibri. El que avui és el millor model open source potser en tres mesos serà el segon o tercer.\nPer això és més important entendre els criteris de tria (tasca, pressupost, privacitat, qualitat) que memoritzar noms de models. Els criteris són estables; els models, no.\nConceptes clau d\u0026rsquo;avui Models tancats (GPT, Claude, Gemini): Més potents, accés via API, pagament per token Models oberts (LLaMA, Mistral, Qwen): Descarregables, executables localment, cost zero per ús Chatbot Arena: Rànquing de models basat en votacions humanes No hi ha \u0026ldquo;millor model\u0026rdquo;: Hi ha el millor model per al teu cas d\u0026rsquo;ús, pressupost i necessitats Propera lliçó: El teu primer prompt — com parlar amb un LLM.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-09-models-actuals/","summary":"Coneix els principals models del moment, les empreses que hi ha darrere, i les diferències clau per triar el que et convé.","title":"Lliçó 9: El mapa dels LLM — qui és qui al 2026"},{"content":"El prompt: la teva eina més poderosa De totes les coses que aprendràs en aquest curs, la capacitat d\u0026rsquo;escriure bons prompts és probablement la més útil en el dia a dia. Un bon prompt pot ser la diferència entre una resposta inútil i una resposta brillant — amb el mateix model.\nUn prompt és simplement el text que li envies al model. La teva pregunta, les teves instruccions, el context que li dones. Tot el que escrius a la caixa de text d\u0026rsquo;un chatbot és un prompt.\nPer què importa com preguntes? Recorda de la Lliçó 6: un LLM genera text predient la paraula més probable donada l\u0026rsquo;entrada. Si l\u0026rsquo;entrada és vaga, la sortida serà vaga. Si l\u0026rsquo;entrada és específica i clara, la sortida serà molt millor.\nComparem dos prompts per a la mateixa tasca:\nPrompt dolent: \u0026ldquo;Explica\u0026rsquo;m la IA\u0026rdquo;\nAixò és massa ampli. El model no sap a quin nivell t\u0026rsquo;ho ha d\u0026rsquo;explicar, quant de llarg ha de ser, ni quin aspecte de la IA t\u0026rsquo;interessa. La resposta serà genèrica i probablement massa llarga.\nPrompt bo: \u0026ldquo;Explica\u0026rsquo;m què és la intel·ligència artificial en 3 paràgrafs curts. El públic és una persona adulta sense coneixements tècnics. Usa exemples quotidians com el mòbil o Netflix.\u0026rdquo;\nAquí el model sap exactament què vols: longitud (3 paràgrafs curts), nivell (adult sense coneixements tècnics), i estil (exemples quotidians). La resposta serà molt més útil.\nLes quatre peces d\u0026rsquo;un bon prompt No cal que cada prompt tingui les quatre peces, però tenir-les en ment t\u0026rsquo;ajudarà:\n1. Rol Dir-li al model qui és o quin paper ha d\u0026rsquo;adoptar.\n\u0026ldquo;Ets un professor d\u0026rsquo;informàtica que explica conceptes a gent sense formació tècnica.\u0026rdquo;\nAixò estableix el to, el nivell de detall, i l\u0026rsquo;estil de comunicació. Un \u0026ldquo;professor\u0026rdquo; explicarà amb paciència i exemples. Un \u0026ldquo;enginyer sènior\u0026rdquo; donarà detalls tècnics sense simplificar.\n2. Context Donar-li la informació necessària per respondre bé.\n\u0026ldquo;Estic preparant una presentació per als directius de la meva empresa. No tenen formació tècnica però prenen decisions de pressupost. La presentació dura 10 minuts.\u0026rdquo;\nSense aquest context, el model no sap per a qui és la resposta ni en quin format la necessites.\n3. Instrucció Dir-li exactament què vols que faci.\n\u0026ldquo;Escriu-me 5 punts clau sobre per què hauríem d\u0026rsquo;invertir en IA, amb un exemple concret per a cada punt.\u0026rdquo;\nCom més específica sigui la instrucció, millor serà el resultat.\n4. Format de sortida Dir-li com vols la resposta.\n\u0026ldquo;Respon en format llista amb punts numerats. Cada punt ha de tenir un títol en negreta seguit d\u0026rsquo;una explicació de 2-3 línies.\u0026rdquo;\nAixò evita que el model generi un text de 2000 paraules quan tu volies una llista concisa.\nExemples pràctics Vegem exemples reals de com millorar prompts:\nTasca: Escriure un email\nPrompt bàsic: \u0026ldquo;Escriu un email al meu cap sobre vacances\u0026rdquo;\nPrompt millorat: \u0026ldquo;Escriu un email breu i professional al meu cap, en Jordi, demanant-li 3 dies de vacances la setmana del 15 de juny. El to ha de ser cordial però directe. Menciona que deixaré les tasques pendents organitzades.\u0026rdquo;\nTasca: Entendre un concepte\nPrompt bàsic: \u0026ldquo;Què és blockchain?\u0026rdquo;\nPrompt millorat: \u0026ldquo;Explica\u0026rsquo;m què és blockchain com si ho expliquessis a algú que sap usar un ordinador però no sap programar. Usa una analogia de la vida quotidiana. Màxim 200 paraules.\u0026rdquo;\nTasca: Resoldre un problema\nPrompt bàsic: \u0026ldquo;El meu wifi no funciona\u0026rdquo;\nPrompt millorat: \u0026ldquo;El wifi de casa ha deixat de funcionar des d\u0026rsquo;aquesta nit. El router té les llums enceses normalment. El mòbil detecta la xarxa però no es connecta. L\u0026rsquo;ordinador per cable sí que funciona. Quin pot ser el problema? Dona\u0026rsquo;m passos per diagnosticar-lo, de més simple a més complex.\u0026rdquo;\nNota la diferència? El segon prompt dona context (què funciona i què no), defineix el format (passos ordenats), i demana un enfocament concret (de simple a complex).\nErrors comuns amb els prompts Ser massa vague: \u0026ldquo;Ajuda\u0026rsquo;m amb el meu projecte\u0026rdquo; — Quin projecte? Quina ajuda? El model no pot llegir la teva ment.\nFer massa coses a la vegada: \u0026ldquo;Explica\u0026rsquo;m la IA, fes-me un resum del mercat, escriu un pla de negoci i tradueix-ho al xinès\u0026rdquo; — El model pot fer-ho, però la qualitat de cada part serà inferior. Millor fer-ho pas a pas.\nAssumir que ho sap tot: \u0026ldquo;Fes-me el que et vaig dir ahir\u0026rdquo; — El model no recorda converses anteriors (Lliçó 8). Si necessites continuïtat, dóna-li el context.\nNo especificar el format: Si no li dius com vols la resposta, el model triarà ell — i potser no és el que esperaves.\nPrompt engineering: no cal ser programador El terme prompt engineering sona molt tècnic, però simplement vol dir \u0026ldquo;l\u0026rsquo;art d\u0026rsquo;escriure bons prompts\u0026rdquo;. No és programació, no requereix coneixements tècnics — és comunicació clara i precisa.\nAlgunes tècniques útils:\nFew-shot prompting: Donar-li exemples del que vols. \u0026ldquo;Transforma aquests títols en slugs per a URLs. Exemple: \u0026lsquo;Què és la IA?\u0026rsquo; → \u0026lsquo;que-es-la-ia\u0026rsquo;. Ara fes-ho amb: \u0026lsquo;Com funciona un LLM?\u0026rsquo;\u0026rdquo;\nChain of thought: Demanar-li que raoni pas a pas. \u0026ldquo;Abans de donar la resposta final, explica el teu raonament pas a pas.\u0026rdquo; Això millora la precisió en problemes complexos.\nIteració: No esperis que el primer prompt sigui perfecte. Prova, mira el resultat, i ajusta. \u0026ldquo;Això és massa llarg, resumeix-ho a la meitat\u0026rdquo; o \u0026ldquo;El to és massa formal, fes-ho més proper\u0026rdquo;.\nEl prompt és la interfície Pensa en el prompt com la interfície entre tu i el model. Igual que amb qualsevol eina, la qualitat del resultat depèn tant de l\u0026rsquo;eina com de la persona que la fa servir.\nUn model excel·lent amb un prompt dolent donarà un resultat mediocre. Un model decent amb un prompt excel·lent pot donar un resultat sorprenentment bo.\nQuan configuris el teu agent amb OpenClaw, el system prompt (les instruccions permanents de l\u0026rsquo;agent) serà la peça més important de tota la configuració. Dedicar-hi temps val molt la pena.\nConceptes clau d\u0026rsquo;avui Prompt: El text que envies al model — pregunta, instruccions, context Les 4 peces: Rol + Context + Instrucció + Format de sortida Prompt engineering: L\u0026rsquo;art d\u0026rsquo;escriure prompts efectius (no requereix programació) Few-shot: Donar exemples al model perquè entengui el format desitjat Chain of thought: Demanar al model que raoni pas a pas per millorar la precisió Iteració: Ajustar el prompt basant-se en el resultat fins a obtenir el que vols Propera lliçó: Comencem la Setmana 3 — Què és un provider? Qui et dona accés als models.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-10-prompts-basics/","summary":"Aprèn a escriure prompts efectius i entén per què el resultat depèn de com preguntes.","title":"Lliçó 10: El teu primer prompt — com parlar amb un LLM"},{"content":"Setmana 3: com accedir als models Ja saps què és un LLM, com funciona, i quins models existeixen. Ara ve la pregunta pràctica: com hi accedeixo? No pots trucar a Anthropic i demanar que t\u0026rsquo;activin Claude. Necessites un intermediari — i això és un provider.\nQuè és un provider? Un provider és una empresa o servei que et dona accés a un model d\u0026rsquo;IA. És l\u0026rsquo;intermediari entre tu i el model.\nPensa en una analogia senzilla: el model és una pel·lícula. El provider és la plataforma on la mires — Netflix, HBO, Amazon Prime. La mateixa pel·lícula pot estar disponible a diverses plataformes, amb preus i condicions diferents. Amb els LLM passa exactament el mateix.\nProviders directes vs providers d\u0026rsquo;inferència Hi ha dos tipus de providers, i entendre la diferència és important:\nProviders directes Són les empreses que creen el model i te\u0026rsquo;l venen directament.\nOpenAI ven accés als models GPT. Si vols usar GPT, pots anar directament a OpenAI. Ells han creat el model, l\u0026rsquo;executen als seus servidors, i et cobren per ús.\nAnthropic ven accés a Claude. Mateixa idea — creadors i proveïdors del model.\nGoogle ofereix Gemini a través de Google AI Studio i Google Cloud.\nAmb un provider directe, tens la garantia que estàs usant el model \u0026ldquo;oficial\u0026rdquo;, amb les últimes actualitzacions, i el suport de l\u0026rsquo;empresa creadora. Com a contrapartida, normalment és l\u0026rsquo;opció més cara.\nProviders d\u0026rsquo;inferència Són empreses que no creen models, però els executen als seus servidors i te\u0026rsquo;ls ofereixen. Agafen models oberts (LLaMA, Mistral, Qwen) i els posen disponibles per a tothom.\nGroq és conegut per la seva velocitat brutal. Executa models oberts en hardware especialitzat i ofereix respostes molt ràpides.\nTogether AI ofereix una gran varietat de models oberts amb preus competitius.\nNVIDIA NIM proporciona accés a models a través de la infraestructura de NVIDIA, amb un tier gratuït.\nOpenRouter és un agregador — un únic punt d\u0026rsquo;accés a desenes de models de diferents providers, tant oberts com tancats. Pots canviar de model simplement canviant un paràmetre.\nL\u0026rsquo;avantatge dels providers d\u0026rsquo;inferència és el preu i la varietat. Poden oferir el mateix model (per exemple, LLaMA) a preus molt inferiors als de Meta directament, perquè competeixen entre ells. L\u0026rsquo;inconvenient és que no sempre tenen els models més recents o les últimes actualitzacions.\nPer què el preu varia? El mateix model pot tenir preus molt diferents segons el provider. Per què?\nHardware: Cada provider usa hardware diferent. Groq usa xips especialitzats (LPU) que són molt ràpids però cars. Altres providers usen GPUs estàndard. El hardware afecta tant el preu com la velocitat.\nEscala: Un provider gran que serveix milions de peticions pot oferir preus més baixos per economia d\u0026rsquo;escala.\nMarge comercial: Cada provider decideix quin marge vol treure. Alguns competeixen en preu, altres en qualitat de servei.\nOptimitzacions: Alguns providers apliquen tècniques de quantització (reduir la precisió del model per fer-lo més ràpid i barat) que poden afectar lleugerament la qualitat.\nLa cadena completa Quan parles amb un agent d\u0026rsquo;IA, la cadena és:\nTu → Agent (OpenClaw) → Provider (API) → Model (LLM) → Resposta Tu escrius un missatge al Telegram. L\u0026rsquo;agent (OpenClaw) el processa i l\u0026rsquo;envia al provider a través de la seva API. El provider l\u0026rsquo;envia al model, que genera la resposta. La resposta fa el camí invers fins al teu Telegram.\nQuan configures un agent amb OpenClaw, una de les primeres coses que fas és dir-li quin provider i quin model ha d\u0026rsquo;usar. És una decisió important perquè afecta el cost, la velocitat, la qualitat i la privacitat.\nCom triar un provider? Quatre criteris bàsics:\nCost: Si el pressupost és zero, busca tiers gratuïts (NVIDIA NIM, Google AI Studio, Groq free). Si pots pagar, compara preus per milió de tokens entre providers.\nVelocitat (latència): Si necessites respostes ràpides (un chatbot interactiu), la latència importa. Groq és el rei de la velocitat. Si és per tasques en segon pla (resums nocturns, per exemple), la latència no importa tant.\nQualitat del model: Si necessites el millor model possible, hauràs d\u0026rsquo;anar al provider directe (OpenAI per a GPT, Anthropic per a Claude). Si un model obert és suficient, els providers d\u0026rsquo;inferència ofereixen més opcions.\nFiabilitat: Els providers grans (OpenAI, Anthropic, Google) tenen infraestructura robusta amb alta disponibilitat. Providers petits o tiers gratuïts poden tenir talls, límits de velocitat, o temps d\u0026rsquo;espera.\nConceptes clau d\u0026rsquo;avui Provider: Empresa o servei que et dona accés a un model d\u0026rsquo;IA Provider directe: El creador del model que te\u0026rsquo;l ven (OpenAI, Anthropic, Google) Provider d\u0026rsquo;inferència: Empresa que executa models oberts als seus servidors (Groq, Together, NVIDIA NIM) OpenRouter: Agregador que dona accés a múltiples models i providers des d\u0026rsquo;un sol punt La cadena: Tu → Agent → Provider (API) → Model → Resposta Propera lliçó: Què és una API? — La porta d\u0026rsquo;entrada als LLM.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-11-que-es-un-provider/","summary":"Entén la cadena model → provider → usuari, i per què el mateix model pot costar diferent segons on l\u0026rsquo;usis.","title":"Lliçó 11: Què és un provider? Qui et dona accés als models"},{"content":"Per què necessites saber què és una API? Si vols usar un LLM des del navegador (ChatGPT, Claude.ai), no necessites saber què és una API. Simplement obres la web, escrius i ja.\nPerò si vols un agent propi — un bot de Telegram que treballi per tu, una automatització que processi emails, un sistema que publiqui contingut — necessites connectar-te al model per una altra via. Aquesta via és l\u0026rsquo;API.\nQuè és una API? API ve d\u0026rsquo;Application Programming Interface — Interfície de Programació d\u0026rsquo;Aplicacions. Sona intimidant, però el concepte és senzill.\nUna API és un sistema de comunicació estandarditzat entre dos programes. Permet que un programa faci peticions a un altre i rebi respostes, sense que cap humà intervingui.\nL\u0026rsquo;analogia més clara és un restaurant:\nTu (l\u0026rsquo;agent/programa) ets el client La carta és la documentació de l\u0026rsquo;API — et diu què pots demanar El cambrer és l\u0026rsquo;API — porta la teva comanda a la cuina i et torna el plat La cuina és el model (LLM) — processa la comanda i prepara el resultat Tu no entres a la cuina a cuinar. Fas la comanda al cambrer, en un format que ell entén (tries de la carta), i ell gestiona tot el procés. L\u0026rsquo;API funciona exactament igual: el teu programa envia una petició en un format estàndard, i l\u0026rsquo;API li retorna la resposta del model.\nAPI vs interfície web Quan uses ChatGPT al navegador, darrere hi ha una API — però la interfície web t\u0026rsquo;amaga tota la complexitat. Tu escrius text, fas clic a \u0026ldquo;Enviar\u0026rdquo;, i veus la resposta.\nQuan uses l\u0026rsquo;API directament, tu ets qui construeix la petició. Li dius al model exactament què vols: quin model usar, quants tokens de resposta, a quina temperatura (grau de creativitat), i quin text processar.\nLa diferència clau: la interfície web és per a humansinteractius. L\u0026rsquo;API és per a programes autònoms. Un agent d\u0026rsquo;IA no pot obrir un navegador i escriure a ChatGPT — però sí que pot enviar peticions a l\u0026rsquo;API de forma automàtica.\nCom funciona una petició a l\u0026rsquo;API? Sense entrar en codi, una petició a l\u0026rsquo;API d\u0026rsquo;un LLM conté:\nCap a on va: L\u0026rsquo;URL del provider (per exemple, api.openai.com o api.anthropic.com)\nQui ets tu: La teva clau d\u0026rsquo;API (API key) — un codi únic que t\u0026rsquo;identifica i permet controlar l\u0026rsquo;ús i la facturació\nQuè vols: El missatge que envies al model, inclòs el system prompt, l\u0026rsquo;historial de conversa, i el missatge actual\nCom ho vols: Paràmetres com el model a usar, el màxim de tokens de resposta, la temperatura, etc.\nEl provider rep tot això, ho envia al model, i et retorna la resposta en un format estructurat que el teu programa pot llegir.\nAPI keys: la teva clau d\u0026rsquo;accés Una API key és com una contrasenya especial que t\u0026rsquo;identifica davant del provider. Cada vegada que el teu agent fa una petició, envia la API key perquè el provider sàpiga qui ets i a quin compte carregar el consum.\nCada provider et dona la seva pròpia API key quan et registres. OpenAI et dona una key per als seus models, Anthropic una altra per a Claude, etc.\nRegles d\u0026rsquo;or amb les API keys:\nMai comparteixis una API key. Si algú la té, pot fer peticions al teu compte i tu pagaràs la factura.\nMai la posis al codi que puges a GitHub. Això és un error clàssic — hi ha bots que escanegen GitHub buscant API keys exposades i les exploten en minuts.\nGuarda-les en variables d\u0026rsquo;entorn. En lloc de posar la key directament al codi, la guardes com a variable del sistema operatiu i el codi la llegeix d\u0026rsquo;allà.\nPots revocar-les i crear-ne de noves. Si creus que una key s\u0026rsquo;ha compromès, elimina-la immediatament des del panell del provider i crea\u0026rsquo;n una de nova.\nEl cost de l\u0026rsquo;API La majoria de providers d\u0026rsquo;API cobren per token processat — tant els d\u0026rsquo;entrada com els de sortida. El model de negoci és \u0026ldquo;paga pel que usis\u0026rdquo;:\nSi el teu agent processa 1000 peticions al dia, pagues per tots els tokens de totes les peticions Si un dia no l\u0026rsquo;uses, no pagues res Els tokens de sortida solen ser més cars que els d\u0026rsquo;entrada (2-4 vegades més) Això és molt diferent del model de subscripció de ChatGPT Plus (pagues una quota fixa mensual). Amb l\u0026rsquo;API, tens control total sobre el cost — però també tens la responsabilitat de monitoritzar-lo.\nPer això, quan configures un agent, és important pensar en l\u0026rsquo;eficiència: prompts concises, respostes limitades en longitud, i models adequats per a cada tasca (no usar un model car per a tasques simples).\nAPIs compatibles amb OpenAI Un detall tècnic que et serà útil: molts providers d\u0026rsquo;inferència usen un format d\u0026rsquo;API compatible amb OpenAI. Això vol dir que la manera d\u0026rsquo;enviar peticions és la mateixa per a tots — només canvies l\u0026rsquo;URL del provider i la API key.\nPer a OpenClaw, això és molt pràctic: pots canviar de provider (de NVIDIA NIM a Groq, per exemple) simplement canviant dos paràmetres a la configuració, sense tocar res més. El format de comunicació és el mateix.\nConceptes clau d\u0026rsquo;avui API: Interfície de comunicació entre programes — el \u0026ldquo;cambrer\u0026rdquo; entre el teu agent i el model API key: Clau única que t\u0026rsquo;identifica davant del provider. Mai compartir-la Petició: El missatge que envies a l\u0026rsquo;API (inclou model, missatge, paràmetres) Preu per token: El model de cobrament de la majoria d\u0026rsquo;APIs d\u0026rsquo;LLM API compatible amb OpenAI: Format estàndard que molts providers adopten per facilitar la interoperabilitat Propera lliçó: Gratuït vs de pagament — on puc usar IA sense pagar?\n","permalink":"https://clawlearning.github.io/ca/posts/llico-12-que-es-una-api/","summary":"Desmitifiquem les APIs — què són, com funcionen, i per què les necessites per tenir un agent.","title":"Lliçó 12: Què és una API? La porta d'entrada als LLM"},{"content":"El mite: \u0026ldquo;la IA és cara\u0026rdquo; Una de les barreres d\u0026rsquo;entrada més comunes és la percepció que usar IA costa diners. I sí, els millors models comercials tenen un cost. Però hi ha un ventall enorme d\u0026rsquo;opcions gratuïtes que permeten fer coses molt interessants sense gastar un cèntim.\nVegem totes les opcions, de menys tècnica a més tècnica.\nNivell 1: Chats web gratuïts La manera més fàcil d\u0026rsquo;usar IA gratis és a través de les interfícies web dels grans models:\nChatGPT (OpenAI): La versió gratuïta dona accés a GPT amb un límit de missatges per hora. Suficient per a ús personal ocasional.\nClaude (Anthropic): Claude.ai ofereix un tier gratuït amb accés al model, també amb límits de missatges.\nGemini (Google): Google AI Studio permet usar Gemini gratis. Si tens compte de Google, pots accedir-hi directament.\nLimitacions: Aquests tiers gratuïts no donen accés a l\u0026rsquo;API. Pots xatejar al web, però no pots connectar un agent. Per a un agent, necessites API.\nNivell 2: APIs amb tier gratuït Alguns providers ofereixen APIs gratuïtes amb límits d\u0026rsquo;ús:\nGoogle AI Studio: Ofereix accés gratuït a l\u0026rsquo;API de Gemini amb límits generosos. És una de les millors opcions per començar sense pagar.\nNVIDIA NIM: Proporciona accés a diversos models (inclòs Kimi K2.5 i altres) amb un tier gratuït. Té límits de velocitat (unes 40 peticions per minut) però és funcional per a agents amb ús moderat.\nGroq: Ofereix un tier gratuït amb velocitat impressionant. Ideal per a proves i agents amb poc volum.\nMistral: La seva plataforma ofereix accés gratuït als models Mistral més petits.\nLimitacions: Tots els tiers gratuïts tenen límits de peticions per minut/dia. Si el teu agent fa moltes peticions, et quedaràs sense quota. I els tiers gratuïts poden desaparèixer o canviar les condicions en qualsevol moment.\nNivell 3: Models locals (cost zero per ús) Aquí ve l\u0026rsquo;opció més potent per a pressupost zero: executar un model al teu propi ordinador.\nAmb eines com Ollama, pots descarregar models oberts (LLaMA, Mistral, Qwen, Gemma, Phi) i executar-los localment. Un cop descarregat, l\u0026rsquo;ús és completament gratuït — no pagues per token, no hi ha límits, no depens d\u0026rsquo;internet.\nRequisits de hardware:\nPer a models petits (1-3B paràmetres): 8GB de RAM, qualsevol CPU modern. Respostes lentes però funcionals.\nPer a models mitjans (7-8B paràmetres): 16GB de RAM, millor amb GPU dedicada. Respostes a velocitat acceptable per a ús interactiu.\nPer a models grans (13-70B paràmetres): 32-64GB de RAM o GPU amb molta VRAM. Aquí ja parlem de hardware serios.\nAvantatges: Zero cost, privacitat total (les dades no surten del teu ordinador), funciona sense internet.\nInconvenients: Necessites hardware decent, els models locals són menys potents que els millors models comercials, i la velocitat depèn del teu hardware.\nLa combinació intel·ligent La majoria de gent que monta agents combina diverses opcions:\nModel car per a decisions importants: Claude o GPT per a tasques que requereixen la màxima qualitat (anàlisi complexa, escriptura important, raonament difícil).\nModel gratuït per a volum: NVIDIA NIM o un model local per a tasques rutinàries i repetitives (resums, traduccions, classificació).\nAquesta estratègia permet tenir un agent potent sense arruïnar-se. Les tasques simples les fa el model barat, i les complexes les fa el model bo.\nQuè pagues exactament? Quan pagues per usar un LLM via API, pagues per tokens processats:\nTokens d\u0026rsquo;entrada: Cada paraula del teu missatge, system prompt, historial de conversa i documents adjunts.\nTokens de sortida: Cada paraula de la resposta del model.\nEl preu es calcula per milió de tokens. Un milió de tokens en anglès són unes 750.000 paraules — molt de text. Per a la majoria d\u0026rsquo;usuaris personals, la factura mensual d\u0026rsquo;un agent amb ús moderat és de pocs euros.\nEl que dispara el cost és l\u0026rsquo;automatització massiva: si tens un agent que processa centenars de peticions al dia amb context windows grans, la factura creix ràpid. Per això és important ser eficient amb els tokens.\nResum pràctic Per a algú que comença i vol gastar zero:\nComença amb Google AI Studio (API gratuïta de Gemini) per al teu primer agent Instal·la Ollama amb un model de 7-8B per a experimentar localment Registra\u0026rsquo;t a NVIDIA NIM com a provider de reserva Amb aquestes tres opcions tens un agent funcional sense pagar res. Més endavant, si necessites més qualitat o més volum, pots afegir un model comercial.\nConceptes clau d\u0026rsquo;avui Tiers gratuïts d\u0026rsquo;API: Google AI Studio, NVIDIA NIM, Groq — accés gratuït amb límits Models locals (Ollama): Descarregues el model i l\u0026rsquo;executes al teu hardware. Cost zero per ús Combinació intel·ligent: Model car per a qualitat + model barat/gratuït per a volum El cost és per token: Pagues per cada paraula processada, no per subscripció Propera lliçó: Models locals — executar un LLM al teu ordinador amb Ollama.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-13-models-gratuits-vs-pagament/","summary":"Mapeig de les opcions gratuïtes reals per usar IA: des de chats web fins a models locals al teu ordinador.","title":"Lliçó 13: Gratuït vs de pagament — on puc usar IA sense pagar?"},{"content":"Què vol dir \u0026ldquo;model local\u0026rdquo;? Fins ara hem parlat de models que s\u0026rsquo;executen als servidors d\u0026rsquo;algú altre — OpenAI, Anthropic, Google. Tu envies text per internet, ells el processen, i et retornen la resposta.\nUn model local és exactament el contrari: descarregues el model al teu ordinador i l\u0026rsquo;executes tu. El text no surt de la teva màquina. No necessites internet. No pagues per token.\nÉs com la diferència entre escoltar música en streaming (Spotify) i tenir els MP3 al teu disc dur. Amb streaming depens de la connexió i del servei. Amb els fitxers locals, la música és teva i funciona sempre.\nQuan té sentit un model local? Té sentit quan:\nVols privacitat total — les dades mai surten del teu ordinador Vols cost zero per ús — un cop descarregat, no pagues res Necessites funcionar sense internet Vols experimentar amb diferents models sense preocupar-te per la factura Tens hardware decent (mínim 16GB de RAM per a models útils) No té sentit quan:\nNecessites la màxima qualitat possible — els millors models comercials superen els oberts El teu ordinador és antic o té poca RAM Necessites respostes molt ràpides amb models grans Prefereixes no complicar-te amb instal·lacions Ollama: la forma més fàcil Ollama és una eina que fa que executar models locals sigui tan fàcil com instal·lar un programa i escriure una comanda.\nSense Ollama, executar un model local requereix: descarregar els pesos del model, instal·lar frameworks de Python, configurar CUDA (si tens GPU NVIDIA), gestionar dependències\u0026hellip; Un embolic tècnic considerable.\nAmb Ollama, el procés és:\nInstal·les Ollama (un sol programa) Escrius ollama pull llama3.1:8b (descarrega el model) Escrius ollama run llama3.1:8b (ja estàs parlant amb el model) Ollama s\u0026rsquo;encarrega de tot el que hi ha pel mig: descarrega el model en el format correcte, detecta si tens GPU o no, optimitza la memòria, i serveix una API local compatible amb el format d\u0026rsquo;OpenAI. Això últim és clau: significa que qualsevol programa que funcioni amb l\u0026rsquo;API d\u0026rsquo;OpenAI (inclòs OpenClaw) pot usar un model d\u0026rsquo;Ollama simplement canviant l\u0026rsquo;URL de api.openai.com a localhost:11434.\nQuins models pots executar? Depèn del teu hardware. La regla general és que necessites entre 0,5GB i 1GB de RAM (o VRAM de GPU) per cada bilió de paràmetres del model, en format quantitzat.\n8GB de RAM — Models de 1-3B paràmetres: Phi-3 Mini, Gemma 2B. Funcionals per a tasques bàsiques: resums curts, classificació, traduccions simples. No esperis converses llargues ni raonaments complexos.\n16GB de RAM — Models de 7-8B paràmetres: LLaMA 3.1 8B, Mistral 7B, Qwen2.5 7B. Aquí comença a ser útil de veritat. Converses coherents, generació de text decent, codi bàsic. Si tens GPU dedicada, la velocitat és molt acceptable.\n32GB de RAM — Models de 13-14B paràmetres: LLaMA 3.1 13B, Qwen2.5 14B. Millora notable en qualitat, especialment en raonament i tasques complexes.\n64GB+ de RAM o GPU potent — Models de 30-70B paràmetres: Aquí arribes a qualitat comparable amb models comercials, però necessites hardware serio. Una GPU amb 24GB de VRAM (com una RTX 4090 o RTX 5060 Ti 16GB) pot executar models de 30B amb bona velocitat.\nCPU vs GPU: per què importa? Un model local pot funcionar amb CPU (el processador normal de l\u0026rsquo;ordinador) o amb GPU (la targeta gràfica).\nCPU: Funciona sempre, no cal GPU especial. Però és lent. Un model de 7B a CPU pot trigar 10-30 segons per frase. Acceptable per a tasques en segon pla, massa lent per a conversa interactiva.\nGPU NVIDIA: Molt més ràpid. El mateix model de 7B pot respondre en 1-3 segons. Les GPUs NVIDIA amb CUDA són l\u0026rsquo;estàndard per a inferència local. Necessites suficient VRAM per encabir el model.\nGPU AMD / Apple Silicon: Ollama també suporta GPUs AMD (ROCm) i els xips Apple Silicon (M1/M2/M3/M4), que tenen memòria unificada. Els Mac amb Apple Silicon són sorprenentment bons per a inferència local gràcies a la seva memòria ràpida compartida entre CPU i GPU.\nQuantització: fer el model més petit Quan descarregues un model amb Ollama, normalment el descarregues quantitzat. La quantització redueix la precisió dels paràmetres del model (de 32 bits a 8 bits o menys) per fer-lo més petit i ràpid.\nUn model LLaMA de 7B sense quantitzar ocupa uns 14GB. Quantitzat a 4 bits (Q4), ocupa uns 4GB. La pèrdua de qualitat és sorprenentment petita — per a la majoria de tasques, un model Q4 és pràcticament igual de bo que el model original.\nQuan veus noms com llama3.1:8b-q4_0, el q4_0 indica el nivell de quantització. Més baix = més petit i ràpid, però amb una mica menys de qualitat.\nOllama com a API local Un detall que fa Ollama molt potent: quan l\u0026rsquo;executes, serveix una API local al port 11434. Qualsevol programa pot connectar-s\u0026rsquo;hi com si fos una API d\u0026rsquo;OpenAI.\nPer a un agent OpenClaw, això vol dir que pots configurar un model local com a provider:\nURL: http://localhost:11434/v1 Model: llama3.1:8b (o el que hagis descarregat) API key: no en cal (és local) L\u0026rsquo;agent parla amb el model local exactament igual que parlaria amb OpenAI o Anthropic. La diferència és que tot passa dins el teu ordinador.\nConceptes clau d\u0026rsquo;avui Model local: Un LLM que s\u0026rsquo;executa al teu hardware, sense dependre de serveis externs Ollama: Eina que simplifica descarregar i executar models locals Quantització (Q4, Q8): Reducció de la precisió del model per fer-lo més petit i ràpid VRAM: La memòria de la GPU — determina quant de gran pot ser el model que executes API local: Ollama serveix una API compatible amb OpenAI al port 11434 Propera lliçó: Resum de la Setmana 3 — el mapa complet per accedir a un LLM.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-14-models-locals-ollama/","summary":"Què vol dir executar un model localment, quan té sentit, com funciona Ollama, i quins models pots córrer segons el teu hardware.","title":"Lliçó 14: Models locals — executar un LLM al teu ordinador amb Ollama"},{"content":"Mig curs: on som? Portem tres setmanes i ja tens les bases sòlides. Fem memòria:\nSetmana 1 vas entendre què és la IA, d\u0026rsquo;on ve, i que ja la fas servir cada dia. Setmana 2 vas descobrir com funcionen els LLM: tokens, context window, models, prompts. Setmana 3 has après com accedir-hi: providers, APIs, opcions gratuïtes, models locals.\nAvui consolidem tot amb una visió global.\nEl diagrama complet Quan fas servir un LLM, el flux sempre és el mateix:\nTU (humà o agent) │ ▼ INTERFÍCIE (web, Telegram, app, terminal) │ ▼ FRAMEWORK (OpenClaw, LangChain, o directament l\u0026#39;API) │ ▼ PROVIDER (OpenAI, Anthropic, Groq, NVIDIA NIM, Ollama local) │ ▼ MODEL (GPT, Claude, LLaMA, Mistral, Qwen...) │ ▼ RESPOSTA (text generat token per token) Cada capa és independent de les altres. Pots canviar de provider sense canviar de framework. Pots canviar de model sense canviar d\u0026rsquo;interfície. Aquesta modularitat és el que fa que l\u0026rsquo;ecosistema sigui tan flexible.\nTaula comparativa de providers Provider Models Preu Velocitat Tier gratuït Ideal per a OpenAI GPT-4, GPT-5 Alt Bona Limitat (web) Màxima qualitat, ecosistema madur Anthropic Claude Alt Bona Limitat (web) Instruccions complexes, documents llargs Google AI Gemini Mig-baix Bona Sí (API) Començar gratis, integració Google Groq LLaMA, Mistral Baix Molt ràpida Sí (API) Velocitat, preus baixos NVIDIA NIM Kimi, LLaMA Baix Acceptable Sí (API) Agent gratuït amb ús moderat Together Molts oberts Baix Variable Sí (limitat) Varietat de models OpenRouter Tots Variable Variable No Canviar de model fàcilment Ollama (local) Tots els oberts Zero Depèn del hardware N/A Privacitat, cost zero, sense internet Arbre de decisió: quin model i provider triar? Pregunta 1: Tens pressupost?\nSi no → Ollama local (si tens 16GB+ RAM) o Google AI Studio / NVIDIA NIM (si prefereixes cloud).\nSi sí → Continua.\nPregunta 2: Què necessites?\nSi necessites la màxima qualitat → Claude (Anthropic) o GPT (OpenAI). Tria Claude per a instruccions complexes i documents llargs. Tria GPT si necessites l\u0026rsquo;ecosistema més ampli.\nSi necessites velocitat → Groq.\nSi necessites privacitat → Ollama amb un model local.\nSi necessites volum barat → Provider d\u0026rsquo;inferència (Groq, Together, NVIDIA NIM) amb un model obert.\nPregunta 3: Quant de complex és el teu ús?\nSi és simple (preguntes bàsiques, resums, traduccions) → Un model de 7-8B (local o cloud) és suficient.\nSi és intermedi (converses llargues, anàlisi, codi) → Model de 30-70B o un model comercial mitjà.\nSi és avançat (raonament complex, tasques crítiques) → Models punta: Claude Opus, GPT-5, o similars.\nExercici pràctic suggerit Si vols posar en pràctica el que has après fins ara, aquí tens un exercici:\nProva tres models gratuïts i compara respostes. Ves a:\nChatGPT (chat.openai.com) — versió gratuïta Claude (claude.ai) — versió gratuïta Google AI Studio (aistudio.google.com) — Gemini gratuït Fes la mateixa pregunta als tres. Per exemple: \u0026ldquo;Explica\u0026rsquo;m com funciona el wifi de casa meva com si tingués 12 anys.\u0026rdquo; Compara les respostes: quin és més clar? Quin és més precís? Quin to t\u0026rsquo;agrada més?\nAquesta comparació et donarà intuïció sobre les diferències entre models — una cosa que cap lliçó teòrica pot substituir.\nGlossari de la Setmana 3 Provider: Qui et dona accés al model (directe o d\u0026rsquo;inferència) API: Interfície de comunicació entre programes (el teu agent i el model) API key: Clau secreta que t\u0026rsquo;identifica davant del provider Token (cost): Unitat de facturació — pagues per tokens processats Ollama: Eina per executar models locals fàcilment Quantització: Reduir la mida del model per fer-lo més eficient Model obert: Descarregable i executable al teu hardware Model tancat: Accessible només via API del creador OpenRouter: Agregador de models i providers VRAM: Memòria de la GPU que determina la mida del model que pots executar La setmana que ve Amb tot aquest coneixement base, estem preparats per al gran salt: els agents d\u0026rsquo;IA. No simples chatbots que responen preguntes, sinó programes que executen tasques, usen eines, i treballen de forma autònoma.\nLa Setmana 4 canvia de marxa.\nConceptes clau d\u0026rsquo;avui El flux complet: Tu → Interfície → Framework → Provider → Model → Resposta Cada capa és intercanviable: Pots canviar de model, provider o framework independentment La tria depèn del cas d\u0026rsquo;ús: No hi ha \u0026ldquo;millor\u0026rdquo; universal — hi ha \u0026ldquo;millor per a tu\u0026rdquo; La combinació és la clau: Model car per a qualitat + model barat per a volum Propera lliçó: Comencem la Setmana 4 — Què és un agent d\u0026rsquo;IA? Més que un chatbot.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-15-resum-setmana-3/","summary":"Consolidem tot l\u0026rsquo;après amb un diagrama mental clar, una taula comparativa, i un arbre de decisió per triar model i provider.","title":"Lliçó 15: Resum — el mapa complet per accedir a un LLM"},{"content":"Setmana 4: el salt dels agents Fins ara has après com funciona la IA, els LLM, i com accedir-hi. Tot això és teoria essencial, però estàtica: tu preguntes, el model respon. Un ping-pong de text.\nUn agent canvia les regles del joc. Un agent no espera que li preguntis — pot actuar per si sol. No es limita a generar text — pot executar accions reals: buscar informació, enviar missatges, llegir fitxers, interactuar amb serveis externs.\nChatbot vs Agent La diferència és fonamental:\nUn chatbot és reactiu. Tu li parles, ell respon. Li fas una pregunta, et dona una resposta. Si no li dius res, no fa res. ChatGPT al navegador és un chatbot: una conversa on tu portes la iniciativa.\nUn agent és proactiu. Pot rebre una instrucció complexa i descompondre-la en passos. Pot decidir quines eines usar per completar una tasca. Pot executar accions sense que tu intervinguis a cada pas. Pot funcionar en segon pla mentre tu fas altres coses.\nExemple concret per entendre-ho:\nChatbot: \u0026ldquo;Quin temps fa a Barcelona?\u0026rdquo; → \u0026ldquo;Ara mateix fa 18°C amb cel parcialment ennuvolat.\u0026rdquo;\nAgent: \u0026ldquo;Cada matí a les 7, digue\u0026rsquo;m el temps que farà avui i si he d\u0026rsquo;agafar paraigua.\u0026rdquo; → L\u0026rsquo;agent configura un recordatori, cada dia a les 7 consulta una API meteorològica, interpreta les dades, i t\u0026rsquo;envia un missatge al Telegram amb la recomanació. Tot sol, cada dia, sense que tu facis res.\nLa diferència no és el model que hi ha darrere — pot ser el mateix LLM. La diferència és la capa d\u0026rsquo;execució: l\u0026rsquo;agent té accés a eines (tools) que li permeten fer coses al món real.\nQuè fa un agent, en concret? Un agent d\u0026rsquo;IA pot fer qualsevol cosa per a la qual tingui eines configurades:\nBuscar informació a internet: En lloc de respondre amb el que sap del seu entrenament, l\u0026rsquo;agent pot fer cerques web en temps real i donar-te informació actualitzada.\nLlegir i processar fitxers: Pot llegir un PDF, un full de càlcul, un document, i extreure\u0026rsquo;n informació o resumir-lo.\nEnviar missatges: Pot enviar emails, missatges de Telegram, o notificacions.\nMonitoritzar coses: Pot revisar periòdicament una web, un feed de notícies, o un preu, i avisar-te quan passi alguna cosa.\nGenerar i publicar contingut: Pot escriure articles, traduir-los, i publicar-los en una web automàticament. De fet, aquesta web que estàs llegint funciona exactament així.\nInteractuar amb serveis externs: A través de protocols com MCP (Model Context Protocol), un agent pot connectar-se a Google Calendar, Slack, bases de dades, i centenars d\u0026rsquo;altres serveis.\nPer què no és perillós? Quan la gent sent \u0026ldquo;agent autònom\u0026rdquo; sovint imagina escenaris de ciència ficció. La realitat és molt més mundana.\nUn agent d\u0026rsquo;IA actual no pren decisions per si sol sobre coses importants — fa el que tu li has configurat. No pot fer res per a què no tingui eines específiques. Si no li dones accés al teu email, no pot enviar emails. Si no li dones accés a internet, no pot buscar res.\nPensa en un agent com un assistent personal molt obedient: farà exactament el que li diguis, amb les eines que li donis, i res més. La responsabilitat de decidir què pot fer i què no recau en tu, que el configures.\nL\u0026rsquo;explosió dels agents al 2025-2026 Per què ara? Per què no fa cinc anys?\nTres coses han convergit:\nModels prou bons: Els LLM actuals poden entendre instruccions complexes, descompondre tasques, i decidir quines eines usar. Fa pocs anys, els models no eren prou bons per a això.\nProtocols estàndard (MCP): Anthropic va crear el Model Context Protocol, un estàndard obert que permet connectar agents a qualsevol servei extern de manera uniforme. Abans, cada integració era un projecte d\u0026rsquo;enginyeria a mida.\nFrameworks accessibles: Eines com OpenClaw han fet que muntar un agent sigui qüestió de minuts, no de setmanes. No cal ser programador per tenir un agent funcional.\nAquesta convergència ha causat el boom d\u0026rsquo;agents que estàs veient ara — i per això estàs aquí, aprenent a muntar el teu.\nConceptes clau d\u0026rsquo;avui Chatbot: Respon preguntes de forma reactiva. Tu preguntes, ell respon Agent: Executa tasques de forma proactiva. Pot actuar sol, usar eines, i interactuar amb serveis Tools (eines): Capacitats que es donen a l\u0026rsquo;agent (cerca web, enviar missatges, llegir fitxers) MCP: Model Context Protocol — estàndard per connectar agents a serveis externs Un agent no és autònom — fa el que li configures, amb les eines que li dones Propera lliçó: Anatomia d\u0026rsquo;un agent — les peces del trencaclosques.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-16-que-es-un-agent/","summary":"Definim agent d\u0026rsquo;IA, el diferenciem d\u0026rsquo;un chatbot, i entenem per què és un salt qualitatiu en com interactuem amb la IA.","title":"Lliçó 16: Què és un agent d'IA? Més que un chatbot"},{"content":"Les peces de l\u0026rsquo;agent Un agent d\u0026rsquo;IA no és una sola cosa — és un conjunt de components que treballen junts. Entendre cada peça t\u0026rsquo;ajudarà a configurar el teu agent amb criteri, sabent per què tries cada element.\nEl cervell: el model LLM El cor de qualsevol agent és un LLM. És el que \u0026ldquo;pensa\u0026rdquo;: interpreta les teves instruccions, decideix quines eines usar, genera les respostes, i coordina tot el procés.\nQuan configures un agent, la primera decisió és quin model li poses com a cervell. Un model potent (Claude Sonnet, GPT-4) donarà respostes més intel·ligents però costarà més. Un model petit (LLaMA 8B, Phi) serà més barat i ràpid però menys capaç.\nEl cervell determina el \u0026ldquo;sostre\u0026rdquo; de l\u0026rsquo;agent: per molt bona que sigui la resta de la configuració, l\u0026rsquo;agent no pot ser més intel·ligent que el model que el mou.\nLes mans: les eines (tools/skills) Si el cervell pensa, les mans actuen. Les eines (tools o skills) són les capacitats concretes que dones a l\u0026rsquo;agent per fer coses al món real.\nSense eines, un agent és un chatbot. Amb eines, pot:\nCerca web: Buscar informació actual a internet Lectura de fitxers: Obrir i processar documents, PDFs, fulls de càlcul Enviament de missatges: Enviar emails, missatges de Telegram, notificacions Accés a serveis: Connectar-se a Google Calendar, Slack, bases de dades Execució de codi: Escriure i executar programes Generació d\u0026rsquo;imatges: Crear imatges amb models com DALL-E L\u0026rsquo;agent decideix quina eina usar basant-se en la tasca. Si li demanes \u0026ldquo;quines notícies hi ha avui?\u0026rdquo;, decidirà usar l\u0026rsquo;eina de cerca web. Si li demanes \u0026ldquo;resumeix aquest PDF\u0026rdquo;, usarà l\u0026rsquo;eina de lectura de fitxers.\nAixò és una capacitat emergent dels LLM moderns que no se\u0026rsquo;ls programa explícitament: aprenen a seleccionar l\u0026rsquo;eina correcta pel context de la petició.\nLa memòria: recordar i aprendre La memòria és un dels components més importants i més difícils d\u0026rsquo;un agent.\nCom ja saps de la Lliçó 8, un LLM no recorda entre converses. Cada interacció comença de zero. Però un bon agent necessita recordar coses: qui ets, quines preferències tens, què heu parlat anteriorment, quines tasques té pendents.\nHi ha dos tipus de memòria en un agent:\nMemòria a curt termini (context window): El que l\u0026rsquo;agent \u0026ldquo;recorda\u0026rdquo; dins d\u0026rsquo;una mateixa conversa. Inclou el teu missatge actual, l\u0026rsquo;historial recent, i les instruccions del system prompt. Limitada per la mida del context window del model.\nMemòria a llarg termini (persistent): Informació que es guarda fora del model, en una base de dades o fitxers. L\u0026rsquo;agent pot consultar-la per recuperar informació d\u0026rsquo;interaccions anteriors. Normalment usa tècniques com embeddings i cerca semàntica per trobar informació rellevant.\nLa memòria a llarg termini és el que fa que un agent \u0026ldquo;et conegui\u0026rdquo;: sap el teu nom, les teves preferències, el context del teu treball. Sense ella, cada conversa seria com parlar amb un desconegut.\nEls sentits: per on entra la informació Un agent necessita rebre informació d\u0026rsquo;alguna banda. Els \u0026ldquo;sentits\u0026rdquo; són els canals d\u0026rsquo;entrada:\nTelegram: El canal més comú per a agents personals. Li envies missatges des del mòbil i ell respon.\nEmail: L\u0026rsquo;agent pot monitoritzar una bústia de correu i processar emails entrants.\nWeb: Pot rebre peticions a través d\u0026rsquo;una pàgina web o API.\nFitxers: Pot processar documents que li comparteixes.\nCron (temps): Pot activar-se automàticament a hores programades, sense que ningú li digui res.\nLa majoria d\u0026rsquo;agents personals usen Telegram com a canal principal — és immediat, funciona al mòbil, i permet tant text com fitxers.\nEl sistema nerviós: el framework El framework és el programari que connecta totes les peces. Agafa el teu missatge, el passa al model junt amb les instruccions i l\u0026rsquo;historial, rep la resposta, detecta si el model vol usar alguna eina, executa l\u0026rsquo;eina, i retorna el resultat.\nSense framework, hauries de programar tota aquesta lògica tu. Amb un framework com OpenClaw, tot això ve fet — tu només configures les peces.\nEl framework gestiona el flux complet:\nRep el teu missatge (des de Telegram, per exemple) Construeix el prompt complet (system prompt + historial + missatge) L\u0026rsquo;envia al model (via l\u0026rsquo;API del provider) Rep la resposta del model Si el model vol usar una eina, l\u0026rsquo;executa i li torna el resultat Repeteix fins que el model té la resposta final T\u0026rsquo;envia la resposta per Telegram Com encaixa tot Vegem un exemple complet. Li dius al teu agent per Telegram: \u0026ldquo;Quines són les últimes notícies sobre IA a Catalunya?\u0026rdquo;\nTelegram (sentit) rep el teu missatge i el passa a OpenClaw (framework) OpenClaw construeix el prompt amb el teu missatge + system prompt + historial El prompt s\u0026rsquo;envia al model (cervell) via l\u0026rsquo;API del provider El model decideix que necessita informació actual i demana usar l\u0026rsquo;eina de cerca web (mans) OpenClaw executa la cerca web i li retorna els resultats El model processa els resultats i genera un resum Si té memòria, guarda que t\u0026rsquo;interessa la IA a Catalunya La resposta t\u0026rsquo;arriba per Telegram Tot això passa en segons, de forma automàtica, sense que tu vegis la maquinària que hi ha darrere.\nConceptes clau d\u0026rsquo;avui Cervell (LLM): El model que pensa, raona i decideix Mans (tools/skills): Les eines que permeten a l\u0026rsquo;agent actuar al món real Memòria: Curt termini (context window) + llarg termini (base de dades persistent) Sentits (inputs): Telegram, email, web, fitxers, cron Sistema nerviós (framework): El programari que connecta totes les peces (OpenClaw) Propera lliçó: Tools i Skills — les mans de l\u0026rsquo;agent en detall.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-17-components-agent/","summary":"Detallem els components d\u0026rsquo;un agent d\u0026rsquo;IA: cervell, eines, memòria, sentits i mans. Com encaixen per crear un agent funcional.","title":"Lliçó 17: Anatomia d'un agent — les peces del trencaclosques"},{"content":"Per què les eines ho canvien tot Imagina que tens un assistent molt intel·ligent tancat en una habitació sense telèfon, sense ordinador, sense res. Pot pensar brillantment, però no pot fer res. Li demanes \u0026ldquo;busca\u0026rsquo;m vols barats a Lisboa\u0026rdquo; i et diu \u0026ldquo;bona idea, però no tinc accés a internet\u0026rdquo;.\nAixò és un LLM sense eines. Intel·ligent però inútil per a tasques pràctiques.\nAra imagina que li dones un telèfon, un ordinador i accés a internet. De cop, pot buscar vols, comparar preus, i dir-te la millor opció. La seva intel·ligència no ha canviat — però la seva capacitat d\u0026rsquo;actuar s\u0026rsquo;ha multiplicat.\nLes eines (tools/skills) són el telèfon i l\u0026rsquo;ordinador de l\u0026rsquo;agent.\nQuè és una tool? Una tool (eina) és una funció específica que l\u0026rsquo;agent pot executar. Tècnicament, és un tros de codi que fa una cosa concreta i que el model pot \u0026ldquo;cridar\u0026rdquo; quan ho necessita.\nQuan configures un agent, li dius quines eines té disponibles i què fa cadascuna. El model rep aquesta llista i, quan rep una petició, decideix quina eina (o eines) necessita per completar-la.\nExemples d\u0026rsquo;eines comunes:\nCerca web: L\u0026rsquo;agent pot buscar informació actual a internet. Útil per a qualsevol pregunta sobre actualitat, preus, notícies.\nLlegir URLs: L\u0026rsquo;agent pot obrir una pàgina web i llegir-ne el contingut. Diferent de la cerca — aquí li dones una URL específica.\nEnviar missatge de Telegram: L\u0026rsquo;agent pot enviar missatges de forma proactiva, no només respondre.\nLlegir/escriure fitxers: L\u0026rsquo;agent pot obrir documents, crear fitxers nous, modificar-los.\nExecutar comandes: L\u0026rsquo;agent pot executar comandes al sistema operatiu — molt potent però cal configurar-ho amb cura.\nQuè és una skill? En el context d\u0026rsquo;OpenClaw, una skill és el nom que es dona a un paquet d\u0026rsquo;eines relacionades. Una skill pot contenir una o més tools que treballen juntes per a un propòsit.\nPer exemple, una skill de \u0026ldquo;Reddit\u0026rdquo; podria incloure:\nUna tool per buscar posts en un subreddit Una tool per llegir els comentaris d\u0026rsquo;un post Una tool per obtenir els posts més populars La distinció entre tool i skill depèn del framework, però el concepte és el mateix: capacitats concretes que dones a l\u0026rsquo;agent.\nCom decideix l\u0026rsquo;agent quina eina usar? Aquesta és una de les capacitats més impressionants dels LLM moderns. Quan li dones eines a un agent, el model no segueix regles rígides — raona sobre quina eina necessita.\nLi envies: \u0026ldquo;Quines notícies hi ha avui sobre Intel·ligència Artificial?\u0026rdquo;\nEl model \u0026ldquo;pensa\u0026rdquo;: \u0026ldquo;Necessito informació actual. La meva dada d\u0026rsquo;entrenament pot estar desactualitzada. Tinc una eina de cerca web. La faré servir.\u0026rdquo;\nI fa la cerca. Rep els resultats. Els processa i et dona un resum.\nLi envies: \u0026ldquo;Resumeix-me aquest PDF\u0026rdquo; (amb un fitxer adjunt)\nEl model \u0026ldquo;pensa\u0026rdquo;: \u0026ldquo;M\u0026rsquo;han enviat un fitxer. Tinc una eina per llegir fitxers. La faré servir.\u0026rdquo;\nLlegeix el PDF, n\u0026rsquo;extreu el contingut, i te\u0026rsquo;l resumeix.\nFins i tot pot encadenar eines: buscar informació, guardar-la en un fitxer, i enviar-te un missatge per avisar-te que està llest.\nMCP: l\u0026rsquo;estàndard que ho connecta tot MCP (Model Context Protocol) és un estàndard creat per Anthropic que defineix com els agents es connecten a serveis externs.\nAbans del MCP, cada integració era un projecte a mida. Volies connectar l\u0026rsquo;agent a Google Calendar? Havies d\u0026rsquo;escriure codi específic per a l\u0026rsquo;API de Google Calendar. Volies connectar-lo a Slack? Més codi específic. Cada servei, una integració diferent.\nEl MCP estandarditza la comunicació. Un servei que implementi MCP es pot connectar a qualsevol agent que suporti MCP — sense codi a mida. Pensa en el MCP com l\u0026rsquo;USB de les eines d\u0026rsquo;IA: un connector universal.\nAvui ja hi ha servidors MCP per a centenars de serveis: Google Calendar, Gmail, Slack, GitHub, bases de dades, i molt més. La llista creix cada dia.\nOn trobar eines per al teu agent Clawhub.ai: El directori d\u0026rsquo;skills per a OpenClaw. Pots buscar, instal·lar i configurar skills des d\u0026rsquo;aquí.\nServidors MCP de la comunitat: Hi ha repositoris amb centenars de servidors MCP llestos per usar.\nSkills pròpies: Si tens coneixements tècnics (o un agent que programi), pots crear les teves pròpies skills.\nLa bellesa del sistema és que pots començar amb poques eines i anar-ne afegint a mesura que identifiques necessitats.\nPrecaucions amb les eines Les eines donen poder a l\u0026rsquo;agent, però també responsabilitat:\nPrincipi del mínim privilegi: Dóna-li a l\u0026rsquo;agent només les eines que realment necessita. No li donis accés a executar comandes del sistema si no ho necessita.\nRevisa el que fa: Especialment al principi, monitoritza com l\u0026rsquo;agent usa les eines. Assegura\u0026rsquo;t que fa el que esperes.\nEines sensibles: Eines que envien emails, publiquen contingut, o modifiquen fitxers poden causar problemes si l\u0026rsquo;agent les usa malament. Configura-les amb cura.\nConceptes clau d\u0026rsquo;avui Tool: Funció específica que l\u0026rsquo;agent pot executar (buscar, llegir, enviar) Skill: Paquet d\u0026rsquo;eines relacionades (terminologia OpenClaw) MCP (Model Context Protocol): Estàndard de connexió entre agents i serveis externs L\u0026rsquo;agent decideix quina eina usar — no segueix regles rígides, raona sobre la millor opció Principi del mínim privilegi: Dóna-li només les eines que necessita Propera lliçó: La memòria d\u0026rsquo;un agent — com recorda (i oblida).\n","permalink":"https://clawlearning.github.io/ca/posts/llico-18-tools-skills/","summary":"Què són les tools i skills, per què són essencials, com un agent decideix quina usar, i què és el MCP.","title":"Lliçó 18: Tools i Skills — les mans de l'agent"},{"content":"El problema de la memòria Recorda la Lliçó 8: un LLM no recorda res entre converses. Cada interacció comença de zero. Però un agent útil necessita recordar coses: qui ets, què has parlat, quines preferències tens, quines tasques estan pendents.\nLa memòria és el que transforma un chatbot genèric en un assistent personal que et coneix. I és, possiblement, el problema tècnic més difícil dels agents actuals.\nMemòria a curt termini: el context window La forma més bàsica de memòria és la finestra de context del model. Dins d\u0026rsquo;una mateixa conversa, l\u0026rsquo;agent \u0026ldquo;recorda\u0026rdquo; tot el que s\u0026rsquo;ha dit perquè l\u0026rsquo;historial de missatges es reenvia al model amb cada petició.\nSi li dius \u0026ldquo;Em dic Joan\u0026rdquo; al primer missatge i després li preguntes \u0026ldquo;Com em dic?\u0026rdquo;, l\u0026rsquo;agent ho sap perquè \u0026ldquo;Em dic Joan\u0026rdquo; segueix dins el context window.\nLimitacions:\nMida finita: Quan la conversa supera el context window, els missatges antics desapareixen Cost creixent: Cada missatge anterior s\u0026rsquo;envia al model de nou, consumint tokens Desapareix entre converses: Quan obres un xat nou, l\u0026rsquo;historial anterior no hi és Memòria a llarg termini: guardar informació fora del model Per recordar entre converses, l\u0026rsquo;agent necessita un sistema de memòria extern — una base de dades on guardar informació rellevant i recuperar-la quan calgui.\nEl flux és:\nDurant una conversa, l\u0026rsquo;agent detecta informació important (el teu nom, preferències, decisions) Guarda aquesta informació en una base de dades En futures converses, consulta la base de dades per recuperar context rellevant Injecta aquesta informació al prompt perquè el model la \u0026ldquo;recordi\u0026rdquo; El model en si no canvia — el truc és alimentar-lo amb la informació correcta en cada conversa.\nEmbeddings: la clau de la cerca semàntica Quan l\u0026rsquo;agent té molta informació guardada (centenars de converses, documents, notes), com sap quina part és rellevant per a la pregunta actual?\nAquí entren els embeddings. Un embedding és una representació numèrica del significat d\u0026rsquo;un text. Converteix paraules i frases en vectors de números que capturen el seu significat.\nPer què és útil? Perquè amb embeddings pots fer cerca semàntica — buscar per significat, no per paraules exactes.\nExemple: si l\u0026rsquo;agent busca informació sobre \u0026ldquo;cotxe elèctric\u0026rdquo; i a la base de dades hi ha guardada la frase \u0026ldquo;vehicles amb bateria\u0026rdquo;, la cerca per paraules exactes no trobaria res (no hi ha \u0026ldquo;cotxe\u0026rdquo; ni \u0026ldquo;elèctric\u0026rdquo;). Però la cerca per embeddings sí, perquè els vectors numèrics de \u0026ldquo;cotxe elèctric\u0026rdquo; i \u0026ldquo;vehicles amb bateria\u0026rdquo; estan propers en l\u0026rsquo;espai semàntic — tenen significats similars.\nAixò és el que fa que la memòria d\u0026rsquo;un agent sigui \u0026ldquo;intel·ligent\u0026rdquo;: no busca coincidències literals, sinó conceptes relacionats.\nRAG: Retrieval Augmented Generation RAG és una tècnica que combina la cerca d\u0026rsquo;informació amb la generació de text. L\u0026rsquo;acrònim vol dir Retrieval Augmented Generation — Generació Augmentada per Recuperació.\nEl procés és:\nL\u0026rsquo;agent rep una pregunta Abans de respondre, busca informació rellevant a la seva base de dades (retrieval) Afegeix la informació trobada al prompt del model (augmented) El model genera la resposta tenint en compte la informació recuperada (generation) RAG és com donar-li al model una \u0026ldquo;xuleta\u0026rdquo; personalitzada per a cada pregunta. El model no necessita \u0026ldquo;saber\u0026rdquo; la informació — la rep en el moment de respondre.\nAquesta tècnica és fonamental per als agents perquè permet que \u0026ldquo;sàpiguen\u0026rdquo; coses que no estan al seu entrenament: la teva informació personal, documents de la teva empresa, converses anteriors.\nTipus de memòria en la pràctica Els frameworks d\u0026rsquo;agents solen implementar diversos tipus de memòria:\nMemòria de conversa: Guarda l\u0026rsquo;historial de la conversa actual. La més bàsica.\nMemòria de fets: Extreu i guarda fets concrets de les converses: \u0026ldquo;L\u0026rsquo;usuari viu a Barcelona\u0026rdquo;, \u0026ldquo;L\u0026rsquo;usuari treballa en IT\u0026rdquo;, \u0026ldquo;L\u0026rsquo;usuari prefereix respostes en català\u0026rdquo;. Aquests fets es recuperen automàticament en futures converses.\nMemòria de documents: Processa documents que li comparteixes i els guarda indexats per a consulta futura.\nMemòria de tasques: Recorda tasques pendents, compromisos, i seguiments.\nNo tots els frameworks implementen tots els tipus. OpenClaw, per exemple, usa embeddings locals per a la cerca semàntica de memòria, amb models com EmbeddingGemma que s\u0026rsquo;executen localment sense enviar dades a cap servei extern.\nPer què és el problema més difícil La memòria sembla senzilla en teoria — guardar i recuperar informació. Però en la pràctica és molt més complex:\nQuè guardar? No tot el que es diu en una conversa és rellevant per al futur. L\u0026rsquo;agent ha de decidir què val la pena recordar i què no.\nQuan oblidar? La informació caduca. Si fa un any vas dir que treballaves a l\u0026rsquo;empresa X i ara treballes a l\u0026rsquo;empresa Y, l\u0026rsquo;agent ha d\u0026rsquo;actualitzar-se.\nQuant recuperar? Si l\u0026rsquo;agent recupera massa informació, omple el context window i no queda espai per a la resposta. Si en recupera massa poca, li falta context.\nPrivacitat: La memòria conté informació personal sensible. On es guarda? Qui hi té accés? Què passa si es compromet?\nAquests problemes no estan completament resolts — la memòria és una àrea activa d\u0026rsquo;investigació i millora en tots els frameworks d\u0026rsquo;agents.\nConceptes clau d\u0026rsquo;avui Memòria a curt termini: El context window de la conversa actual (limitada, desapareix entre converses) Memòria a llarg termini: Base de dades externa que guarda informació entre converses Embeddings: Representació numèrica del significat del text — permet cerca semàntica Cerca semàntica: Buscar per significat, no per paraules exactes RAG: Recuperar informació rellevant i injectar-la al prompt abans de generar la resposta Propera lliçó: Frameworks d\u0026rsquo;agents — OpenClaw, LangChain i altres.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-19-memoria-agent/","summary":"Els tipus de memòria d\u0026rsquo;un agent, què són els embeddings, com funciona RAG, i per què la memòria és el problema més difícil.","title":"Lliçó 19: La memòria d'un agent — com recorda (i oblida)"},{"content":"Què és un framework d\u0026rsquo;agents? Un framework és el \u0026ldquo;kit de muntatge\u0026rdquo; de l\u0026rsquo;agent. Proporciona l\u0026rsquo;estructura que connecta el model, les eines, la memòria i la interfície sense que tu hagis de programar-ho des de zero.\nSense framework, muntar un agent requereix escriure centenars o milers de línies de codi: gestionar l\u0026rsquo;API del model, implementar el cicle d\u0026rsquo;eines, construir la memòria, connectar Telegram\u0026hellip; Amb un framework, tot això ve fet i tu només configures.\nHi ha molts frameworks al mercat, cadascun amb la seva filosofia. Vegem els principals.\nOpenClaw: simplicitat per a tothom OpenClaw és un framework de codi obert dissenyat per ser simple i directe. La seva filosofia és que qualsevol persona amb coneixements bàsics d\u0026rsquo;informàtica pugui tenir un agent funcional en minuts.\nPunts forts:\nInstal·lació ràpida (un sol paquet npm) Configuració per fitxer JSON — no cal programar Suport natiu per Telegram Skills instal·lables des de Clawhub Memòria amb embeddings locals Cron jobs integrats per a automatitzacions Comunitat activa i creixent Ideal per a: Usuaris que volen un agent personal funcional sense complicar-se. Sysadmins, entusiastes de la tecnologia, gent que vol automatitzar el seu dia a dia.\nLimitació: No està dissenyat per a desplegaments empresarials masssius ni per a fluxos d\u0026rsquo;agent molt complexos amb branching i loops sofisticats.\nLangChain: el navaja suís LangChain és probablement el framework més conegut i amb més funcionalitats. Ofereix una quantitat enorme de components: cadenes de prompts, agents, memòria, integració amb centenars de serveis, parsing de documents\u0026hellip;\nPunts forts:\nEcosistema enorme amb centenars d\u0026rsquo;integracions Documentació extensa Suporta fluxos d\u0026rsquo;agent complexos LangSmith per a monitorització i debugging Comunitat molt gran Ideal per a: Desenvolupadors que necessiten control total i fluxos complexos.\nLimitació: La corba d\u0026rsquo;aprenentatge és pronunciada. La quantitat d\u0026rsquo;opcions pot ser aclaparadora per a principiants. Requereix saber programar en Python o JavaScript.\nCrewAI: agents que col·laboren CrewAI se centra en sistemes multi-agent: diversos agents que treballen junts, cadascun amb un rol específic, coordinant-se per completar tasques complexes.\nPer exemple, pots tenir un agent \u0026ldquo;investigador\u0026rdquo; que busca informació, un agent \u0026ldquo;escriptor\u0026rdquo; que redacta el contingut, i un agent \u0026ldquo;editor\u0026rdquo; que revisa la qualitat. CrewAI coordina la col·laboració entre ells.\nIdeal per a: Fluxos de treball complexos que es beneficien de la divisió de tasques entre agents especialitzats.\nLimitació: Més complex de configurar que un agent individual. Consumeix més tokens (múltiples models treballant).\nAutoGen (Microsoft): converses entre agents AutoGen és el framework de Microsoft per a sistemes multi-agent. La seva idea central és que els agents es comuniquin entre ells en forma de conversa — un agent proposa, l\u0026rsquo;altre revisa, un tercer executa.\nIdeal per a: Investigació, fluxos d\u0026rsquo;aprovació, i tasques que es beneficien de \u0026ldquo;discussió\u0026rdquo; entre agents.\nAltres opcions Semantic Kernel (Microsoft): Framework més empresarial, integrat amb l\u0026rsquo;ecosistema Azure.\nHaystack: Especialitzat en RAG i cerca. Molt bo per a agents que treballen amb grans volums de documents.\nPydantic AI: Framework lleuger i tipat per a Python, dissenyat per a aplicacions en producció.\nCom triar? La decisió depèn del teu perfil:\nSi no saps programar i vols un agent personal → OpenClaw. Configuració per fitxer, instal·lació senzilla, Telegram natiu.\nSi saps Python i vols un agent amb més control → LangChain o Pydantic AI.\nSi necessites múltiples agents coordinats → CrewAI o AutoGen.\nSi ets una empresa amb necessitats complexes → LangChain o Semantic Kernel.\nPer a aquest curs, treballarem amb OpenClaw perquè és el que millor s\u0026rsquo;adapta al perfil d\u0026rsquo;algú que comença: funcional, directe, i sense necessitat de programar.\nTots comparteixen els mateixos fonaments Independentment del framework que triïs, tots funcionen amb els mateixos principis que has après en aquest curs:\nUsen un LLM com a cervell Es connecten a providers via API Donen eines/skills al model Gestionen memòria (de diverses maneres) Reben input per interfícies (Telegram, web, etc.) Si entens els fonaments, canviar de framework és qüestió d\u0026rsquo;adaptar-se a la seva configuració — no d\u0026rsquo;aprendre conceptes nous.\nConceptes clau d\u0026rsquo;avui Framework: Kit de muntatge que connecta model + eines + memòria + interfície OpenClaw: Simple, configurable, ideal per a no-programadors LangChain: Potent, versàtil, requereix programació CrewAI / AutoGen: Multi-agent, per a fluxos complexos Tots usen els mateixos fonaments: LLM + Provider + Tools + Memòria Propera lliçó: Comencem la Setmana 5 — Què és OpenClaw i per què l\u0026rsquo;hem triat.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-20-frameworks-agents/","summary":"Les opcions per muntar un agent: des de les més simples fins a les més complexes. Quin triar segons el teu nivell.","title":"Lliçó 20: Frameworks d'agents — OpenClaw, LangChain i altres"},{"content":"Setmana 5: mans a l\u0026rsquo;obra Quatre setmanes de teoria. Ara toca practicar. Aquesta setmana muntaràs el teu primer agent d\u0026rsquo;IA funcional amb OpenClaw — des de zero fins a tenir un bot de Telegram que parli amb tu.\nQuè és OpenClaw? OpenClaw és un framework de codi obert per crear agents d\u0026rsquo;IA personals. Està dissenyat perquè qualsevol persona amb coneixements bàsics d\u0026rsquo;informàtica pugui muntar un agent sense programar.\nLa filosofia d\u0026rsquo;OpenClaw es resumeix en tres principis:\nSimple: La configuració es fa amb un fitxer JSON. No cal escriure codi. Si saps editar un fitxer de text, saps configurar OpenClaw.\nConfigurable: Pots triar quin model usar, quin provider, quines skills activar, quina personalitat donar-li, i com ha de comportar-se. Tot sense tocar codi.\nExtensible: Si necessites funcionalitats extres, pots afegir skills de la comunitat (Clawhub) o crear les teves pròpies.\nPer què OpenClaw i no un altre? Hem vist a la Lliçó 20 que hi ha molts frameworks. Per què recomanem OpenClaw per començar?\nNo requereix programació. LangChain necessita Python. CrewAI necessita Python. OpenClaw es configura amb un fitxer JSON i comandes de terminal. Si saps navegar per carpetes i editar fitxers, ja en tens prou.\nTelegram natiu. La majoria de la gent vol un agent al mòbil. OpenClaw inclou integració amb Telegram de sèrie — no cal instal·lar res extra.\nSkills preconfecionades. Clawhub.ai ofereix skills llestos per instal·lar: cerca web, lectura de fitxers, Reddit, Hacker News\u0026hellip; Un sol comanda i l\u0026rsquo;agent ja ho pot fer servir.\nCommunity-driven. OpenClaw és un projecte de comunitat en creixement actiu. Constantment apareixen noves skills, millores, i funcionalitats.\nRequisits mínims Per fer funcionar OpenClaw necessites:\nNode.js (versió 18 o superior): L\u0026rsquo;entorn d\u0026rsquo;execució on corre OpenClaw. S\u0026rsquo;instal·la en 2 minuts a qualsevol sistema operatiu.\nUn ordinador: Mac, Linux, o Windows amb WSL (Windows Subsystem for Linux). No cal hardware potent — OpenClaw en si no consumeix gairebé recursos. El que consumeix recursos és el model, i si uses un model cloud, l\u0026rsquo;ordinador només fa d\u0026rsquo;intermediari.\nUna API key: Necessites accés a almenys un model. Pot ser gratuït (Google AI Studio, NVIDIA NIM, Groq) o de pagament (OpenAI, Anthropic).\nConnexió a internet: Per comunicar-se amb l\u0026rsquo;API del model i amb Telegram.\nOpcionalment:\nUn VPS (servidor cloud): Si vols que l\u0026rsquo;agent funcioni 24/7 sense tenir l\u0026rsquo;ordinador encès. Oracle Cloud ofereix un tier gratuït que és suficient per a OpenClaw.\nTelegram: Per la interfície de bot. Necessites un compte de Telegram (gratuït).\nQuè pots fer amb OpenClaw? Un cop instal·lat i configurat, el teu agent pot:\nMantenir converses intel·ligents per Telegram Buscar informació a internet en temps real Llegir i processar documents que li enviïs Enviar-te resums, briefings i alertes automàtiques Monitoritzar webs, feeds, o preus Generar contingut (textos, traduccions, resums) Connectar-se a serveis externs via MCP I tot això configurat sense escriure una sola línia de codi.\nOn viurà el teu agent? Tens tres opcions per on executar l\u0026rsquo;agent:\nAl teu ordinador personal: La manera més fàcil per provar. L\u0026rsquo;agent funciona mentre l\u0026rsquo;ordinador està encès. Quan l\u0026rsquo;apagues, l\u0026rsquo;agent s\u0026rsquo;atura.\nA un VPS cloud: L\u0026rsquo;agent funciona 24/7 sense dependre del teu ordinador. Oracle Cloud Free Tier, per exemple, t\u0026rsquo;ofereix un servidor gratuït suficient per a OpenClaw.\nA un Mac Mini o similar: Un ordinador petit sempre encès a casa. Combina la privacitat de l\u0026rsquo;opció local amb la disponibilitat 24/7.\nPer a les pràctiques d\u0026rsquo;aquesta setmana, qualsevol de les tres opcions serveix.\nConceptes clau d\u0026rsquo;avui OpenClaw: Framework open source per crear agents d\u0026rsquo;IA personals sense programar Configuració per JSON: No cal codi — edites un fitxer i l\u0026rsquo;agent canvia de comportament Requisits: Node.js + API key + connexió a internet Clawhub.ai: Directori de skills per a OpenClaw Tres opcions de desplegament: PC personal, VPS cloud, o mini servidor a casa Propera lliçó: Instal·lació d\u0026rsquo;OpenClaw pas a pas.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-21-que-es-openclaw/","summary":"Presentem OpenClaw, la seva filosofia, els requisits mínims, i per què és ideal per començar.","title":"Lliçó 21: Què és OpenClaw i per què l'hem triat"},{"content":"Avui instal·lem Aquesta és una lliçó pràctica. Segueix els passos al teu ordinador mentre llegeixes. Al final, tindràs OpenClaw instal·lat i llest per configurar.\nPas 1: Instal·lar Node.js OpenClaw funciona sobre Node.js. Si no el tens instal·lat:\nmacOS: Obre el Terminal i executa:\nbrew install node Si no tens Homebrew: ves a nodejs.org, descarrega l\u0026rsquo;instal·lador per a Mac, i segueix les instruccions.\nLinux (Ubuntu/Debian):\ncurl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - sudo apt-get install -y nodejs Windows: Primer necessites WSL (Windows Subsystem for Linux). Si no el tens:\nObre PowerShell com a administrador Executa: wsl --install Reinicia l\u0026rsquo;ordinador Obre Ubuntu des del menú d\u0026rsquo;inici Segueix les instruccions de Linux dins WSL Verificar la instal·lació:\nnode --version npm --version Has de veure versions (per exemple, v20.x.x i 10.x.x). Si veus errors, Node.js no s\u0026rsquo;ha instal·lat correctament.\nPas 2: Instal·lar OpenClaw Un sol comanda:\nnpm install -g openclaw Això instal·la OpenClaw globalment al teu sistema. Verificar:\nopenclaw --version Pas 3: Primer test Executa:\nopenclaw Si és la primera vegada, OpenClaw et demanarà configurar un provider i un model. De moment, pots cancel·lar (Ctrl+C) — ho configurarem en detall a la lliçó 23.\nSi veus el prompt d\u0026rsquo;OpenClaw, la instal·lació és correcta.\nEstructura de fitxers OpenClaw guarda la seva configuració a ~/.openclaw/. Dins hi trobaràs:\n~/.openclaw/ ├── openclaw.json # Configuració principal (providers, models) ├── workspace/ # Fitxers del workspace actiu │ └── system-prompt.md # Les instruccions de l\u0026#39;agent ├── skills/ # Skills instal·lades └── memory/ # Base de dades de memòria El fitxer més important és openclaw.json — aquí és on definiràs quin model usa l\u0026rsquo;agent, quin provider, i com es comporta.\nErrors comuns \u0026ldquo;npm: command not found\u0026rdquo;: Node.js no està instal·lat. Torna al Pas 1.\n\u0026ldquo;Permission denied\u0026rdquo;: A Linux/Mac, potser necessites sudo npm install -g openclaw. A WSL, executa la comanda sense sudo però assegura\u0026rsquo;t que npm té els permisos correctes.\n\u0026ldquo;openclaw: command not found\u0026rdquo; després d\u0026rsquo;instal·lar: El path global de npm no està al teu PATH. Executa npm config get prefix per veure on s\u0026rsquo;ha instal·lat, i afegeix /bin al teu PATH.\nVersió de Node.js massa antiga: OpenClaw requereix Node.js 18+. Si tens una versió anterior, actualitza Node.js.\nConceptes clau d\u0026rsquo;avui Node.js: L\u0026rsquo;entorn d\u0026rsquo;execució on corre OpenClaw (prerequisit) npm: El gestor de paquets de Node.js (s\u0026rsquo;usa per instal·lar OpenClaw) ~/.openclaw/: Directori de configuració d\u0026rsquo;OpenClaw openclaw.json: Fitxer central de configuració WSL: Windows Subsystem for Linux — necessari per usar OpenClaw a Windows Propera lliçó: Configurar el teu primer model i provider.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-22-installacio-openclaw/","summary":"Guia pràctica d\u0026rsquo;instal·lació a Mac, Linux i Windows (WSL). Del zero al primer \u0026lsquo;hola\u0026rsquo; amb el teu agent.","title":"Lliçó 22: Instal·lació d'OpenClaw pas a pas"},{"content":"Connectar el cervell Tens OpenClaw instal·lat. Ara necessita un cervell — un LLM al qual connectar-se. Avui configuraràs la connexió entre OpenClaw i un model, pas a pas.\nPas 1: Obtenir una API key gratuïta Comencem amb una opció gratuïta perquè puguis provar sense gastar res. Tens diverses opcions:\nGoogle AI Studio (recomanat per començar):\nVes a aistudio.google.com Inicia sessió amb el teu compte de Google Clica \u0026ldquo;Get API key\u0026rdquo; → \u0026ldquo;Create API key\u0026rdquo; Copia la clau (comença per AIza...) NVIDIA NIM:\nVes a build.nvidia.com Crea un compte gratuït Genera una API key Escull un model (per exemple, Kimi K2.5) Groq:\nVes a console.groq.com Crea un compte gratuït API Keys → Create API Key Copia la clau Qualsevol d\u0026rsquo;aquestes tres opcions funciona. Per a aquest tutorial usarem Google AI Studio perquè el tier gratuït és el més generós.\nPas 2: Configurar openclaw.json Obre el fitxer de configuració:\nnano ~/.openclaw/openclaw.json La configuració bàsica per a Google AI Studio seria:\n{ \u0026#34;providers\u0026#34;: { \u0026#34;google\u0026#34;: { \u0026#34;baseUrl\u0026#34;: \u0026#34;https://generativelanguage.googleapis.com/v1beta/openai\u0026#34;, \u0026#34;apiKey\u0026#34;: \u0026#34;LA_TEVA_API_KEY_AQUÍ\u0026#34; } }, \u0026#34;models\u0026#34;: { \u0026#34;default\u0026#34;: { \u0026#34;provider\u0026#34;: \u0026#34;google\u0026#34;, \u0026#34;model\u0026#34;: \u0026#34;gemini-2.0-flash\u0026#34; } } } Substitueix LA_TEVA_API_KEY_AQUÍ per la clau que has obtingut al Pas 1.\nPer a NVIDIA NIM, la configuració seria:\n{ \u0026#34;providers\u0026#34;: { \u0026#34;nvidia-nim\u0026#34;: { \u0026#34;baseUrl\u0026#34;: \u0026#34;https://integrate.api.nvidia.com/v1\u0026#34;, \u0026#34;apiKey\u0026#34;: \u0026#34;LA_TEVA_API_KEY_AQUÍ\u0026#34; } }, \u0026#34;models\u0026#34;: { \u0026#34;default\u0026#34;: { \u0026#34;provider\u0026#34;: \u0026#34;nvidia-nim\u0026#34;, \u0026#34;model\u0026#34;: \u0026#34;moonshotai/kimi-k2.5\u0026#34; } } } Pas 3: Primer test Executa OpenClaw:\nopenclaw Escriu qualsevol cosa, per exemple: \u0026ldquo;Hola, qui ets?\u0026rdquo;\nSi reps una resposta coherent, la connexió funciona. Has muntat el teu primer agent.\nEntendre l\u0026rsquo;estructura del JSON El fitxer openclaw.json té dues parts principals:\nproviders: Defineix on es connecta l\u0026rsquo;agent. Cada provider necessita un baseUrl (on enviar les peticions) i un apiKey (qui ets). Pots tenir múltiples providers configurats.\nmodels: Defineix quins models usa l\u0026rsquo;agent. El default és el model principal. Cada model apunta a un provider i especifica quin model concret usar.\nAquesta separació entre provider i model és molt útil: si vols canviar de model, només canvies el camp model. Si vols canviar de provider (per exemple, de Google a Groq), canvies el provider i el baseUrl.\nMúltiples providers Pots configurar diversos providers i assignar-los a tasques diferents:\n{ \u0026#34;providers\u0026#34;: { \u0026#34;google\u0026#34;: { \u0026#34;baseUrl\u0026#34;: \u0026#34;https://generativelanguage.googleapis.com/v1beta/openai\u0026#34;, \u0026#34;apiKey\u0026#34;: \u0026#34;KEY_GOOGLE\u0026#34; }, \u0026#34;groq\u0026#34;: { \u0026#34;baseUrl\u0026#34;: \u0026#34;https://api.groq.com/openai/v1\u0026#34;, \u0026#34;apiKey\u0026#34;: \u0026#34;KEY_GROQ\u0026#34; } }, \u0026#34;models\u0026#34;: { \u0026#34;default\u0026#34;: { \u0026#34;provider\u0026#34;: \u0026#34;google\u0026#34;, \u0026#34;model\u0026#34;: \u0026#34;gemini-2.0-flash\u0026#34; }, \u0026#34;fast\u0026#34;: { \u0026#34;provider\u0026#34;: \u0026#34;groq\u0026#34;, \u0026#34;model\u0026#34;: \u0026#34;llama-3.1-8b-instant\u0026#34; } } } Això et permet tenir un model principal (Google) i un de ràpid (Groq) per a tasques on la velocitat és prioritària.\nSeguretat de les API keys Recorda les regles d\u0026rsquo;or:\nMai comparteixis el fitxer openclaw.json amb ningú (conté les teves API keys) Si puges configuració a GitHub, assegura\u0026rsquo;t que openclaw.json estigui al .gitignore Si creus que una key s\u0026rsquo;ha compromès, revoca-la immediatament al panell del provider Conceptes clau d\u0026rsquo;avui openclaw.json: Fitxer central de configuració — providers, models, i comportament de l\u0026rsquo;agent Provider block: Defineix baseUrl (on connectar) + apiKey (autenticació) Model block: Apunta a un provider i especifica el model concret Múltiples providers: Pots configurar diversos i assignar-los a tasques diferents Propera lliçó: Connectar OpenClaw a Telegram — el teu agent al mòbil.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-23-configurar-model-provider/","summary":"Connectem OpenClaw a un LLM: triar model, obtenir API key gratuïta, i configurar openclaw.json.","title":"Lliçó 23: Configurar el teu primer model i provider"},{"content":"L\u0026rsquo;agent al teu mòbil Fins ara has interactuat amb OpenClaw des del terminal. Funciona, però no és pràctic per al dia a dia. El que volem és poder parlar amb l\u0026rsquo;agent des del mòbil, en qualsevol moment i lloc. Telegram és la solució perfecta per a això.\nPas 1: Crear el bot a Telegram Telegram permet a qualsevol persona crear un bot. El procés és sorprenentment senzill:\nObre Telegram i busca @BotFather (és el bot oficial de Telegram per crear bots) Envia-li el missatge /newbot Et demanarà un nom per al bot (el nom visible, per exemple: \u0026ldquo;El Meu Agent IA\u0026rdquo;) Et demanarà un username per al bot (ha d\u0026rsquo;acabar en \u0026ldquo;bot\u0026rdquo;, per exemple: elmeuagent_bot) BotFather et donarà un token — una cadena llarga de números i lletres Copia aquest token. És la \u0026ldquo;clau\u0026rdquo; que permet a OpenClaw controlar el bot.\nPas 2: Configurar Telegram a OpenClaw Afegeix la configuració de Telegram al teu openclaw.json:\n{ \u0026#34;telegram\u0026#34;: { \u0026#34;token\u0026#34;: \u0026#34;EL_TOKEN_DEL_BOTFATHER\u0026#34;, \u0026#34;allowedUsers\u0026#34;: [\u0026#34;EL_TEU_TELEGRAM_ID\u0026#34;] } } El token és el que t\u0026rsquo;ha donat BotFather.\nallowedUsers és una llista d\u0026rsquo;IDs d\u0026rsquo;usuari de Telegram que poden parlar amb el bot. Això és important per seguretat — sense això, qualsevol persona que trobi el teu bot podria usar-lo (i gastar els teus tokens).\nPer obtenir el teu Telegram ID, busca @userinfobot a Telegram i envia-li /start. Et dirà el teu ID numèric.\nPas 3: Arrencar l\u0026rsquo;agent Executa OpenClaw amb el mode Telegram:\nopenclaw --telegram Si tot està ben configurat, veuràs un missatge indicant que el bot està actiu. Ves a Telegram, busca el teu bot pel username que li vas posar, i envia-li un missatge.\nSi respon, felicitats — tens un agent d\u0026rsquo;IA al teu mòbil.\nComandes bàsiques OpenClaw amb Telegram suporta algunes comandes especials:\n/new — Inicia una conversa nova (esborra el context anterior) /help — Mostra les comandes disponibles La comanda /new és important: recorda que el context window s\u0026rsquo;omple a mesura que parles. Quan notis que l\u0026rsquo;agent perd el fil o es torna lent, un /new neteja el context i recomença.\nMantenir el bot actiu 24/7 Si executes openclaw --telegram al teu ordinador, el bot funciona mentre l\u0026rsquo;ordinador estigui encès i el terminal obert. Quan tanques, el bot s\u0026rsquo;atura.\nPer a disponibilitat 24/7, necessites una de dues opcions:\nScreen o tmux (solució bàsica): Eines que mantenen el procés actiu encara que tanquis el terminal.\ntmux new -s openclaw openclaw --telegram # Ctrl+B, després D per desconnectar (el bot segueix actiu) # tmux attach -t openclaw per reconnectar Servei systemd (solució robusta): Configures OpenClaw com un servei del sistema que arrenca automàticament i es reinicia si falla. Ideal per a un VPS o servidor dedicat.\nConsells de seguretat Restringeix l\u0026rsquo;accés: Sempre configura allowedUsers amb els IDs dels usuaris autoritzats. Un bot obert és un bot que qualsevol pot explotar.\nNo comparteixis el token: El token del bot és com una contrasenya. Si algú el té, pot controlar el teu bot.\nMonitoritza l\u0026rsquo;ús: Especialment al principi, revisa les converses per assegurar-te que el bot es comporta com esperes.\nConceptes clau d\u0026rsquo;avui @BotFather: El bot oficial de Telegram per crear bots nous Token: La clau d\u0026rsquo;accés que identifica el teu bot allowedUsers: Llista d\u0026rsquo;IDs de Telegram autoritzats a usar el bot /new: Neteja el context i comença una conversa nova tmux/screen: Eines per mantenir el bot actiu al tancar el terminal Propera lliçó: Donar personalitat al teu agent — el system prompt.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-24-telegram-bot/","summary":"Crea un bot de Telegram, connecta\u0026rsquo;l a OpenClaw, i parla amb el teu agent des del mòbil.","title":"Lliçó 24: Connectar OpenClaw a Telegram"},{"content":"El system prompt: l\u0026rsquo;ADN del teu agent Si el model és el cervell i les eines són les mans, el system prompt és la personalitat. Defineix com es comporta l\u0026rsquo;agent: en quin idioma parla, quin to usa, quines regles segueix, què sap sobre tu, i com enfoca les respostes.\nDos agents amb el mateix model i les mateixes eines poden ser completament diferents si tenen system prompts diferents. Un pot ser formal i tècnic, l\u0026rsquo;altre informal i humorístic. El system prompt ho canvia tot.\nOn es configura? A OpenClaw, el system prompt és un fitxer Markdown a ~/.openclaw/workspace/system-prompt.md. Simplement edites aquest fitxer i l\u0026rsquo;agent canvia de comportament immediatament (al proper missatge).\nEstructura d\u0026rsquo;un bon system prompt No hi ha una fórmula única, però un system prompt efectiu sol incloure:\n1. Identitat Qui és l\u0026rsquo;agent? Quin rol té?\nEts un assistent personal especialitzat en tecnologia i productivitat. Et dius Atlas. Ets directe, pràctic i no dones voltes innecessàries. 2. Comportament Com ha de respondre? Quin to? Quines regles?\nRespon sempre en català, amb termes tècnics en anglès quan sigui natural. Sigues concís — prefereix respostes curtes i útils a respostes llargues i genèriques. Si no saps alguna cosa, digues-ho clarament. No inventis. 3. Context Què sap sobre tu? Quin és el context d\u0026rsquo;ús?\nL\u0026#39;usuari és un professional d\u0026#39;IT que gestiona infraestructura. Té experiència amb Linux, Docker, i sistemes cloud. Prefereix solucions pràctiques i directes. 4. Límits Què NO ha de fer l\u0026rsquo;agent?\nNo donis consells mèdics ni legals. No generes contingut per a menors. Si una petició és ambigua, demana aclariment abans d\u0026#39;actuar. Exemple complet Aquí tens un system prompt complet per a un agent personal:\n# Identitat Ets un assistent personal d\u0026#39;IA. Et dius Claw. Ets pràctic, directe, i tens un to proper però professional. # Idioma Respon en català. Usa termes tècnics en anglès quan sigui natural (no tradueixis \u0026#34;machine learning\u0026#34; a \u0026#34;aprenentatge automàtic\u0026#34; si sona forçat). # Estil - Sigues concís. Si pots dir-ho en 3 línies, no en facis 10. - Usa exemples pràctics quan expliquis conceptes. - Si l\u0026#39;usuari fa una pregunta simple, respon simplement. No donis context innecessari. # Context de l\u0026#39;usuari - Professional d\u0026#39;IT amb 20 anys d\u0026#39;experiència - Gestiona infraestructura i servidors - Interessat en IA, automatització i agents - Prefereix solucions que funcionin sobre solucions \u0026#34;elegants\u0026#34; # Regles - Si no estàs segur d\u0026#39;alguna cosa, digues-ho - Quan donguis comandes de terminal, explica breument què fan - Si la pregunta és massa àmplia, demana aclariment - No donis respostes genèriques copiades d\u0026#39;un manual Consells per a un bon system prompt Sigues específic. \u0026ldquo;Sigues amable\u0026rdquo; és vague. \u0026ldquo;Respon amb un to proper, com si parlés amb un company de feina\u0026rdquo; és concret.\nItera. El primer system prompt no serà perfecte. Usa l\u0026rsquo;agent uns dies, identifica el que no t\u0026rsquo;agrada de les respostes, i ajusta el prompt. És un procés iteratiu.\nNo l\u0026rsquo;omplis massa. Un system prompt de 3000 paraules consumeix tokens a cada missatge. Sigues eficient — inclou el que és important i deixa fora el que el model ja fa bé per defecte.\nL\u0026rsquo;idioma del system prompt importa. Si escrius el system prompt en anglès, el model tendirà a respondre en anglès. Escriu-lo en l\u0026rsquo;idioma en què vols les respostes, o especifica-ho explícitament.\nTesta amb preguntes variades. Després de canviar el system prompt, fes-li preguntes de tipus molt diferents: tècniques, creatives, personals, ambigües. Assegura\u0026rsquo;t que el comportament és coherent en tots els casos.\nConceptes clau d\u0026rsquo;avui System prompt: Les instruccions permanents que defineixen la personalitat i comportament de l\u0026rsquo;agent ~/.openclaw/workspace/system-prompt.md: On viu el system prompt a OpenClaw Quatre parts: Identitat + Comportament + Context + Límits Iterar: El system prompt es millora amb l\u0026rsquo;ús — no esperes que sigui perfecte al primer intent Cada missatge el reenvia: El system prompt s\u0026rsquo;envia al model amb cada petició, consumint tokens Propera lliçó: Comencem la Setmana 6 — Skills essencials per al teu agent.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-25-personalitat-system-prompt/","summary":"Escriu un system prompt efectiu que defineixi com es comporta, parla i pensa el teu agent.","title":"Lliçó 25: Donar personalitat al teu agent — el system prompt"},{"content":"Setmana 6: posar l\u0026rsquo;agent a treballar Tens un agent amb cervell (model), personalitat (system prompt), i canal de comunicació (Telegram). Ara li donem superpoderes amb skills.\nInstal·lar skills des de Clawhub Clawhub.ai és el directori de skills per a OpenClaw. Per instal·lar una skill:\nopenclaw skill install nom-de-la-skill Les skills s\u0026rsquo;instal·len a ~/.openclaw/skills/ (globals) o a ~/.openclaw/workspace/skills/ (per workspace). Les globals estan disponibles per a tots els workspaces.\nLes 5 skills essencials per començar 1. Cerca web Sense cerca web, el teu agent està limitat al que sap del seu entrenament. Amb cerca web, pot respondre preguntes sobre actualitat, buscar preus, trobar informació específica.\nHi ha diverses opcions:\nTavily: Cercador dissenyat per a agents d\u0026rsquo;IA. Resultats nets i rellevants. Requereix API key (tier gratuït disponible).\nDuckDuckGo: Cerca gratuïta sense necessitat d\u0026rsquo;API key. Menys precís que Tavily però funcional.\nSearXNG: Metacercador que pots hostejar tu mateix. Privacitat total, sense límits. Més complex d\u0026rsquo;instal·lar però molt potent.\nPer començar, Tavily o DuckDuckGo són les opcions més fàcils.\n2. Lectura d\u0026rsquo;URLs (web fetch) Complementària a la cerca web. Mentre la cerca et dona resultats breus, el web fetch obre una URL i n\u0026rsquo;extreu el contingut complet. Útil per a:\nLlegir articles sencers Extreure informació d\u0026rsquo;una pàgina específica Processar documentació tècnica 3. Lectura de fitxers Permet a l\u0026rsquo;agent processar documents que li enviïs per Telegram: PDFs, fitxers de text, fulls de càlcul. Essencial si vols que l\u0026rsquo;agent t\u0026rsquo;ajudi amb documents de feina.\n4. Reddit (readonly) Reddit és una font excel·lent d\u0026rsquo;informació i opinions. La skill de Reddit permet a l\u0026rsquo;agent buscar discussions, llegir comentaris, i extreure informació de subreddits específics.\nMolt útil per a preguntes del tipus \u0026ldquo;quina experiència té la gent amb X?\u0026rdquo; o \u0026ldquo;quines alternatives hi ha a Y?\u0026rdquo;.\n5. Hacker News Per a contingut tècnic i de startups, Hacker News és una font de referència. L\u0026rsquo;agent pot buscar les notícies més recents, llegir discussions, i trobar enllaços rellevants.\nConfigurar skills Cada skill pot requerir configuració addicional al openclaw.json. Per exemple, Tavily necessita una API key:\n{ \u0026#34;skills\u0026#34;: { \u0026#34;tavily\u0026#34;: { \u0026#34;apiKey\u0026#34;: \u0026#34;LA_TEVA_KEY_TAVILY\u0026#34; } } } Consulta la documentació de cada skill a Clawhub per saber quina configuració necessita.\nSkills globals vs skills de workspace Skills globals (~/.openclaw/skills/): Disponibles per a tots els workspaces. Ideals per a skills que sempre vols tenir (cerca web, lectura de fitxers).\nSkills de workspace (~/.openclaw/workspace/skills/): Només disponibles per al workspace actiu. Ideals per a skills específiques d\u0026rsquo;un projecte.\nProvar les skills Després d\u0026rsquo;instal·lar una skill, testa-la:\n\u0026ldquo;Quines notícies hi ha avui sobre IA?\u0026rdquo; → Ha d\u0026rsquo;usar la cerca web \u0026ldquo;Llegeix aquest article: [URL]\u0026rdquo; → Ha d\u0026rsquo;usar el web fetch \u0026ldquo;Què diu la gent a Reddit sobre OpenClaw?\u0026rdquo; → Ha d\u0026rsquo;usar la skill de Reddit Si l\u0026rsquo;agent no usa la skill, potser el model no sap que la té. Revisa que la skill estigui correctament instal·lada i configurada.\nConceptes clau d\u0026rsquo;avui Clawhub.ai: Directori de skills per a OpenClaw Skills essencials: Cerca web, lectura d\u0026rsquo;URLs, lectura de fitxers, Reddit, Hacker News Skills globals vs workspace: Globals per a ús general, workspace per a projectes específics Cada skill pot necessitar configuració (API keys, paràmetres) al openclaw.json Propera lliçó: Automatitzacions — que l\u0026rsquo;agent treballi sol amb cron jobs.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-26-skills-essencials/","summary":"Les skills més útils per començar: cerca web, lectura de fitxers, i fonts d\u0026rsquo;informació en temps real.","title":"Lliçó 26: Skills essencials — donar superpoderes al teu agent"},{"content":"D\u0026rsquo;agent reactiu a agent proactiu Fins ara, el teu agent espera que li parlis. Tu envies un missatge, ell respon. Però el veritable poder d\u0026rsquo;un agent és quan treballa sense que li ho demanis.\nImagina que cada matí a les 7 reps un missatge de Telegram amb el resum de notícies del teu sector. O que l\u0026rsquo;agent revisa preus cada hora i t\u0026rsquo;avisa quan baixen. O que genera un informe setmanal cada divendres. Tot automàtic, sense intervenció teva.\nAixò es fa amb cron jobs — tasques programades.\nQuè és un cron job? Un cron job és una tasca que s\u0026rsquo;executa automàticament a hores programades. El nom ve de \u0026ldquo;chronos\u0026rdquo; (temps en grec) i és un sistema present a tots els sistemes Linux/Mac des de fa dècades.\nUn cron job defineix:\nQuè ha de fer (la tasca) Quan ho ha de fer (la programació) Cron a OpenClaw OpenClaw permet configurar cron jobs directament al openclaw.json. Cada cron job és un prompt que s\u0026rsquo;envia al model a l\u0026rsquo;hora programada, i la resposta es publica al Telegram.\nExemple de configuració:\n{ \u0026#34;cron\u0026#34;: [ { \u0026#34;schedule\u0026#34;: \u0026#34;0 7 * * 1-5\u0026#34;, \u0026#34;prompt\u0026#34;: \u0026#34;Busca les 5 notícies més rellevants sobre IA d\u0026#39;avui. Fes un resum breu de cada una en català.\u0026#34;, \u0026#34;timezone\u0026#34;: \u0026#34;Europe/Madrid\u0026#34; } ] } Això envia un briefing de notícies cada dia laborable a les 7 del matí.\nEntendre la sintaxi cron La programació usa la sintaxi cron estàndard: cinc camps separats per espais.\n┌───── minut (0-59) │ ┌───── hora (0-23) │ │ ┌───── dia del mes (1-31) │ │ │ ┌───── mes (1-12) │ │ │ │ ┌───── dia de la setmana (0-7, on 0 i 7 = diumenge) │ │ │ │ │ * * * * * Exemples pràctics:\n0 7 * * 1-5 — Cada dia laborable a les 7:00 30 9 * * * — Cada dia a les 9:30 0 */4 * * * — Cada 4 hores 0 22 * * 5 — Cada divendres a les 22:00 0 8 1 * * — El primer dia de cada mes a les 8:00 Idees d\u0026rsquo;automatitzacions Briefing matinal: Resum de notícies del teu sector, temps, i tasques pendents. Ideal per començar el dia informat.\nMonitorització de preus: Revisa periòdicament preus de productes o serveis i t\u0026rsquo;avisa quan baixen d\u0026rsquo;un llindar.\nResum setmanal: Cada divendres, un informe resumint les notícies o tendències més importants de la setmana.\nRecordatoris intel·ligents: No un simple recordatori, sinó un que busca informació rellevant. Per exemple: \u0026ldquo;Recorda\u0026rsquo;m les reunions d\u0026rsquo;avui i suggereix punts de preparació basant-te en emails recents.\u0026rdquo;\nVigilància de competència: Busca mencions de la teva empresa o productes a internet i t\u0026rsquo;avisa de novetats.\nControlar el consum de tokens Les automatitzacions gasten tokens sense que tu les \u0026ldquo;vegis\u0026rdquo; — el cron s\u0026rsquo;executa sol. Si no tens cura, la factura pot créixer ràpidament.\nConsells:\nLimita la sortida: Al prompt del cron, especifica la longitud màxima. \u0026ldquo;Resum en màxim 500 caràcters\u0026rdquo; evita respostes quilomètriques.\nFreqüència raonable: No cal que tot s\u0026rsquo;executi cada hora. Un briefing diari és suficient per a la majoria de coses.\nModel adequat: Per a tasques automàtiques de rutina (resums, traduccions), usa un model barat o gratuït. Reserva els models cars per a decisions importants.\nMonitoritza: Revisa periòdicament el consum de tokens i ajusta si cal.\nTelegram i les limitacions Telegram té un límit de 4096 caràcters per missatge. Si la resposta del cron és més llarga, es tallarà o donarà error.\nSolucions:\nLimita la sortida al prompt (especifica \u0026ldquo;màxim 3500 caràcters\u0026rdquo;) Usa format telegràfic (frases curtes, sense frases de cortesia) Si necessites contingut llarg, fes que l\u0026rsquo;agent ho guardi en un fitxer i t\u0026rsquo;enviï el resum Conceptes clau d\u0026rsquo;avui Cron job: Tasca que s\u0026rsquo;executa automàticament a hores programades Sintaxi cron: 5 camps (minut, hora, dia mes, mes, dia setmana) que defineixen la programació Briefings automàtics: L\u0026rsquo;ús més comú — rebre informació resumida sense demanar-la Control de tokens: Limita la sortida, tria el model adequat, i monitoritza el consum Límit Telegram: 4096 caràcters per missatge — tingueu-ho en compte als prompts Propera lliçó: Múltiples agents — quan un no és suficient.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-27-automatitzacions-cron/","summary":"Configura tasques automàtiques perquè el teu agent faci coses sense que tu li ho demanis: briefings, alertes, monitorització.","title":"Lliçó 27: Automatitzacions — que l'agent treballi sol"},{"content":"Per què més d\u0026rsquo;un agent? Quan comences, un sol agent és suficient. Però a mesura que li dones més responsabilitats, arribes a un punt on un sol agent no és la millor solució.\nImagina un assistent humà al qual li demanes que faci de secretari, comptable, investigador, i community manager alhora. Podria fer-ho tot, però no tot bé. La mateixa lògica s\u0026rsquo;aplica als agents.\nRaons per separar agents Especialització del model: Diferents tasques requereixen diferents models. Un briefing diari de notícies no necessita el model més potent — un model gratuït ho fa bé. Però una anàlisi complexa d\u0026rsquo;inversions necessita el millor model disponible. Si tens un sol agent, o li poses el model car (i malbarates diners en tasques simples) o li poses el barat (i la qualitat pateix en tasques complexes).\nCost: Separar per model et permet assignar el model car només a les tasques que el necessiten. Les tasques rutinàries les fa el model barat o gratuït. El cost total és molt inferior al d\u0026rsquo;usar el model car per a tot.\nDisponibilitat: Si un agent falla (per límit d\u0026rsquo;API, error del provider, etc.), els altres segueixen funcionant. No poses tots els ous al mateix cistell.\nOrganització: Cada agent pot tenir el seu propi system prompt, les seves skills, i la seva memòria. Això evita conflictes i fa que cada agent sigui expert en el seu domini.\nExemple pràctic: dos agents coordinats Una configuració molt funcional és tenir dos agents:\nAgent primari (qualitat): Usa un model potent (Claude Sonnet, GPT-4). Per a conversa interactiva, decisions importants, anàlisi complexa, i tasques que requereixen raonament. Costa més per token, però el fas servir amb moderació.\nAgent secundari (volum): Usa un model gratuït o barat (Kimi K2.5 via NVIDIA NIM, LLaMA via Groq). Per a tasques automàtiques, briefings, monitorització, traduccions. Costa poc o res per token, i pot fer moltes peticions sense preocupar-se pel cost.\nCada agent té el seu propi bot de Telegram, el seu propi system prompt, i les seves pròpies skills.\nWorkspaces a OpenClaw OpenClaw suporta workspaces — entorns separats amb configuració independent. Cada workspace pot tenir un model diferent, skills diferents, i un system prompt diferent.\nAixò permet tenir múltiples \u0026ldquo;agents\u0026rdquo; en una mateixa instal·lació d\u0026rsquo;OpenClaw, cadascun amb la seva personalitat i capacitats.\nLa combinació intel·ligent La clau no és tenir molts agents — és tenir els agents correctes per a les tasques correctes.\nPreguntes per decidir si necessites un segon agent:\nTinc tasques rutinàries que malbarataran tokens del model principal? → Sí → Agent secundari barat Necessito que alguna tasca funcioni 24/7 independentment? → Sí → Agent separat Les meves tasques automàtiques tenen requisits molt diferents de les interactives? → Sí → Separar Si la resposta a totes és \u0026ldquo;no\u0026rdquo;, un sol agent ben configurat és suficient.\nConceptes clau d\u0026rsquo;avui Separar per cost: Model car per a qualitat, model barat per a volum Separar per funció: Cada agent expert en el seu domini Workspaces: Entorns separats dins d\u0026rsquo;OpenClaw amb configuració independent No complicar-se: Si un agent és suficient, un agent és millor que dos Propera lliçó: Seguretat i privacitat — el teu agent al món real.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-28-multiples-agents/","summary":"Quan té sentit tenir més d\u0026rsquo;un agent, com organitzar-los, i com combinar models cars i barats intel·ligentment.","title":"Lliçó 28: Múltiples agents — quan un no és suficient"},{"content":"Per què parlar de seguretat? Quan tens un agent d\u0026rsquo;IA funcionant, hi ha dades sensibles en joc: les teves API keys (que costen diners), les teves converses (que contenen informació personal), i les dades que l\u0026rsquo;agent processa. Unes bones pràctiques bàsiques t\u0026rsquo;evitaran problemes.\nNo cal ser expert en ciberseguretat. Amb unes quantes regles senzilles estaràs protegit contra els riscos més comuns.\nRegla 1: Protegeix les API keys Les API keys són els diners. Si algú hi accedeix, pot fer peticions al teu compte i la factura serà teva.\nMai les posis al codi que puges a GitHub. Hi ha bots que escanegen repositoris públics buscant API keys exposades. Les troben i les exploten en minuts.\nUsa variables d\u0026rsquo;entorn. En lloc de posar la key directament al openclaw.json, pots usar variables d\u0026rsquo;entorn del sistema operatiu. Així la key no queda escrita en cap fitxer.\nRevoca-les si sospites. Si creus que una key s\u0026rsquo;ha pogut filtrar, ves al panell del provider, elimina-la, i crea\u0026rsquo;n una de nova. Procés de 2 minuts que et pot estalviar diners.\nUna key per servei. No reutilitzis la mateixa key per a tot. Si una es compromet, només afecta un servei.\nRegla 2: Restringeix l\u0026rsquo;accés al bot de Telegram Si el teu bot de Telegram està obert a tothom, qualsevol persona que descobreixi el username del bot pot parlar-hi — i gastar els teus tokens.\nConfigura allowedUsers sempre. Posa els IDs de Telegram de les persones autoritzades i ningú més podrà usar el bot.\nNo comparteixis el token del bot. Amb el token, qualsevol pot controlar el bot — enviar missatges, canviar la configuració, etc.\nRegla 3: Entén què envies al provider Quan el teu agent processa una petició, el text complet s\u0026rsquo;envia als servidors del provider. Això inclou:\nEl teu missatge El system prompt L\u0026rsquo;historial de conversa Qualsevol document o context adjunt Si treballes amb informació sensible (dades de clients, informació financera, documents confidencials), tingues en compte que aquesta informació passa pels servidors del provider.\nOpcions per a informació sensible:\nModel local: Amb Ollama, les dades no surten del teu ordinador. La solució més segura per a dades confidencials.\nRevisa les polítiques del provider: Alguns providers (com Anthropic amb l\u0026rsquo;API) no entrenen els seus models amb les dades dels usuaris. Altres sí. Llegeix les condicions d\u0026rsquo;ús.\nNo envies més del necessari. Si necessites que l\u0026rsquo;agent processi un document, envia només la part rellevant, no el document sencer.\nRegla 4: Còpies de seguretat La configuració del teu agent és el resultat de hores de treball: system prompt, configuració de providers, skills personalitzades.\nFes backup de ~/.openclaw/ regularment. Si el disc falla o fas un canvi que trenca alguna cosa, poder recuperar la configuració anterior és inavaluable.\nGuarda els backups en un lloc segur. Recorda que el directori conté API keys — no el pugis a GitHub públic sense treure les keys primer.\nRegla 5: Actualitza regularment OpenClaw, Node.js, i les skills reben actualitzacions que sovint inclouen correccions de seguretat.\nnpm update -g openclaw No cal actualitzar cada dia, però fer-ho cada poques setmanes és bona pràctica.\nRegla 6: Monitoritza l\u0026rsquo;ús Especialment al principi, revisa:\nEl consum de tokens al panell del provider — busca pics inesperats que podrien indicar ús no autoritzat Els logs d\u0026rsquo;OpenClaw — per veure què fa l\u0026rsquo;agent Les converses — per assegurar-te que l\u0026rsquo;agent es comporta com esperes Resum de bones pràctiques API keys en variables d\u0026rsquo;entorn, mai al codi allowedUsers sempre configurat al bot de Telegram Model local per a dades sensibles Backups regulars de ~/.openclaw/ Actualitzar OpenClaw periòdicament Monitoritzar consum de tokens Conceptes clau d\u0026rsquo;avui API keys: La peça més crítica — protegir-les és la prioritat número u allowedUsers: Restricció d\u0026rsquo;accés al bot de Telegram Dades al provider: Tot el que envies a l\u0026rsquo;API passa pels servidors del provider Model local: La solució més segura per a dades sensibles Backups: Còpies de seguretat de ~/.openclaw/ — la teva configuració val hores de treball Propera lliçó: I ara què? — Següents passos per seguir aprenent.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-29-seguretat-privacitat/","summary":"Bones pràctiques de seguretat per no exposar dades ni API keys, i com protegir el teu agent.","title":"Lliçó 29: Seguretat i privacitat — el teu agent al món real"},{"content":"Has completat el curs Sis setmanes. Trenta lliçons. Has passat de no saber què és la IA a tenir un agent funcional al teu mòbil. Fem un repàs ràpid del camí recorregut.\nMapa del que has après Setmana 1 — Fonaments d\u0026rsquo;IA: Què és la IA, la seva història, els tipus (Machine Learning, Deep Learning, IA generativa), què és un model, i com la IA ja forma part del teu dia a dia.\nSetmana 2 — LLM: Com funcionen els Large Language Models, tokens i tokenització, la finestra de context, els models actuals, i com escriure bons prompts.\nSetmana 3 — Infraestructura: Què són els providers, les APIs, les opcions gratuïtes i de pagament, i com executar models localment amb Ollama.\nSetmana 4 — Agents: La diferència entre chatbot i agent, els components d\u0026rsquo;un agent (cervell, mans, memòria, sentits), tools i MCP, embeddings i RAG, i els frameworks disponibles.\nSetmana 5 — OpenClaw pràctic: Instal·lació, configuració de model i provider, connexió a Telegram, i el system prompt.\nSetmana 6 — Posar l\u0026rsquo;agent a treballar: Skills essencials, automatitzacions amb cron, múltiples agents, i seguretat.\nAixò és una base sòlida. No ets expert — però tens el coneixement necessari per usar, configurar i mantenir un agent d\u0026rsquo;IA amb criteri.\nRecursos per continuar aprenent Cursos gratuïts Hugging Face NLP Course (huggingface.co/learn): Curs complet sobre processament del llenguatge natural. Més tècnic que el nostre, però excel·lent si vols aprofundir en com funcionen els models per dins. Llicència Apache 2.0.\nfast.ai Practical Deep Learning (course.fast.ai): Un dels millors cursos de Deep Learning del món, dissenyat per ser pràctic i accessible. Ideal si vols entendre l\u0026rsquo;entrenament de models. Creative Commons.\nDeepLearning.AI Short Courses (deeplearning.ai): Cursos curts (1-2 hores) sobre temes específics: agents, RAG, fine-tuning, prompt engineering. Creats per Andrew Ng, una de les figures més importants de l\u0026rsquo;educació en IA.\nAnthropic Prompt Engineering (docs.anthropic.com): La guia oficial de prompting d\u0026rsquo;Anthropic. Excel·lent per millorar la qualitat de les teves interaccions amb Claude i altres models.\nDocumentació tècnica OpenClaw GitHub (github.com/openclaw): La documentació oficial i el codi font d\u0026rsquo;OpenClaw. Imprescindible per aprofundir.\nClawhub.ai: El directori de skills — revisa\u0026rsquo;l periòdicament perquè constantment apareixen skills noves.\nModel Context Protocol (modelcontextprotocol.io): La documentació del MCP si vols entendre com els agents es connecten a serveis externs.\nComunitats Reddit r/LocalLLaMA: La comunitat més activa sobre models locals. Aquí trobaràs benchmarks, comparatives, i consells d\u0026rsquo;optimització.\nReddit r/artificial: Discussió general sobre IA, notícies, i tendències.\nHugging Face Hub: Plataforma amb milers de models, datasets, i demos. La \u0026ldquo;GitHub dels models d\u0026rsquo;IA\u0026rdquo;.\nIdees de projectes per practicar Ara que tens les eines, aquí van idees per posar-les en pràctica:\nNivell bàsic Briefing personal diari: Configura un cron que cada matí t\u0026rsquo;enviï un resum de notícies del teu sector, el temps, i recordatoris. El primer projecte ideal — senzill però immediatament útil.\nTraductor personal: Un agent que tradueixi textos entre els idiomes que necessitis, amb memòria del vocabulari específic del teu camp.\nCurador de contingut: Un agent que monitoritzi subreddits, Hacker News, o feeds RSS i t\u0026rsquo;enviï un resum diari del més rellevant.\nNivell intermedi Assistent de documentació: Un agent que processi documents tècnics i els converteixi en resums, FAQ, o guies pas a pas.\nMonitor de preus: Un agent que revisi periòdicament preus de productes que t\u0026rsquo;interessin i t\u0026rsquo;avisi quan baixin.\nGenerador de contingut: Un agent que escrigui contingut per a un blog o web, amb revisió humana abans de publicar.\nNivell avançat Sistema multi-agent: Dos o més agents coordinats, cadascun amb un rol (investigador, escriptor, editor).\nRAG amb documents propis: Un agent que indexi la documentació de la teva empresa i respongui preguntes basant-se en ella.\nAgent amb accés a APIs de negoci: Connectar l\u0026rsquo;agent a CRM, facturació, o altres sistemes de l\u0026rsquo;empresa via MCP.\nEl futur proper El camp dels agents d\u0026rsquo;IA evoluciona a una velocitat vertiginosa. Algunes tendències que veurem els propers mesos:\nModels més eficients: Cada generació de models ofereix millor qualitat amb menys recursos. Aviat, models que avui necessiten GPUs cares funcionaran en un ordinador normal.\nMCP madur: El Model Context Protocol seguirà creixent. Cada vegada hi haurà més serveis connectables als agents, fent-los més útils.\nAgents més autònoms: Els agents actuals necessiten instruccions detallades. Els futurs seran més capaços de descompondre tasques complexes i executar-les amb menys supervisió.\nRegulació: Governs i institucions estan treballant en regulació de la IA. Entendre com funciona et permetrà navegar els canvis regulatoris amb criteri.\nContribuir a la comunitat Aquest curs existeix gràcies a la filosofia de compartir coneixement. Si t\u0026rsquo;ha sigut útil, pots contribuir:\nComparteix-lo. La URL és pública i gratuïta. Envia-la a qui creguis que li pot ser útil.\nReporta errors. Si trobes alguna cosa incorrecta, el repositori és obert a GitHub.\nCrea skills. Si muntes una skill útil per a OpenClaw, comparteix-la a Clawhub perquè altres la puguin usar.\nEnsenya. La millor manera d\u0026rsquo;aprendre és ensenyar. Explica el que saps a algú altre — t\u0026rsquo;obligarà a consolidar el coneixement.\nÚltimes paraules La IA no és màgia ni ciència ficció. És una eina potent que, com totes les eines, és tan útil com la persona que la fa servir. Ara tens les bases per fer-la servir bé.\nNo intentis saber-ho tot — el camp és massa gran i canvia massa ràpid. Centra\u0026rsquo;t en les eines que resolen els teus problemes reals, i aprofundeix des d\u0026rsquo;allà.\nBenvingut al món dels agents.\nFi del curs. Gràcies per aprendre amb ClawLearning.\n","permalink":"https://clawlearning.github.io/ca/posts/llico-30-seguents-passos/","summary":"Tanquem el curs amb un mapa del que has après, recursos per continuar, idees de projectes, i com contribuir a la comunitat.","title":"Lliçó 30: I ara què? Següents passos per seguir aprenent"},{"content":"Què és ClawLearning? ClawLearning és un projecte obert i gratuït dedicat a l\u0026rsquo;aprenentatge d\u0026rsquo;Intel·ligència Artificial, Models de Llenguatge (LLM) i Agents autònoms.\nTot el contingut d\u0026rsquo;aquest web és generat, redactat i publicat automàticament per agents OpenClaw — sense intervenció humana en el procés de publicació.\nCom funciona? Un agent OpenClaw genera la lliçó del dia El contingut es formata en Markdown amb metadades L\u0026rsquo;agent fa push al repositori GitHub GitHub Actions compila el site amb Hugo El web s\u0026rsquo;actualitza automàticament Per què? Perquè el coneixement ha de ser lliure. Si un agent d\u0026rsquo;IA pot generar contingut educatiu de qualitat, per què no compartir-lo amb tothom?\nQui hi ha darrere? Un enginyer de sistemes amb +20 anys d\u0026rsquo;experiència que creu que la millor manera d\u0026rsquo;aprendre és ensenyar — fins i tot si qui ensenya és una IA supervisada per un humà.\nContacte 🐙 GitHub: clawlearning ","permalink":"https://clawlearning.github.io/ca/about/","summary":"\u003ch2 id=\"què-és-clawlearning\"\u003eQuè és ClawLearning?\u003c/h2\u003e\n\u003cp\u003eClawLearning és un projecte obert i gratuït dedicat a l\u0026rsquo;aprenentatge d\u0026rsquo;\u003cstrong\u003eIntel·ligència Artificial, Models de Llenguatge (LLM) i Agents autònoms\u003c/strong\u003e.\u003c/p\u003e\n\u003cp\u003eTot el contingut d\u0026rsquo;aquest web és \u003cstrong\u003egenerat, redactat i publicat automàticament\u003c/strong\u003e per agents \u003ca href=\"https://github.com/openclaw\"\u003eOpenClaw\u003c/a\u003e — sense intervenció humana en el procés de publicació.\u003c/p\u003e\n\u003ch2 id=\"com-funciona\"\u003eCom funciona?\u003c/h2\u003e\n\u003col\u003e\n\u003cli\u003eUn agent OpenClaw genera la lliçó del dia\u003c/li\u003e\n\u003cli\u003eEl contingut es formata en Markdown amb metadades\u003c/li\u003e\n\u003cli\u003eL\u0026rsquo;agent fa push al repositori GitHub\u003c/li\u003e\n\u003cli\u003eGitHub Actions compila el site amb Hugo\u003c/li\u003e\n\u003cli\u003eEl web s\u0026rsquo;actualitza automàticament\u003c/li\u003e\n\u003c/ol\u003e\n\u003ch2 id=\"per-què\"\u003ePer què?\u003c/h2\u003e\n\u003cp\u003ePerquè el coneixement ha de ser lliure. Si un agent d\u0026rsquo;IA pot generar contingut educatiu de qualitat, per què no compartir-lo amb tothom?\u003c/p\u003e","title":"Sobre ClawLearning"}]