Com funciona un servidor MCP? Cap a una arquitectura d’IA realment connectada

Temps de lectura: 4 minuts

 

En el darrer article parlàvem de com el concepte MCP (Multi-Modal Contextual Protocol o Model-Context-Protocol, depenent a qui preguntis) apunta a convertir-se en una peça clau per a la nova generació d’intel·ligència artificial. No és una altra buzzword més, sinó una proposta seriosa de repensar com els models d’IA s’integren amb el món real.

Passem al següent nivell: entendre com funciona realment aquest sistema, perquè una cosa és la promesa d’un futur ple d’agents autònoms connectats, i una altra és saber quins engranatges fan possible que això deixi de ser una demo a YouTube i es converteixi en una eina útil dins la teva empresa.

Del xat al sistema: trencant la bombolla dels LLM

Fins fa poc, els models de llenguatge com ChatGPT, Claude o Gemini vivien dins una mena de bombolla. Tu preguntaves, ells responien. Si volies que sabessin més coses, havies d’afegir context manualment, enganxant documents al prompt o fent servir el que es coneix com a sistemes RAG (Retrieval Augmented Generation). Però aquests sistemes tenen límits evidents: són lents, cars, difícils d’escalar i no gaire fiables en entorns empresarials.

La proposta MCP no substitueix el model d’IA, sinó que li dona braços i ulls per interactuar amb el món. En comptes de limitar-se a generar text, un model amb accés MCP pot llegir una base de dades, fer una petició a una API, consultar la teva agenda o actualitzar un document… tot d’una manera estructurada, segura i verificable.

El cor del sistema: arquitectura i rols

Perquè això sigui possible, cal una arquitectura clara i uns rols ben definits. Bàsicament, un sistema MCP es compon de tres peces:

1. L’agent client (Model):

És el LLM que demana fer les accions necessàries. La diferència és que ara, en lloc de limitar-se a generar text, pot sol·licitar accions concretes: “crea una reunió per demà a les 10”, “consulta l’estat d’aquest client al CRM”, “genera un informe amb aquestes dades”. Però no ho fa sol, ho fa a través del protocol MCP i amb els límits que estableixi el servidor.

2. El servidor MCP:

És el cervell del sistema. Actua com a intermediari entre el model i les fonts de dades o funcionalitats externes. Però no és un simple proxy o pas de dades: aquest servidor controla permisos, valida peticions, filtra respostes i, sobretot, defineix què pot fer i què no pot fer el model. En moltes organitzacions, aquest component s’acabarà convertint en el pont entre l’IA i els sistemes interns més crítics i en tindrem un per cada eina o app.

3. El protocol MCP

Aquest és la clau de volta. Defineix com s’han de fer les peticions, quina informació ha d’incloure cada sol·licitud, com s’autentica i com es retorna la resposta. És, per dir-ho d’una altra manera, la “gramàtica” d’aquesta nova manera de parlar entre IA i sistema. Un llenguatge que no deixa lloc a interpretacions, sinó que busca seguretat, traçabilitat i control.

 

 

I això, com ho posem en marxa?

A diferència d’altres innovacions d’IA que semblen llunyanes o reservades a gegants tecnològics, l’arquitectura MCP es pot començar a provar avui mateix. De fet, hi ha eines com ViaSocket que ofereixen implementacions accessibles del servidor MCP, i també repositoris oberts per desplegar un servidor bàsic en local o al núvol.

El primer pas és sempre identificar quines dades i quines funcionalitats vols obrir a la IA. Potser només vols que pugui llegir i escriure al teu calendari corporatiu. O potser vols que pugui consultar l’estoc d’un magatzem, generar factures, o enviar notificacions automàtiques als clients. La clau és començar amb un scope petit, provar fluxos simples, validar que tot funciona… i créixer des d’aquí.

En aquest procés, el rol del servidor MCP és molt important. No només perquè executa les accions, sinó perquè et dona un control precís sobre què pot fer la IA, quan i amb qui. Això obre la porta a una integració molt més profunda però també molt més segura.

El més interessant de tot plegat és que, amb el MCP, deixem enrere el model de chatbot passiu que espera preguntes i dona respostes. Entrem en un nou paradigma on l’agent és actiu, capaç de prendre decisions, accedir a fonts d’informació reals i executar accions útils.

En contextos com el travel tech, això pot significar tenir un agent que no només informa de vols o reserves, sinó que pot reservar-ne un de nou, modificar una estada, verificar documentació i avisar un equip de suport. I tot això, en temps real, basat en dades vives.

El middleware de la nova era

La comparació pot semblar agosarada, però MCP té tots els números per convertir-se en el middleware per defecte d’aquesta nova etapa. Si els APIs van ser l’eina que va connectar serveis web i apps mòbils durant l’última dècada, els MCP podrien ser l’eina que connecti agents d’IA amb tot el món digital.

OpenAI i Anthropic ja ho han entès. I el fet que dues empreses amb visions tan diferents s’alineïn en aquest punt només reforça la idea que no és una moda passatgera. És el fonament d’un nou ecosistema.

No cal esperar al futur per veure-ho en acció. Ja es pot experimentar, provar, adaptar. I com més aviat ho fem, més a punt estarem per aprofitar la pròxima gran onada d’innovació en IA.

T’animes?