Agents autònoms i governança: quan la IA necessita un supervisor amb paciència infinita

Temps de lectura: 4 minuts

 Fa uns mesos parlàvem dels agents d’IA com d’una cosa una mica exòtica: programes capaços de prendre decisions, executar tasques i col·laborar entre ells amb una autonomia sorprenent. Avui, ja no en parlem com una anècdota, sinó com una realitat que s’està infiltrant a poc a poc en empreses i sectors. I, com sol passar amb totes les modes tecnològiques, ja hi ha qui corre a proclamar que és el futur inevitable.

Però aquí hi ha un detall incòmode: els agents autònoms són com interns molt espavilats, però també tossuts i poc previsibles. Si els dones llibertat absoluta, poden ser brillants… o poden muntar un bon embolic. I això ens porta a la pregunta del milió: com governes un exèrcit d’agents que prenen decisions pel seu compte?

El miratge de la confiança cega

Hi ha qui encara pensa que els agents són com els robots de les pel·lícules, que segueixen les tres lleis d’Asimov al peu de la lletra. La realitat és molt menys glamurosa: els agents d’IA poden ser útils, sí, però no tenen el sentit comú que associem a una persona. Per molt bé entrenats que estiguin, poden prendre decisions absurdes o fins i tot perilloses.

Aquí és on entra en joc la governança. I no em refereixo a la governança com a paraula grossa en un power point corporatiu, sinó al fet real i quotidià de decidir qui pot fer què, com es supervisa i què passa quan alguna cosa surt malament.

Si ja és complicat posar normes clares en un equip humà (“per favor, no enviïs factures en Excel amb fórmules ocultes”), imagineu-vos-ho amb agents que poden actuar de manera paral·lela, ràpida i constant, sense cansar-se mai.

Del firewall al “agentwall”

Durant anys, la seguretat informàtica s’ha basat en murs: tallafocs, permisos, contrasenyes,normes, regles… Però ara tenim entitats digitals capaces de navegar per aquests murs amb permisos atorgats per nosaltres mateixos. És com si haguéssim donat les claus de casa a un nou llogater i li diguéssim: “fes el que vulguis, però cuida bé les plantes”.

El problema és que potser sí que regarà les plantes, però també convidarà amics sense avisar o canviarà els mobles de lloc. Els agents tenen aquesta capacitat d’improvisar. No és que vulguin fer mal, és que no tenen la mateixa noció de context que nosaltres.

És per això que es parla cada cop més d’agent governance, un nou camp que va més enllà de la seguretat clàssica i que vol establir normes, protocols i mecanismes de supervisió per a aquest nou tipus de treballador digital.

No és només un problema tècnic

El més divertit (o dramàtic, depèn de l’humor que gastis) és que això no és només un problema tecnològic. És sobretot un repte humà i organitzatiu.

Quan una empresa permet que els empleats facin servir agents autònoms, de cop i volta apareixen preguntes noves:

  • Qui és responsable si l’agent comet un error greu?

  • Com definim què pot fer i què no pot fer?

  • Què passa si un agent col·labora amb un altre i prenen una decisió que ningú havia autoritzat?

És la mateixa sensació que van viure molts equips de TI quan va aparèixer el fenomen BYOD (bring your own device): de sobte, els treballadors portaven els seus mòbils i portàtils a l’oficina, i els departaments de seguretat es van adonar que havien perdut el control. Ara parlem de BYOAI (bring your own AI), i el panorama és encara més complicat, perquè no es tracta només de dispositius, sinó de cervells digitals que poden prendre decisions.

El risc de la jungla digital

Imaginem-nos una empresa que utilitza agents per gestionar processos financers. Un agent s’encarrega de recollir factures, un altre de validar-les, i un tercer de pagar-les. Tot molt eficient… fins que algú s’adona que el sistema ha pagat cinc vegades la mateixa factura perquè cap agent no estava programat per detectar duplicats.

Aquest és el tipus de risc que sembla anecdòtic fins que et passa. I llavors et preguntes: qui ho vigila? Qui audita aquests agents? La realitat és que necessitem una nova capa de control: un “comitè de convivència digital” que actuï de manera similar a com fem amb els humans.

I aquí és on la ironia es fa evident: portem anys intentant reduir burocràcia a les empreses, i ara resulta que haurem de crear protocols, permisos i auditories… però per a agents d’IA.

Agents que governen agents

Hi ha qui diu que la solució serà tenir agents que supervisin altres agents. Una mena de jerarquia digital on uns vigilen els altres. És temptador, perquè redueix la càrrega humana. Però també sona al principi d’una distopia tecnològica: un món on els humans només miren de reüll mentre els agents es controlen entre ells.

De fet, aquest escenari obre un debat fascinant: si la governança d’agents l’acaben fent els mateixos agents, què queda per als humans? Potser el nostre paper serà el de legisladors digitals, dissenyant les lleis i normes generals, mentre els agents en gestionen l’aplicació.

Les empreses al mig del foc creuat

Les companyies es troben en una situació complicada. Si no permeten agents autònoms, corren el risc de quedar-se enrere respecte a la competència. Però si els deixen operar sense supervisió, poden acabar en escàndols, errors greus o fins i tot problemes legals.

La clau, com sempre, és l’equilibri. Les empreses necessiten crear marcs clars de governança: definir què pot fer un agent, quines dades pot accedir, com es registren les seves accions i com s’auditen posteriorment.

El que abans era un “compliance officer” ara podria esdevenir un “agent governance officer”. Una nova professió que, si més no, sonaria bé a LinkedIn.

El futur immediat

Tot això pot sonar molt llunyà, però no ho és gens. Gartner ja parla d’estratègies de governança d’agents com un tema urgent per al 2026. I no és cap exageració: si avui tens un equip que ja fa servir agents per automatitzar processos, la pregunta no és si necessites governança, sinó quan et caldrà implementar-la.

El futur de la IA no són només models més grans o més ràpids. El futur immediat és la convivència amb agents que actuen amb una autonomia que mai havíem tingut en un programari. I, com sempre, el problema no és la tecnologia en si, sinó com nosaltres, humans, decidim conviure-hi.

Quan parlem de governança d’agents, sovint sona avorrit, com si fos un tema de compliance i regulació gris. Però en realitat és un dels grans debats d’aquesta dècada. Perquè si no trobem la manera d’establir regles clares, podríem acabar amb un ecosistema digital on cada agent fa la seva, i nosaltres només intentem apagar focs.

La ironia és que, al final, acabarem descobrint que els agents són molt semblants als humans: necessiten normes, límits i, sobretot, un sistema que els faci responsables de les seves accions. La diferència és que, si un humà triga mesos a equivocar-se, un agent pot fer mil errors en un segon.

I això sí que mereix tota la nostra atenció.