Les últimes setmanes, una notícia ha passat potser massa desapercebuda entre tanta eufòria d’anuncis d’OpenAI i Google: IBM ha signat una aliança amb Anthropic per integrar els models Claude dins les seves solucions empresarials. Dit així pot semblar un moviment tècnic més, un altre acord corporatiu entre gegants tecnològics. Però si rasquem una mica, el que realment tenim davant és un nou capítol en la carrera per controlar el futur de la intel·ligència artificial empresarial, una cursa que, cada cop més, sembla reservada a uns quants.
IBM no és precisament nova en això de la IA. Fa més d’una dècada ja ens venia Watson com la gran revolució en la presa de decisions corporativa. Recordeu aquell anunci del superordinador que guanyava al Jeopardy! i després ajudaria a curar el càncer? Doncs bé, Watson va acabar diluït en serveis i promeses inacabades. Ara, amb Anthropic com a soci, IBM intenta reescriure el seu paper en aquest nou escenari on els models fundacionals (Claude, GPT o Gemini) són la matèria primera sobre la qual es construeix tot.
El missatge d’aquesta aliança és clar: IBM no vol ser només un proveïdor d’infraestructura o consultoria, sinó una empresa capaç d’oferir IA de confiança, auditable i “business-friendly”. I aquí és on entra Anthropic, amb la seva bandera de “IA segura i alineada amb els valors humans”. Una combinació que sona gairebé massa perfecta per ser veritat.
Els gegants no s’uneixen per casualitat
Si mirem el mapa, la jugada és evident. OpenAI i Microsoft dominen el segment corporatiu amb Copilot, Azure i la seva integració amb tot l’ecosistema Office. Google manté la seva força amb Gemini i Vertex AI. Amazon s’ha situat al mig amb Bedrock, obrint la seva infraestructura a qui vulgui connectar-hi models. I ara, IBM busca la seva pròpia identitat de la IA: neutral, segura i corporativament correcta.
Aquesta aliança amb Anthropic és un intent clar de recuperar protagonisme, però també una forma d’assegurar-se una cadira a la taula dels que escriuen les regles del joc. Perquè no ens enganyem: en el fons, tot això va de poder. De qui controla les dades, els models, les APIs i, sobretot, les narratives sobre què vol dir “fer servir IA de manera responsable”.
I, de passada, ens mostra una tendència preocupant: la concentració. Cada cop hi ha menys opcions per a les empreses petites o mitjanes que vulguin innovar amb IA sense dependre d’un gegant tecnològic. Perquè si vols models segurs, necessites diners. I si vols escalar, necessites infraestructura. I si vols tranquil·litat legal, necessites noms com IBM o Anthropic darrere teu.
El discurs de la “IA responsable”
Aquí és on comença la part irònica del guió. Totes les empreses parlen ara d’IA responsable. Ho fan Microsoft, OpenAI, Google, Meta… i ara també IBM i Anthropic. Però cada cop que algú pronuncia aquestes paraules, sembla que s’activi un mecanisme automàtic de màrqueting.
IBM defensa que aquesta aliança “garantirà un ús ètic i segur de la IA en entorns empresarials”. I jo em pregunto: què vol dir exactament això? Perquè si rasquem, “ètic” és ara un eufemisme de “que no ens porti problemes legals” i “segur” sol significar “que no filtri dades dels nostres clients”. El que no s’explica tan sovint és que la seguretat i l’ètica no són propietats d’un model, sinó del seu ús. I aquí és on les empreses continuen fent aigües.
Un model pot ser molt “alineat”, però si després un directiu li demana que redacti acomiadaments massius o informes d’eficiència que deshumanitzen processos, la culpa no serà del model. Serà de la cultura corporativa que el fa servir. I això, curiosament, no hi ha acord ni “framework de seguretat” que ho arregli.
L’altra cara del progrés
És cert que aquesta mena d’acords també tenen un costat positiu. Integrar Claude dins les plataformes d’IBM pot obrir noves possibilitats per a sectors com la salut, les finances o la indústria, on la traçabilitat i la privadesa són crítiques. Pot facilitar que empreses reticents a l’IA, per por o per complexitat, facin el pas. I pot ajudar a normalitzar una forma més madura d’utilitzar aquestes eines.
Però, al mateix temps, correm el risc de convertir la IA en una caixa negra propietària gestionada per uns pocs. I això té conseqüències. Com de “segur” pot ser un model si ningú sap exactament què hi ha dins? Com d’ “ètic” pot ser un sistema que decideix segons dades que no podem revisar ni auditar?
Aquí és on l’escepticisme és sa. Estem vivint un moment on la paraula “IA” s’ha tornat tan poderosa com buida. Tothom en parla, tothom hi inverteix, i tothom promet que farà les coses millor que els altres. Però al final, la diferència no vindrà de qui té el model més gran o més alineat, sinó de qui sap aplicar-lo amb sentit comú i transparència.
Una revolució menys romàntica del que sembla
El que passa amb IBM i Anthropic és, en el fons, un reflex del moment actual: la IA ha deixat de ser un experiment per convertir-se en un producte. Els models deixen pas als contractes, les llicències i les integracions corporatives. I, com sempre passa, quan la innovació es corporativitza, el relat es torna més gris, més polític i menys disruptiu.
Això no és necessàriament dolent, però sí cal un toc d’atenció. Perquè la veritable revolució de la IA no arribarà perquè IBM o Anthropic signin un acord, sinó perquè empreses petites, investigadors independents i equips multidisciplinaris puguin accedir a aquestes tecnologies sense por, sense barreres i sense dependre d’un ecosistema tancat.
L’aliança entre IBM i Anthropic és un moviment intel·ligent, estratègic, de manual. Però no ens deixem enlluernar pel discurs del progrés inevitable. La IA no és bona ni dolenta per naturalesa; és una eina, com ho van ser un dia les fulles de càlcul o Internet. La diferència és que ara hi hem posat tanta mística que sembla que parlem d’un nou ésser viu.
Ben aplicada, la IA pot transformar processos i millorar vides. Mal aplicada, pot amplificar desigualtats i convertir-nos en executors automàtics de decisions que no entenem.
Potser, abans d’aplaudir la nova era d’“IA responsable”, val la pena recordar que la responsabilitat, com sempre, no és de les màquines, sinó nostra.