Fa uns dies, el The Guardian publicava una notícia que ha encès totes les alarmes: un adolescent s’hauria suïcidat després d’haver interactuat intensament amb ChatGPT. La història és tan dura com complexa, i posa sobre la taula una qüestió que molts preferien obviar: quin paper juga la IA en la nostra salut mental?
Segons explica l’article, l’adolescent havia mantingut llargues converses amb ChatGPT. No es tracta de l’ús esporàdic per resoldre un dubte o escriure un text, sinó d’una dependència creixent, gairebé com si el model fos un confident. El problema és que ChatGPT no és un terapeuta, ni entén realment la fragilitat emocional de qui té davant. És un model predictiu, que genera respostes basades en patrons estadístics. Quan la conversa és banal, això pot ser útil. Però quan hi ha dolor profund al darrere, les conseqüències poden ser devastadores.
Aquest cas ha portat experts en seguretat de la IA a demanar una resposta global. Alguns fins i tot parlen de la necessitat d’un tractat internacional de regulació, de la mateixa manera que existeixen tractats de no proliferació nuclear. Pot sonar exagerat, però la comparació no és gratuïta: parlem d’una tecnologia amb un impacte massiu i potencialment perillós si s’utilitza sense límits.
Per què passa això?
Els motius són múltiples i s’entrellacen. D’una banda, la manca d’educació digital fa que molts usuaris no entenguin què és realment un model com ChatGPT. Molts el veuen com una mena de amic digital, capaç d’entendre’ls i fins i tot de consolar-los. Però no és així.
D’altra banda, hi ha la qüestió de l’accessibilitat: la IA està disponible les 24 hores del dia, sense judicis ni esperes. Per a un adolescent solitari o angoixat, és més fàcil escriure a ChatGPT que buscar ajuda en un entorn humà. Aquesta accessibilitat pot ser un alleujament temporal, però també pot reforçar l’aïllament i la dependència.
Finalment, cal reconèixer una certa manca de responsabilitat per part de les empreses. Tot i que OpenAI i altres competidors han introduït filtres i mecanismes de seguretat, no hi ha cap garantia que funcionin sempre. I quan parlem de salut mental, “gairebé sempre” no és suficient.
Què podem fer?
No hi ha solucions fàcils, però sí algunes línies clares:
-
Regulació internacional: necessitem marcs legals que obliguin les empreses a implementar mesures de seguretat robustes.
-
Educació digital: cal ensenyar, sobretot a joves, què és i què no és la IA. No és un amic, no és un psicòleg, i no té consciència.
-
Alternatives segures: si la gent busca suport emocional en eines digitals, potser hauríem de potenciar el desenvolupament de chatbots dissenyats específicament per a la salut mental, amb equips humans de suport al darrere.
Com a apassionat de la tecnologia, em costa escriure sobre aquests temes. Sempre he defensat que la IA pot ser una eina extraordinària si s’utilitza bé. Però notícies com aquesta ens recorden que també pot fer mal. I molt. Per a mi, la pregunta no és si hem de frenar la IA, sinó com l’hem d’integrar en la nostra vida amb responsabilitat. Si no posem límits i si no acompanyem el seu ús amb educació i regulació, correm el risc que històries com aquesta es repeteixin.
La tecnologia avança més ràpid que mai. La nostra maduresa com a societat per gestionar-la, no tant. I potser aquest desequilibri és el veritable perill.