L’influent historiador, pensador i divulgador israelià Yuval Noah Harari ha escrit en un article recent sobre el risc que suposa un sector públic en què la feina que avui fan milions de petits i mitjans funcionaris arreu del món que atenen el públic i realitzen tràmits sigui substituïda per motors d’Intel·ligència Artificial o IA.
Parlem d’un risc no per a tots aquells treballadors públics que puguin perdre la seva feina, sinó pels administrats, això és, pel conjunt de la ciutadania que viu dins del marc regulat pels poders de l’estat i les diferents administracions que en deriven.
Harari afirma que d’aquí a uns anys, “les IAs del sistema d’ensenyament decidiran si t’accepten o no a la universitat. […] Les IAs del sistema judicial establiran si t’envien a la presó. Les IAs militars, si bombardegen o no casa teva”.
Aquest fenomen s’estendrà a (o més probablement, serà precedit per) l’automatització de processos administratius equivalents a institucions privades, com per exemple la concessió de préstecs en el cas dels bancs o en la selecció de personal en els departaments de recursos humans de les empreses.
En definitiva, la nostra vida estarà regulada per decisions que ja no dependran directament de decisions humanes.
Harari s’afanya a apuntar que aquest fenomen “no té per què ser necessàriament dolent“.
L’escriptor hebreu assenyala que, d’una banda, “poden fer que el sistema sigui molt més eficient i equitatiu”, donant lloc a uns millors serveis públics, des de la sanitat fins a la seguretat.
El problema radica en quina és la finalitat per a la qual es prepararan els algoritmes sobre els quals aquestes IAs operaran, així com els mitjans que traduiran aquesta finalitat en els càlculs matemàtics.
Harari ofereix l’exemple inquietant de les empreses responsables de xarxes socials com Facebook, Instagram i TikTok, que establiren com a finalitat maximitzar el que en anglès es coneix com “user engagement” i que traduït al català seria la implicació de l’usuari.
Una finalitat ja de per si molt discutible perquè implica estirar tot el possible el temps que els usuaris passen navegant a les xarxes.
Però, com els mitjans per aconseguir incrementar aquesta implicació humana empitjorà i molt les coses, perquè els algoritmes “descobriren” que el que més retenia els usuraris davant la pantalla no era sinó l’explotació dels seus instints negatius més primaris: “la cobdícia, l’odi i la por”.
Els algoritmes començaren doncs deliberadament a estendre missatges de cobdícia, odi i por, segons Harari.
Fins al moment en què el problema es feu tan evident que els humans decidiren intervenir-hi per reorientar els algoritmes. Però ho feren -i això ja no ho apunta directament l’escriptor israelià- des de posicions ideològiques determinades, com si el problema fossin només la cobdícia, l’odi i la por provinents d’una certa part de l’espectre polític i ideològic.
Imaginem-nos ara uns algoritmes similars als dels gegants d’internet que es dediquin a assignar beques universitàries, recaptar impostos i decidir quins pacients entraran a l’UCI i quins no. La temptació del poder de perseguir o corregir determinats resultats generats per la IA per satisfer els seus propis criteris suposa un risc major per al conjunt de la societat.