Sam Altman, el creador del ChatGPT, ha estat a Madrid i s’ha entrevistat amb el president del govern. Ho ha fet per intervenir en una taula rodona celebrada a la IE University.
En el transcurs del seu viatge, han formulat declaracions molt contundents sobre els riscos de IA. En concret, a més d’assegurar que és la tecnologia més poderosa que la humanitat hagi vist mai, ha apuntat que els seus efectes poden ser “catastròfics”. “Amb la IA cal tenir la mateixa cura que amb una arma nuclear”. I en aquest sentit, demana la creació d’una entitat internacional semblant a l’Organisme Internacional de l’Energia Atòmica de l’ONU per controlar aquesta tecnologia.
Cal recordar que Altman ha estat criticat per nombrosos científics i experts per haver posat la IA en mans de l’usuari corrent, malgrat que la tecnologia és imperfecta i presenta biaixos que poden desinformar. Per tant, qui denuncia és a la vegada denunciat per poc responsable.
Però, quina és la dimensió real del problema? Les dues IA més esteses en aquest moment, Gemini a més del ChatGPT, contesten a la qüestió sobre l’amenaça que signifiquen per a la societat.
La seva resposta es pot resumir en aquests punts:
- Pèrdua de control i presa de decisions autònomes. Alguns experts creuen que la IA, que s’educa a si mateixa, pot arribar a ser tan sofisticada que superi el control humà i prengui decisions pel seu compte que podrien tenir conseqüències terribles en tots els àmbits en els quals ella opera, que ja són pràcticament tots els que tenen significació cultural, militar, política o econòmica.
- Atur massiu i creixement de la desigualtat social. La IA pot generar un atur massiu encara que en aquesta qüestió no es posen d’acord, perquè al mateix temps es considera que donarà lloc a nous llocs de treball. En tot cas el que sembla clar és que entre el procés de destrucció i creació no hi haurà sincronia i que, per tant, el problema hi serà, el que cal veure és si la seva magnitud és només crítica o bé catastròfica. Es considera que seran les feines repetitives i rutinàries les més afectades, però hi ha moltes altres que no responen a aquestes característiques i que també rebran l’impacte. En l’àmbit del dret, en tot el que faci referència a la documentació, tractament de dades, elaboració de síntesi, tasques d’anàlisi financera. Sempre acabarà havent-hi un receptor humà, però motles de les tasques intermèdies que ara duen a terme titulats universitaris, desapareixeran. Aquest fet i el guany que provoqui als nivells professionals i empresarials més alts augmentarà la desigualtat, que només és un fenomen que es va accentuant al llarg del present segle.
- Manipulació i control social. És evident que la IA pot utilitzar-se per manipular l’opinió pública, no només des del punt de vista del text sinó de la imatge, de la imitació de la veu, de crear personatges que reprodueixen al real per fer-li dir el que vulguin. Fa poc l’arquebisbe d’Urgell i copríncep d’Andorra, va veure com una gravació seva recomanant unes determinades inversions apareixia a la xarxa. Tot era un muntatge fet amb l’ajuda de la IA. També governs i empreses poden utilitzar-ho per influir en les eleccions. De fet, ja ho estan fent, i de la mateixa manera poden promoure agendes específiques. Mai hi ha hagut tantes possibilitats de manipular l’opinió pública.
- Invasió de la privacitat i vigilància massiva. Els mateixos usuaris de la IA ho faciliten interactuant amb ella, però és que a més totes les grans empreses tecnològiques, començant per Amazon, disposen d’una informació brutal sobre els usuaris, que sumat l’ús del potencial de la IA pot representar la desaparició de la privacitat. També facilita les pràctiques de vigilància massiva i, per tant, la degradació de les llibertats civils.
- Armes autònomes. L’ús de la IA a la guerra, que ja s’està aplicant amb sistemes d’armament que poden operar sense intervenció humana directa, pot donar lloc a situacions de descontrol que es multiplicarien quan els terroristes accedissin a aquestes tecnologies.
- Discriminació. Són nombrosos els casos en els quals els algoritmes que aplica la IA accentuen els biaixos inicials de les dades que han estat lliurades, provocant un augment de la discriminació cap a grups socials determinats.
- Fallides i errors. La IA comet nombrosos errors o fins i tot enganya o s’autoenganya inventant-se respostes a allò que no coneix. Per exemple, per al ChatGPT Jordi Pujol, el que fou durant molts anys president de la Generalitat de Catalunya, està mort i a més ha passat per la presó. Aquests errors si es produeixen a l’àmbit de l’atenció mèdica, de la infraestructura de transports o de la gestió de l’energia poden tenir efectes catastròfics.
En resum, la IA presenta quatre grans tipus de risc que han de ser abordats i controlats: el risc existencial, el relacionat amb les transformacions socials i econòmiques, la seva incidència en els conflictes militars i la pèrdua d’autonomia humana.
L’esperança és que els governs i institucions intencionals siguin capaços de trobar-hi remei, si bé, si observem com han anat molts aspectes que puguin servir com a precedent, la confiança amb què aquesta esperança es faci realitat és modesta. Només cal veure com el telèfon mòbil s’ha convertit en una dependència. O l’extensió generalitzada de la droga. També la dificultat de posar portes al mercat, quan hi ha una expectativa de benefici algú entra en zona de risc per aconseguir-la realitzar. També la pugna entre potències i, en últim terme, la gran qüestió: on és l’imperatiu moral que permeti canalitzar per a bé la IA. En l’armament nuclear existeix per negativa. És el risc de la destrucció mútua, però en la IA qui se salti la norma per un avantatge determinat pot pensar que el dany només serà per als altres. Darrere del problema, com de tants altres que pateix la nostra societat, el que batega és una crisi moral.