El influyente historiador, pensador y divulgador israelí Yuval Noah Harari ha escrito en un artículo reciente sobre el riesgo que supone un sector público en el que el trabajo que hoy realizan millones de pequeños y medios funcionarios en todo el mundo que atienden al público y realizan trámites sea sustituido por motores de Inteligencia Artificial o IA.
Hablamos de un riesgo no para todos aquellos trabajadores públicos que puedan perder su trabajo, sino para los administrados, esto es, por el conjunto de la ciudadanía que vive dentro del marco regulado por los poderes del estado y las diferentes administraciones que se derivan.
Harari afirma que en unos años, “las IAs del sistema de enseñanza decidirán si te aceptan o no en la universidad. […] Las IAs del sistema judicial establecerán si te envían a la cárcel. Las IAs militares, si bombardean o no tu casa”.
Este fenómeno se extenderá a (o más probablemente, será precedido por) la automatización de procesos administrativos equivalentes a instituciones privadas, como por ejemplo la concesión de préstamos en el caso de los bancos o la selección de personal en los departamentos de recursos humanos empresas.
En definitiva, nuestra vida estará regulada por decisiones que ya no van a depender directamente de decisiones humanas.
Harari se apresura a apuntar que este fenómeno «no tiene por qué ser necesariamente malo«.
El escritor hebreo señala que, por un lado, «pueden hacer que el sistema sea mucho más eficiente y equitativo», dando lugar a mejores servicios públicos, desde la sanidad hasta la seguridad.
El problema radica en cuál es la finalidad para la que se prepararán los algoritmos sobre los que estas IAs operarán, así como los medios que traducirán esta finalidad en los cálculos matemáticos.
Harari ofrece el ejemplo inquietante de las empresas responsables de redes sociales como Facebook, Instagram y TikTok, que establecieron como finalidad maximizar lo que en inglés se conoce como “user engagement” y que traducido al catalán sería la implicación del usuario.
Una finalidad ya de por sí muy discutible porque implica estirar todo lo posible el tiempo que los usuarios pasan navegando en las redes.
Pero, como los medios para conseguir incrementar esta implicación humana empeoró, y mucho, las cosas, porque los algoritmos “descubrieran” que lo que más retenía a los usurarios ante la pantalla no era sino la explotación de sus instintos negativos más primarios: “la codicia, el odio y el miedo” .
Los algoritmos empezaron pues deliberadamente a extender mensajes de codicia, odio y miedo, según Harari.
Hasta el momento en que el problema se hizo tan evidente que los humanos decidieron intervenir para reorientar los algoritmos. Pero lo hicieron -y eso ya no lo apunta directamente el escritor israelí- desde determinadas posiciones ideológicas, como si el problema fueran sólo la codicia, el odio y el miedo provenientes de cierta parte del espectro político e ideológico.
Imaginémonos ahora unos algoritmos similares a los de los gigantes de internet que se dediquen a asignar becas universitarias, recaudar impuestos y decidir qué pacientes entrarán en la UCI y cuáles no. La tentación del poder de perseguir o corregir determinados resultados generados por la IA para satisfacer sus propios criterios supone un mayor riesgo para el conjunto de la sociedad.
1 comentario. Dejar nuevo
[…] Converses a Catalunya Descubrimiento de nueva especie de ave en la selva […]