«Nuestra creatividad está íntimamente ligada al libre albedrío, algo que parece imposible automatizar. Programar el libre albedrío supondría contradecir el significado mismo del término. Aunque, pensándolo bien, podríamos terminar preguntándonos si el libre albedrío es una ilusión que sencillamente enmascara la complejidad de nuestros procesos algorítmicos internos».
Marcus DU SAUTOY, Programados para crear, 366
El interés por el impacto de la automatización (o, si prefieren la denominación más optimista, «inteligencia artificial», IA) en el mundo de las relaciones laborales es creciente. Y, muy probablemente, irá en aumento a medida que las «prestaciones» de las máquinas se sofistiquen.
Y, precisamente, sobre esta cuestión tuve la oportunidad de hablar en el pasado XXI Congreso Nacional ASNALA, que tuvo lugar en Granada en el mes de octubre 2021, con el siguiente título: «La irrupción de los algoritmos en el Derecho del Trabajo«.
Quiero aprovechar la ocasión para agradecer a la Junta Directiva de ASNALA y, en particular, a su Presidenta Ana Gómez la oportunidad de participar en este importante y significado evento, la organización impecable del mismo y la cálida acogida.
Pueden acceder al vídeo de mi ponencia en la parte final de esta entrada.
Si quieren hacer un «break» (o «evadirse») del derecho de la emergencia o de la reforma laboral o de cualquier otra controversia que nos tiene ocupados últimamente (o bien, si están hartos de las propuestas de películas o nuevas series sugeridas por el algoritmo de su plataforma – el mío ya me encasillado y se ha «atascado»), les recomiendo su visualización.
En todo caso, permítanme que comparta con ustedes las siguientes reflexiones (algunas recogidas en mi ponencia y otras muchas, por falta de tiempo, no):
Obsolescencia del homo sapiens e ímpetu tecnológico
Como les expuse en «Automatización y obsolescencia humana«, al margen de los procesos de sustitución de la fuerza de trabajo, cada vez que el ser humano se ha dotado de una herramienta (y las máquinas automatizadas lo son), se ha producido una transformación no sólo del trabajo sino también de nosotros mismos; y, en muchos casos, eso se ha traducido en una pérdida de nuestra pericia.
En efecto, este declive (que se acrecienta a medida que la labor de las máquinas se sofistica) no sólo es físico (seguramente, ya no necesitamos ser tan fuertes para sobrevivir como en el pasado), sino que, incluso, es mental (como cuando empleamos calculadoras y nuestra capacidad de cálculo se «oxida» severamente).
Paradójicamente, y probablemente debido a la percepción del trabajo como una especie de «condena bíblica», el ser humano ha abrazado ciegamente toda innovación técnica. Y, lo ha hecho sin reparar en los efectos disruptivos de estos avances, a pesar de que la profundidad de algunos de ellos ha sido de tal magnitud que acongoja (como cuando, aunando esfuerzos sin precedentes, se creó la bomba atómica y ahora vivimos – olvidadizamente – en una especie de «tiempo de descuento» termonuclear… – ANDERS).
Y es posible que la aceptación sin resistencia de estas innovaciones se esté agudizando en la actualidad. Quizás, cegados por el sesgo de la automatización, estamos subyugados a una especie de «determinismo tecnológico» que nos lleva a aceptar cualquier avance, simplemente, porque es técnicamente posible.
Este «ímpetu tecnológico» dificulta, siquiera, sugerir un cambio de orientación, olvidando que «todavía» toda automatización (o innovación) no deja de ser una expresión de la voluntad humana.
La capacidad real de la IA (a fecha de hoy), datificación y «N=todo«
Conviene tener muy presente qué es lo que la automatización (o IA) puede hacer y qué no. Y, en este sentido, siguiendo a PEARL/MACKENZIE (376), debe advertirse que
«desde luego por ahora no hemos hecho máquinas que piensen en ninguna interpretación suficientemente humana de la palabra. Hasta ahora solo podemos simular el pensamiento humano en dominios de definición muy reducida, que únicamente cuentan con las estructuras causales más primitivas. En este ámbito podemos crear máquinas cuyo rendimiento supera incluso al humano, porque hablamos de dominios que recompensan lo único que los ordenadores saben hacer bien: computar».
A pesar de esta limitación (¿temporal?) de las máquinas, sí estamos experimentando un cambio de paradigma de una enorme trascendencia.
Como les expuse en «Big data, algoritmos y actas de infracción automatizadas«, el tránsito de una lógica predictiva basada en la modelación y la causalidad a otra fundamentada, meramente, en las correlaciones tiene unas implicaciones que, probablemente, todavía no somos capaces de medir.
No obstante, ya hay indicios que sugieren que la resultante de este proceso podría dibujarnos un porvenir con bastantes sombras (por ejemplo, en términos de precisión de los pronósticos o de imputación de responsabilidad). En efecto, al dejar que sean los datos quienes «nos hablen» (en una especie de «suero de la verdad digital» – STEPHENS-DAVIDOWITZ), se está relegando a la causalidad a un segundo plano (sin perjuicio de importantes tendencias desde el punto de vista de la filosofía y de la estadística que apuestan precisamente por lo contrario – léase a PEARL/MACKENZIE).
La acelerada digitalización y la minería de la realidad están permitiendo que la datificación esté alcanzando otro orden de magnitud. De hecho, ya se habla de la «economía de datos» (MAYER-SCHÖNBERGER/RAMGE) y estos se han convertido en el nuevo «polvo de oro» para fundir lingotes (MAYER-SCHÖNBERGER/CUKIER).
En este nuevo contexto (MAYER-SCHÖNBERGER/CUKIER), partiendo de la base de que «más datos» es mejor que «mejores datos», se aspira a datificar todo lo que esté «bajo el sol» (esto es, «N=todo«). Y, desde este punto de vista, el denominado «solucionismo tecnológico» (MOROZOV) – la hiperconexión de todo – no dejaría de ser un «pretexto» para expandir la extracción de datos a nuevos espacios vírgenes.
Este big data en expansión es el combustible que alimenta el «entrenamientos de datos» que da pie a la iteración que necesitan los algoritmos para poder identificar las correlaciones (en el mejor de los casos, fuertes) que lubrican la nueva analítica predictiva (gracias al papel de las redes bayesianas).
Conductismo severo digital
Es obvio que, tras este aparente «imperativo tecnológico», se esconde una nueva y audaz versión del capitalismo con una capacidad invasiva sobre el individuo inaudita (las lecturas ZUBOFF o SADIN, entre otros autores, así lo sugieren). Especialmente porque estas tecnologías ya no sólo se configuran con un propósito informativo, sino orientativo de la conducta humana y tiende hacia un asistencialismo automatizado.
El «conductismo» severo que subyace en las «sugerencias» que «propone» la «estadística computacional» aspira a expandirse sin límite con un propósito eminentemente comercial, pero ya no sólo (pues, los poderes públicos también se están dotando de estas poderosas herramientas – como, por ejemplo, en el ámbito sancionador laboral).
En una versión extrema de las propuestas de los psicólogos conductistas (SKINNER), la idea es articular incentivos que activen la «motivación extrínseca» y, actuando como «ingenieros sociales» (PENTLAND y sus «sociómetro» y «prótesis sociales»), promover el comportamiento humano «oportuno».
Y al respecto cabe hacer cuatro valoraciones:
– Primera: como apunta GRANT (60 a 70), es importante advertir que cualquier incentivo es una manifestación de poder y, por este motivo, debe ser evaluado como tal, advirtiendo de que, lejos de ser vistos como un mero intercambio voluntario (y, por ende, inherentemente ético), puede comprometer la libertad de la persona a la que va dirigido. De hecho, antes de su profunda penetración en nuestra cotidianeidad, la implantación de incentivos a principios del Siglo XX en Estados Unidos suscitó un debate en estos términos, pues, eran percibidos como instrumentos de «ingeniería social» (especialmente, a partir de F. TAYLOR y E. MAYO; y también cuando se empezaron a implantar en el marco de las políticas salariales). En definitiva, eran valorados como «cosas que la gente con poder ofrecía a la gente sin poder».
En paralelo, los incentivos minan la motivación intrínseca que debería impulsar muchos de nuestros actos (véase al respecto, SANDEL). O, como apunta (BECK, 253), la «mayoría de estos sistemas de gratificación subestiman [el] principio de funcionamiento de la motivación humana y nos tratan como a máquinas que pueden acelerarse con solo aumentar la propulsión. Sin embargo, no por repostar el doble el motor andará más rápido».
– Segunda: la premisa de partida de este «hiperpaternalismo» teledirigido por algoritmos es que el ser humano es incapaz de saber qué es lo que más le conviene y, por este motivo, necesita «asistencia» externa. Y el big data y las correlaciones describen la nueva (en términos de ZUBOFF) «utopía de certeza».
Los principales fundamentos de esta aproximación son los (probablemente mal entendidos) errores de juicio provocados por los sesgos y heurísticas analizados y sistematizados por la psicología de la conducta desde hace años (y de los que les he hablado en numerosas ocasiones).
De forma progresiva la «intuición» humana va quedando relegada a un plano marginal, frente a la «certeza» del orden algorítmico (SADIN). Porque lo cierto es que, de algún modo, están contribuyendo a desencriptar ciertos patrones de nuestro comportamiento. En efecto, «los algoritmos de aprendizaje profundo reconocen rasgos de la programación humana, de nuestro código fuente, que todavía no hemos sido capaces de articular con palabras (….). Los programas informáticos han detectado rasgos que guían nuestras preferencias, y que podemos intuir pero no articular» (SAUTOY, 110 y 111).
En definitiva, la comprensión del cerebro humano se ha erigido en el último bastión a conquistar. Se aspira a conducir el comportamiento y controlar los deseos mediante «estimulaciones» externas sofisticadas. De ahí que se haya expandido el neuromarketing, la neuroeducación, la neuropolítica, etc. Y, ante estos avances, quizás, deberíamos empezar a hablar de derechos fundamentales de «quinta generación» (y que – con una denominación que no me agrada – se engloban en lo que se conoce genéricamente como «neuroderecho» – del que les hablé en una ocasión).
– Tercera: en «Autocontrol, tentaciones y economía de la manipulación« les hablé de la capacidad del mercado (AKERLOFF/SHILLER) de crear productos que, inspirados en el hedonismo puro de los monos capuchinos, apelan a «nuestros monos en los hombros» con el único propósito de ofrecer productos/servicios que, lejos de beneficiarnos, nos perjudican. Y me temo que en el capitalismo de la vigilancia (o la economía de datos) no está exento de este propósito. Y,
– Cuarta: “No está nada claro que todos los problemas a los que debe enfrentarse un ente inteligente sean computables (…) y, por tanto, que una máquina inteligente pueda resolverlos operando sólo con algoritmos“ (DÍEGUEZ). O, al menos (si se quiere alcanzar una IA «fuerte»), difícilmente será capaz de hacerlo hasta que no «entienda» la causalidad de los fenómenos y los contrafactuales (PEARL/MACKENZIE).
Factores inquietantes
Si han llegado hasta aquí, es posible que tengan una impresión (particularmente) «distópica» de lo expuesto.
Tratando de alejarme de un enfoque de tintes «apocalípticos» (pues, ya saben que procuro ser «analíticamente pesimista» y «prospectivamente optimista»), lo cierto es que, en la medida que la analítica predictiva «predetermine» lo que es «mejor» para nosotros mismos, es claro que, de algún modo, ante esta neutralización de la incertidumbre, el «derecho al tiempo futuro» (en términos de ZUBOFF), pueda verse (seriamente) comprometido (al menos, en no pocas dimensiones de nuestra existencia).
El escenario podría no ser tan preocupante si no fuera por dos aspectos particularmente inquietantes:
– En primer lugar, el carácter oscuro de las lógicas internas de algunos algoritmos (como los de aprendizaje profundo). En estas «cajas negras» (O’NEIL), el rastreo y monitorización de las decisiones adoptadas es, en el mejor de los casos, «dificultoso» (¡incluso para sus propios creadores!). Y, llegados a este punto, creo que es importante detenerse en este aspecto.
Siguiendo con PEARL/MACKENZIE (367), en el aprendizaje profundo, se utilizan (el resaltado es mío)
«redes neuronales convolucionales. Estas redes no se ajustan a las reglas de probabilidad; no lidian con la incertidumbre de una forma rigurosa y transparente. Menos aún incorporan una representación explícita del entorno en el que operan. En lugar de esto, la arquitectura de la red tiene libertad para evolucionar por sí misma. Cuando se acaba de instruir una nueva red, quien la programa no tiene ni idea de qué computaciones está realizando o por qué funcionan. Si la red falla, tampoco tenemos ni idea de por qué«.
O bien, abundando en esta idea, siguiendo con SADIN (76),
«hay un nuevo tipo de ‘caja negra’ en el horizonte, y no es la generada por las bases de datos o los algoritmos que impiden a los usuarios, de facto, por su opacidad estructural, apresar su constitución, sino otra caja negra producto del encadenamiento de caracteres cuya evolución combinatoria se nos volvería cada vez más oscura: ‘una vez que la red de neuronas aprendió a reconocer algo, un desarrollador no se puede dar cuenta de cuánto éxito ha tenido. Es como en el cerebro: usted no puede cortar una cabeza y mirar cómo funciona».
Como apunta DU SAUTOY (177 a 179), la dificultad de trazabilidad de los algoritmos que «aprenden» y «cambian» constantemente, hace que sólo seamos capaces de conocer cómo funcionan de forma indirecta. Por ejemplo, el Proyecto DeepDream trata de descifrar el «razonamiento» de un algoritmo de reconocimiento facial a través de las imágenes que genera. Lo que no deja de ser paradójico, pues, del mismo modo que el ser humano ha utilizado el arte para exteriorizar los aspectos más íntimos y profundos de su ser, parece que ahora estamos haciendo lo mismo con estas máquinas.
De hecho, si quieren conocer el «poder» de estas máquinas, les sugiero que vean este documental sobre el agoritmo AlphaGo, creado por una empresa de Google, llamada DeepMind.
En todo caso, como apunta LATORRE (211),
“El problema de la trazabilidad podrá escapar de nuestras manos si las propias inteligencias artificiales pasan a corregirse a sí mismas.
La velocidad de cambio en un código fuente que se mejora a sí mismo puede hacerse vertiginosa, de forma que todo el proceso escape a las capacidades humanas”.
– En segundo lugar, (KAHNEMAN/SIBONY/SUNSTEIN, 369 y 370) siempre que haya un sesgo en los datos de entrenamiento es muy posible que se diseñe, de forma deliberada o no, un algoritmo que codifique la discriminación (es lo que se conoce como «GIGO» – garbage in, garbage out).
Por otra parte, más allá de dar a conocer los algoritmos (como, por ejemplo, exige el nuevo art. 64.4.d ET), es exigible un mecanismo que permita su «traducción» humana. Sin esta transparencia y comprensibilidad, especialmente exigible en los algoritmos de aprendizaje profundo (DU SAUTOY – 120 – habla de «metalenguaje»), difícilmente, seremos capaces de «entender» sus decisiones (y acabar siendo víctimas de las mismas – lean a O’NEIL o FRY, entre otros).
En el fondo, la predicción sobre la base de big data persigue una quimera, pues, es ilusorio pretender neutralizar la incertidumbre (y aspirar a anticipar con «certeza» el futuro). El «problema de la inducción»/»problema del pavo» (RUSSELL/TALEB) no se disipan con más datos.
Amenazas reales: algoritmos «sabio-idiotas»
Los algoritmos (como les expuse en «Automatización y obsolescencia humana«) son «sabio-idiotas» (CARR).
Especialmente porque es difícil que podamos codificar todos los datos y/o bien que sepan interpretarlos adecuadamente (por ejemplo, tienen muchos problemas para comprender la ambigüedad y el contexto del lenguaje natural), sin olvidar que (SILVER) el aumento de datos incrementa el ruido, las hipótesis a evaluar y el número de correlaciones espurias. Como expone (DU SAUTOY, 120 y 121), el teorema No free lunch (que vendría a ser: «nadie da duros a 4 pesetas»),
«prueba que no hay un algoritmo de aprendizaje universal que pueda predecir los resultados correctamente en cualquier circunstancia. El teorema prueba que, aunque se muestre al algoritmo de aprendizaje la mitad de los datos, siempre es posible reorganizar el resto de los datos, los que están ocultos, de modo que el algoritmo sea capaz de producir una buena predicción para los datos conocidos, pero que no encaje con el resto de los datos. Los datos nunca serán suficientes por sí mismos. Tienen que conjugarse con conocimiento. Aquí es donde la programación humana parece mejor adaptada para tener en cuenta el contexto y una visión de conjunto, al menos por ahora».
De ahí la importancia de la comprensión de la causalidad y la contrafactualidad (que, como se ha apuntado, proclaman PEARL/MACKENZIE), especialmente si aspiramos a que estas máquinas tomen decisiones trascendentes (más allá de sugerirnos qué escuchar o ver a continuación).
Desde este punto de vista (y teniendo en cuenta el concepto GIGO), las voces de alarma frente a las injusticias y equidad de las decisiones basadas en estos instrumentos están plenamente justificadas (entre otros, FRY u O’NEIL). Y las medidas legales dirigidas a dar más transparencia a estos instrumentos (empleados por el sector privado y el público) son absolutamente oportunas, necesarias y no deberían postergarse.
Además, la búsqueda de la perfección (o, como se ha apuntado, la ausencia de toda incertidumbre) a través de la automatización acarrea diversos efectos colaterales (algunos de ellos, ya apuntados en «Automatización y obsolescencia humana«):
– En primer lugar, impide la serendipidad.
– En segundo lugar, bloquea la creatividad. De hecho (siguiendo con BECK, 295 y 299)
«un mundo sin fallos no debería parecernos muy progresista, sino todo lo contrario. Sería un mundo estático, estable y enemigo del progreso, porque sin el riesgo de cometer un error tampoco existe el valor para descubrir algo nuevo (…). El nuevo conocimiento no se encuentra en los libros, sino que debe crearse antes. Pero esto solo es posible si se asume el riesgo de cometer un fallo».
En efecto, asumiendo que los «procesos de big data codifican el pasado», se hace difícil pensar que puedan «inventar el futuro», especialmente porque carecen de «imaginación moral» (O’NEIL); y,
– En tercer lugar, todo este proceso (CARR, 256) produce un efecto paradójico, pues, cuánta más dependencia tenemos de nuestros esclavos tecnológicos más esclavos somos de ellos.
Todo lo expuesto podría llevarnos a la conclusión de que debemos alejarnos (a toda prisa) de la automatización. El epígrafe que sigue trata de matizar esta (posible) impresión…
A pesar de lo expuesto, ¿podemos confiar en los algoritmos?
Seguramente, la pregunta del epígrafe es redundante, pues, ya lo estamos haciendo desde hace mucho tiempo y en numerosos y variados campos (y con elevada solvencia – o muy superior a la humana). De hecho, el ser humano ha podido sobrevivir gracias a la detección de patrones (y con la ayuda del lóbulo frontal, hemos sido capaces de imaginar y proyectar el futuro – GILBERT, 34 y 35). Los algoritmos son una poderosa herramienta para complementar nuestras limitaciones.
La cuestión clave es si, en contextos de incertidumbre, pueden adoptar mejores decisiones que los humanos. Y, ciertamente, con las debidas cautelas y exigiendo la transparencia oportuna, en algunos ámbitos importantes podemos pensar que sí.
De hecho (KAHNEMAN/SIBONY/SUNSTEIN), tengan en cuenta que el juicio humano no sólo puede ser mejorado por decisiones adoptadas por algoritmos, sino que muchos instrumentos de predicción «mecánica» basados en reglas estadísticas sencillas (y, obviamente, también por otras más complejas), son capaces de mejorar nuestro «rendimiento» a la hora de adoptar decisiones (sin ir más lejos, llevamos dos años haciendo predicciones sobre la evolución de la pandemia y tomando decisiones jurídicas sobre la base de estimaciones fundamentadas en el cálculo de esta naturaleza – y, muy probablemente, asistidos por algoritmos).
Desde este punto de vista, permítanme que comparta las siguientes reflexiones expuestas por KAHNEMAN/SIBONY/SUNSTEIN, en favor de una predicción «mecánica» (basada en reglas sencillas, estadísticas o no, o en sofisticados modelos de IA) con carácter preferente a un juicio humano:
– Primera: «la resistencia a los algoritmos, o ‘aversión a los algoritmos’, no siempre se manifiesta en un rechazo generalizado a la adopción de nuevas herramientas de apoyo a la toma de decisiones. Más a menudo, la gente está dispuesta a dar una oportunidad a un algoritmo, pero deja de confiar en él en cuanto ve que comete errores» (153).
– Segunda: «a pesar de todas las pruebas a favor de los métodos de predicción mecánicos y algorítmicos, y a pesar del cálculo racional que muestra con claridad el valor de las mejoras incrementales en la exactitud de la predicción, muchos responsables de la toma de decisiones rechazarán los métodos de la toma de decisiones que les privan de la capacidad de ejercer su intuición» (164)
– Tercera: «los modelos son sistemáticamente mejores que las personas, pero no mucho más. No hay en lo fundamental pruebas de situaciones en las que, con idéntica información, las personas lo hagan muy mal y los modelos lo hagan muy bien» (160)
– Cuarta: «los algoritmos no son, no serán pronto, un sustituto universal del juicio humano» (247)
– Quinta: «un algoritmo puede ser más transparente que los seres humanos» y “Aunque es poco probable que un algoritmo de predicción sea perfecto en un mundo incierto, puede ser mucho menos imperfecto que el ruidoso y, a menudo, sesgado juicio humano”; y «si los algoritmos cometen menos errores que los expertos humanos y, sin embargo, tenemos una preferencia intuitiva por las personas, nuestras preferencias intuitivas deberían ser examinadas cuidadosamente“ (370 y 371)
Una última conclusión
Como apunta DU SAUTOY (366),
«hay mucho bombo sobre la inteligencia artificial. Existen demasiadas iniciativas que se anuncian con la etiqueta de la inteligencia artificial, pero que son poco más que estadística o ciencia de datos».
Sin dejar de cuestionar el ímpetu tecnológico determinista (y persistir en su falsedad), a la luz de todo lo expuesto, deberíamos proponernos (con las debidas cautelas y transparencia) que los avances en la técnica no se dirijan exclusivamente a suplir a los seres humanos, sino a complementar y potenciar nuestras habilidades.
Esto es, aunque pueda parecer un brindis al sol, una “automatización centrada en los humanos” (y no en la actualmente predominante e inercial “automatización centrada en la tecnología”).
Créanme, que esto acabe siendo así, todavía depende única y exclusivamente del homo sapiens… (comprometido)
Y, como les he avanzado, el vídeo de la ponencia (y, para los suscriptores, en este enlace). Espero que sea de su interés,
Bibliografía citada
- George AKERLOF y Robert J. SHILLER (2015), La economía de la manipulación, Deusto.
- Gunter ANDERS (2011), La obsolescencia del hombre, Vol. II, Pre-textos.
- Henning BECK (2019), Errar es útil, Ariel.
- Nicholas CARR (2014), Atrapados, Taurus.
- Antonio DIÉGUEZ (2019), Transhumanismo, Herder.
- Marcus DU SAUTOY (2020), Programados para crear, Acantilado.
- Hannah FRY (2019), Hola Mundo. Blackie Books.
- Daniel GILBERT (2006), Tropezar con la felicidad, Destino.
- Ruth W. GRANT (2021), Los hilos que nos mueven, Avarigani.
- Daniel KAHNEMAN, Olivier SIBONY y Cass R. SUNSTEIN (2021), Ruido, Debate.
- José Ignacio LATORRE (2019), Ética para máquinas, Ariel.
- Viktor MAYER-SCHÖNBERGER y Kenneth CUKIER (2013), Big Data, Turner Noema.
- Viktor MAYER-SCHÖNBERGER y Thomas RAMGE (2019), La reinvención de la economía, Turner Noema.
- Evgeny MOROZOV (2015), La locura del solucionismo tecnológico, Katz.
- Cathy O’NEIL (2017), Armas de destrucción matemática, Capitán Swing.
- Alex PENTLAND (2010), Señales honestas, Milrazones.
- Judea PEARL y Dana MACKENZIE (2020), El libro del porqué, Pasado y Presente.
- Eric SADIN (2020), La inteligencia artificial o el desafío del siglo, Caja Negra.
- Michael J. SANDEL (2013), Lo que el dinero no puede comprar, Debate.
- Nate SILVER (2014), La señal y el ruido, Península.
- Seth STEPHENS-DAVIDOWITZ (2019), Todo el mundo miente, Capitán Swing.
- Nassim N. TALEB (2011), El cisne negro, Paidós.
- Shoshana ZUBOFF (2020), La era del capitalismo de la vigilancia, Paidós.