Nadie da duros a cuatro pesetas (transparencia algorítmica y representantes de los trabajadores: el nuevo art. 64.4.d ET)

 

Los días 26 y 27 se celebró en Alicante el XXXII Congreso Nacional de la AEDTSS y tuve la oportunidad de presentar una comunicación con el siguiente título: «Nadie da duros a cuatro pesetas (transparencia algorítmica y representantes de los trabajadores: el nuevo art. 64.4.d ET)«.

El propósito de mi contribución es analizar la obligación de transparencia algorítmica que se desprende del nuevo art. 64.4.d ET en la redacción dada por la Ley 12/2021.

No obstante, antes de abordar su contenido, el trabajo hace una aproximación de carácter propedéutico con el objeto de delimitar qué es lo que, a fecha de hoy, la automatización (o, en su versión más optimista, la “inteligencia artificial”) puede hacer y qué no.

Este análisis previo es esencial para entender las limitaciones (actuales) de estas potentes herramientas computacionales y, por consiguiente, los riesgos que llevan implícitas para los seres humanos, en general, y los trabajadores, en particular.

A continuación, el trabajo trata de «desmenuzar» las profundas implicaciones de la nueva obligación que se deriva de la parca redacción del art. 64.4.d ET.

La más que probable generalización del uso de algoritmos en el ámbito laboral y el hecho de que, quizás, algunas de sus imperfecciones serán difícilmente corregibles sugieren la necesidad de adoptar todas las cautelas posibles a nuestro alcance (y el nuevo art. 64.4.d ET, a pesar de su formulación genérica, debe valorarse positivamente porque es una de ellas).

En cualquier caso, lejos de posicionamientos tecno-pesimistas (o lúgubres, en algunos casos), creo que, aplicados con la debida inteligencia (humana), los algoritmos pueden ser un buen complemento a nuestras limitaciones.

En relación a esta última cuestión me gustaría compartir las siguientes reflexiones (y que no aparecen en el texto del trabajo):

 

Primera: cajas negras biológicas

Tendemos a valorar la capacidad (limitada) de estos instrumentos computacionales partiendo del «supremacismo humano» y, en particular, nuestra infalibilidad.

No obstante, aunque el ser humano es maravilloso y, como especie, hemos sido capaces de alcanzar cotas inimaginables, tampoco podemos olvidar que no somos inmunes al error (ni tampoco a otros comportamientos particularmente aberrantes y lesivos para nosotros mismos y nuestros semejantes). Además, aunque los avances de la neurociencia son deslumbrantes, apenas hemos sido capaces de rascar en la superficie y, por ello, nuestro cerebro sigue siendo una caja negra. De ahí que muchos de nuestros juicios y comportamientos (incluso, los adoptados a nivel «consciente»), son inescrutables para terceros (e, incluso, pueden serlo para nosotros mismos).

Este «oscurantismo» también está presente en algunos algoritmos (en especial, los llamados de aprendizaje profundo) y es claro que debemos aunar esfuerzos para exigir su transparencia y así posibilitar la comprensibilidad humana y, por consiguiente, su exhaustiva monitorización (en este sentido, toda cautela es poca).

Para el resto (es decir, aquellos cuya «secuencia decisoria» sea rastreable), la delegación de ciertas funciones humanas a las máquinas podría contribuir a dar luz sobre juicios cuya explicabilidad se ve imposibilitada por la insondabilidad de nuestro cerebro. Así pues, si dejamos que nos complementen, podremos aspirar a una mayor transparencia en la toma de decisiones y, de este modo, combatir, por ejemplo, la arbitrariedad y/o la discriminación.

En todo caso, a pesar de lo recién apuntado, soy plenamente consciente que queda un largo camino por recorrer y es obvio que son muchos los obstáculos que todavía deben ser superados para llegar a este (hipotético y/o idílico) estadio (quedan muchas cosas por «pulir»).

 

Segunda: bolas de cristal defectuosas

En paralelo, también tendemos a desconfiar de la capacidad predictiva de los algoritmos. Se objeta que es (muy) limitada porque basan sus proyecciones a partir de datos del pasado. Y, obviamente, esto dificulta que puedan anticipar fenómenos novedosos (como los llamados cisnes negros). Y, por todo ello, debemos recelar de su uso.

No obstante, también olvidamos que, el cerebro humano funciona de un modo similar (y el conocido como «problema de la inducción» fue identificado hace mucho tiempo). De hecho, también se nos pasa por alto que el sesgo de la retrospección nos lleva a estimaciones «desviadas» sobre el futuro. En efecto, tiene el poder de transformar el «ruido» del pasado en «señales» clarividentes que nos permiten «identificar» la secuencia de causas que explican «irrefutablemente» nuestro presente. El hemisferio dominante (normalmente el izquierdo) parece ser el culpable de nuestra búsqueda «obsesiva» de explicaciones que nos resulten coherentes.

De modo que, a resultas del efecto combinado de estos factores, tenemos la poderosa ilusión de que nuestra capacidad de predicción es muy superior de lo que realmente es: como creemos comprender el pasado, pensamos que podemos predecir el futuro.

El ser humano acudió a la estadística para gestionar el riesgo y la incertidumbre y, de este modo, tratar de superar nuestras carencias anticipatorias. Y, podemos acudir a «reglas numéricas» más o menos complejas para superar estas limitaciones. De hecho, los algoritmos (lejos todavía de la «inteligencia», en el sentido humano del término), por el momento, no dejan de ser estadística computacional. Por este motivo (como hemos estado haciendo en el pasado reciente con versiones menos potentes de estas herramientas), pueden sernos de gran ayuda para gestionar escenarios inciertos; eso sí, siempre que no se empleen de forma maximalista.

En efecto, dado que no podemos recopilar todos los datos relevantes, debemos tener muy claro que, con una mera porción de los mismos, no se puede predecir el 100% de los resultados posibles (es lo que se conoce como el teorema «no free lunch» – o, en una posible traducción: «nadie de duros a cuatro pesetas»).

Así pues, a pesar de este «hándicap», no creo que sea «inteligente» que descartemos su uso (o lo vilipendiemos). «Simplemente» se trata de no olvidar esta limitación y complementarla con «inteligencia» humana.

En alguna ocasión me he referido a los algoritmos como «sabio-idiotas». Aunque sigo pensando en estos términos, creo que, para ser más justos, esta valoración debería matizarse, pues, desde el instante que olvidamos sus limitaciones (y les concedemos todo el poder decisorio – o de forma excesiva), la estupidez única y exclusivamente debería atribuirse al ser humano.

 

Tercera: familiarizándonos con ellos (y los algoritmos del amor)

En la actualidad, no sufrimos aversión algorítmica (al menos, en un primer momento y mientras no nos fallen). Lejos de desconfiar de ellos, consciente o inconscientemente, estamos muy familiarizados con ellos.

En efecto, no sé si han reparado que hemos normalizado su uso en muchas y heterogéneas facetas de nuestra vida.

Permítanme que me detenga en una de ellas: encontrar pareja sentimental (¿con relativo éxito?). Aunque todavía me pregunto cómo hemos llegado a este extremo (y si no estamos siendo víctimas de una candidez preocupante), creo que podemos inferir que, si confiamos en la fiabilidad de estos «algoritmos del amor» (por llamarlos de algún modo) para complementar una dimensión de nuestra vida personal tan sumamente compleja y con implicaciones tan humanamente profundas, ¿por qué no podemos pensar que pueden complementarnos en otras dimensiones (más prosaicas)?

 

Y, cuarta (reflexión final): Tecno-optimista vs. tecno-pesimista (y la prevención frente a nosotros mismos)

Si han llegado hasta aquí, quizás, piensen que soy una persona tecno-optimista. Pues bien, aunque creo en el potencial de esta tecnología, ciertamente, no me considero como tal.

De hecho, creo que debemos ser muy conscientes de sus importantes limitaciones (al menos, en su versión actual). Y, además, como les expuse en «El saqueo de nuestra privacidad y la corrosión de la democracia de la sociedad digital» , son muchas las amenazas que nos acechan y, si no nos andamos con cuidado, podríamos estar sentando las bases de un futuro sombrío.

En paralelo, también creo que debemos ser muy conscientes de las limitaciones humanas y que, como nos ha demostrado el curso de la Historia, debemos tratar de prevenirnos frente a ellas. Y, quizás, la tecnología pueda sernos de ayuda frente a nosotros mismos (aunque también es verdad que, si la empleamos estúpidamente, podría acabar acelerando nuestra extinción como especie…).

Aunque ya saben que mi bola de cristal no es muy precisa que digamos…, espero que (por el bien de todos) los acontecimientos del futuro no me fuercen a lamentar esta «apuesta computacional».

Si fuera el caso, espero que «mi yo del futuro» no tenga reparo en admitirlo públicamente.

Y, siguiendo con este diálogo «anticipado», también espero que, si así sucediera, «su yo del futuro» sea indulgente con «mi yo del pasado»…

Esperando que con esta breve aproximación les haya despertado el interés por la lectura de este trabajo (motivo por el que les vuelvo a adjuntar el enlace del archivo), antes de concluir, me gustaría aprovechar la oportunidad para felicitar a la AEDTSS la exquisita organización del XXXII Congreso, la oportunidad de los temas abordados y los excelentes ponentes invitados. Una vez más, fue un acontecimiento con aportaciones de altísimo nivel y singularmente sugerentes.

Después del paréntesis de la pandemia, fue muy emocionante volver a coincidir presencialmente con compañeros y grandes amigos.

 

Print Friendly, PDF & Email

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.