Big data, algoritmos y actas de infracción automatizadas: ¿un nuevo paradigma en la imputación de responsabilidad en el procedimiento sancionador del orden social?

 

 

La DF 4ª RDL 2/2021 ha supuesto (como prontamente expusieron los profesores Ana DE LA PUEBLA y Jesús MERCADER) el «aterrizaje» del big data en la ITSS, apuntando que «esta norma aislada y referida exclusivamente al régimen sancionador envía la señal de que el recurso al Big data sirve, solo, para iniciar la era de las sanciones automatizadas en masa».

Y, a la luz de la DF 5ª del mismo RDLey 2/2021, puede añadirse (como expone el profesor José M. GOERLICH), que esta novedad «no se limita a la actuación de la Inspección del Trabajo, sino que afecta al conjunto de la actividad recaudatoria de la Seguridad Social».

Es obvio que la toma de decisiones a partir de datos masivos y algortimos tiene un potencial extraordinario (y, por ende, un vastísimo campo que recorrer). No obstante, como expuse en la entrada «¿Somos un algoritmo (biológico)?«, no son pocos los riesgos que atesora.

Y, precisamente, su empleo a la hora de imponer sanciones puede suscitar un cambio con profundas implicaciones en términos de responsabilidad (y, quizás, se erija en la antesala de un cambio de paradigma, al menos, en el procedimiento sancionador del orden social).

No obstante, para poder abordar esta cuestión, creo que conviene empezar exponiendo las particularidades analíticas y metodológicas imperantes hasta el momento. Y, con este propósito, es oportuno empezar por el «origen» de todo, esto es, las limitaciones cognitivas humanas que tenemos «de serie».

 

La (errática) intuición causal humana

Los seres humanos interpretamos el mundo en términos mecanicistas, es decir (GAZZANIGA, 198), asumiendo que todos los acontecimientos tienen sus antecedentes causales.

Y no podemos evitar buscar la causalidad de forma automática e inconsciente. Como expone KAHNEMAN (104), tenemos la necesidad de encontrar coherencia a lo que sucede a nuestro alrededor (posteriormente, nuestro «yo consciente» recibirá y aceptará esta interpretación causal – incluso, justificándola – ver al respecto, también la tesis del «jinete y el elefante» de HAIDT, 79).

Y siguiendo con GAZZANIGA (118) – en una cita extensa, pero muy ilustrativa:

«el hemisferio dominante, normalmente el izquierdo, está comprometido en la tarea de interpretar nuestros comportamientos externos, así como las respuestas emocionales más encubiertas producidas por los módulos mentales independientes. El cerebro izquierdo construye teorías para explicar por qué han ocurrido estos comportamientos, y lo hace así debido a la necesidad que tiene el sistema cerebral de hacer coherente la totalidad de nuestros comportamientos. Se trata de una empresa característicamente humana, y sobre la misma descansa no sólo el mecanismo que genera nuestro sentido de la realidad subjetiva, sino también la capacidad mental que nos libera de los controles que nos atan a las contingencias externas».

Así pues, (260) en el seno de la organización medular de nuestro sistema cognitivo, tenemos una capacidad especial que interpreta constantemente teorías sobre las «relaciones causales entre los acontecimientos elementales que ocurren en el interior y en el exterior de nuestras cabezas».

De hecho, esta necesidad de darle sentido a todo lo que nos sucede, como les expuse en «Sobre el éxito y (sobre todo) el azar que lo precipita«, podría explicar nuestras dificultades (o, incluso, resistencia) a aceptar lo que es producto del mero azar.

En definitiva, el hemisferio izquierdo es el que posibilita la capacidad de hacer inferencias. Sin embargo, como también les expuse en «El futuro del empleo: ignoramos nuestra ignorancia y el problema del pavo«, somos muy proclives a caer en la «falacia narrativa» (TALEB). De modo que, no tenemos ningún reparo en construir relaciones causales concluyentes a pesar de sufrir una escasez de información abrumadora.

Así pues, reparen que esta intuición humana de la causalidad (MAYER/CUKIER, 85) no contribuye a acrecentar nuestra comprensión del mundo:

«en muchos casos, es poco mas que un atajo cognitivo que nos depara una ilusión de percepción, cuando en realidad nos deja en la inopia respecto al mundo que nos rodea»

Pues bien, como se expondrá a continuación, el uso de «muestras» aleatorias de datos (lo más precisos posibles) ha sido, durante décadas (de hecho, hasta la irrupción de los datos masivos), el principal instrumento para combatir este sesgo (tan) humano.

 

Datos escasos y causalidad

Si pretendemos medir algo (sintetizando el fantástico trabajo de MAYER/CUKIER) es obvio que lo mejor es disponer de todos los datos.

Sin embargo, si la escala es vasta, este método no es práctico y, por este motivo, se ha acudido al muestreo. Así pues, partiendo de este escenario, en un entorno de «datos escasos», se colige que conviene tratar de medir, de la forma más precisa posible, aquello que se pretende cuantificar.

De hecho, ante la dificultad para recoger, organizar, almacenar y analizar la información, durante décadas, se ha recurrido a la estadística para tratar confirmar el resultado más rico posible con la menor cantidad de datos posible.

Aunque pueda resultar contraintuitivo, la cuestión es que la precisión de una muestra aumenta (acusadamente) con su aleatoriedad (y no con el mayor tamaño de la misma). Además, en la medida que sólo se recopilan ciertos y limitados datos, junto a la aleatoriedad de la muestra, es esencial asegurarse de la exactitud y calidad de los mismos (para evitar desviaciones y errores).

Por otra parte, es necesario acudir a hipótesis basadas en teorías para tratar de hacer una aproximación que ayude a determinar qué variables deben ser examinadas y recoger datos en consecuencia (los cuales contribuyen a desmentirlas o confirmarlas).

A partir de las mismas, se espera detectar relaciones de causalidad que contribuyan a detectar patrones y hacer predicciones. Sin embargo, lo cierto es que, como apuntan MAYER/CUKIER (86), este método tampoco es infalible, pues, es difícil encontrar relaciones causales concluyentes: «la causalidad rara vez – o ninguna – puede ser demostrada, solo mostrada con un elevado grado de probabilidad».

Y, por este motivo, es conveniente adoptar la lógica de la refutación (POPPER, 149), en vez de la mera búsqueda de factores de confirmación, como instrumento para dar validez a las teorías.

 

Datos masivos y correlaciones (o la devaluación de la causalidad)

La era de los datos masivos (siguiendo con MAYER/CUKIER) está alterando profundamente la realidad analítica descrita en el apartado anterior.

Especialmente porque, en la medida que es posible procesar ingentes cantidades de datos, ya no tiene sentido recurrir a una muestra.

De hecho, de lo que se trata (41) es de recopilar todos los datos posibles y, cuando sea factible, absolutamente todos (incluso los erróneos). Esto es: «N = todo«.

Y, la carrera hacia la datificación masiva (o «minería de la realidad») está, en estos momentos, en plena ebullición (aunque, quizás, la internet de las cosas será lo que describa el cambio en el orden de magnitud).

Lo que, en el marco del capitalismo de la vigilancia, como les expuse en «El saqueo de nuestra privacidad y la corrosión de la democracia de la sociedad digital«, ha propiciado una voraz lucha para conquistar todos los espacios susceptibles de extracción del excedente conductual humano. Esta «minería humana», en definitiva (MAYER/CUKIER, 142), se ha convertido en el nuevo polvo de oro con el que fundir lingotes.

En todo caso, este método supone un cambio radical con respecto al anterior. Especialmente porque, aunque puede traducirse en un aumento de la imprecisión, tiene la ventaja de que la suma puede contribuir a mejorar el pronóstico (probabilísticamente hablando). En el fondo (57), «más [datos] es mejor que mejor[/es datos]».

Para ilustrar:

Si sólo tenemos un termómetro para medir la temperatura de un viñedo, cuanto más preciso, mejor.

Ahora bien, si podemos disponer de un sensor de temperatura para cada cepa, quizás, podamos renunciar a un poco de exactitud, a cambio de acceder a un «mapeo» de la temperatura general y/o a su progreso continuo en el tiempo.

De hecho, de esta forma también es posible abordar el análisis de subcategorías o detalles de fenómenos concurrentes (de más difícil acceso a través de las muestras). Especialmente porque (42 y 43) «el empleo de la totalidad de los datos hace posible advertir conexiones y detalles que de otro modo quedan oscurecidos en las vastedad de la información».

De todo ello se extrae que (52) «los datos masivos convierten los cálculos aritméticos en algo más probabilístico que preciso». Y, en este sentido, la verdadera revolución que el procesamiento de datos masivos provoca radica en la proliferación de la analítica predictiva.

Y esto, describiendo el cambio de paradigma del que les he hablado, se traduce en el hecho de que no es necesario saber el por qué de las cosas, bastando con saber el qué.

Este método, en definitiva, consiste en averiguar (a través de correlaciones) que algo pasa, aunque no se sepa exactamente qué es lo que lo provoca (esto es, cuáles son sus mecanismos internos). Aunque no puede excluirse que dos cosas se comporten del mismo modo por pura coincidencia, lo cierto es que una correlación puede facilitar una alta relación estadística entre dos valores de datos.

Y, llegados a este punto, es conveniente detenerse en la descripción de lo que es una correlación (72 y 73):

Una correlación «cuantifica la relación estadística entre dos valores de datos. Una correlación fuerte significa que, cuando cambia uno de los valores, es altamente probable que cambie también el otro (…). Una correlación débil significa que, cuando un valor de datos cambia, apenas le ocurre nada al otro».

Y, lo que es más importante:

«al permitirnos identificar una aproximación realmente buena de un fenómeno, las correlaciones nos ayudan a capturar el presente y predecir el futuro: si A tiene lugar a menudo junto con B, tendremos que estar pendientes de B para predecir que va a ocurrir con A. Usar a B de aproximación nos ayuda a interpretar lo que probablemente esté ocurriendo con A, aunque no podamos medir A ni observarlo directamente (…).

Las correlaciones no pueden vaticinar el futuro, solo predecirlo con cierta probabilidad. Pero esa cualidad resulta extremadamente valiosa».

Un ejemplo, quizás, ayude a ilustrar lo anterior:

Si los datos muestran que un zumbido precede a la ruptura de una determinada pieza de una máquina, basta estar pendiente del patrón (el zumbido) para anticiparse al cambio de la misma (aunque no se tenga ni remota idea de qué es lo que acaba provocando la ruptura).

En definitiva, reparen que se renuncia al conocimiento de las causas internas (a la causalidad) en favor de una (mera) aproximación (en el mejor de los casos, altamente probable). Y la acumulación de datos masivos es lo que, precisamente, permite que la probabilidad de que exista un vínculo fuerte entre dos acontecimientos se eleve (aunque como se apuntará, puede no ser así).

Reparen, por consiguiente, que ya no es necesario describir una hipótesis. Basta dejar que los datos, a través de un análisis de correlación, «hablen» y permitan hacer predicciones (en definitiva, saquen «sus propias» conclusiones).

En este sentido, si quieren leer una extensa loa sobre el «suero de la verdad digital» (en este caso de las búsquedas a través de Google) les sugiero que lean el libro de STEPHENS-DAVIDOWITZ.

 

¿Puede haber responsabilidad sin causalidad?

La analítica predictiva, a través de las correlaciones de datos anteriormente descrita, permite hacer pronósticos.

Es importante reparar (DU SAUTOY, 86) que la proliferación de la «Inteligencia Artificial» y de la nueva era del aprendizaje automático está estrechamente ligada a la descomunal proliferación de datos. Es la «chispa» que ha desatado su explosión. No obstante (como apunta FRY, 14), conviene puntualizar que

«aunque en los últimos tiempos la inteligencia artificial ha avanzado a pasos agigantados, todavía sigue siendo ‘inteligente’ solo en el sentido más restringido del término. Probablemente sería más útil interpretar lo que hemos estado viviendo como una revolución de la estadística computacional que de la inteligencia».

En todo caso, siguiendo con DU SAUTOY (87) es importante advertir que

«la idea central del aprendizaje automático es que se puede crear un algoritmo que sea capaz de plantearse nuevas preguntas si ve que algo no va bien. Que aprenda de sus errores. Con cada error, el algoritmo retoca sus ecuaciones, de modo que la próxima vez actuará de forma diferente y no tropezará con la misma piedra. Por eso es tan importante el acceso a los datos: cuandos más ejemplos tenga estos algoritmos inteligentes para ejercitarse, más experiencia acumularán y más se perfeccionarán con cada retoque».

No obstante, a pesar de las limitaciones cognitivas descritas anterioremente y las limitaciones propias de la causalidad, sería un error abrazar ciegamente la predicción analítica descrita. Por lo siguiente (sin perjuicio de lo que apunté en la valoración final de «¿Somos un algoritmo (biológico)?«):

– En primer lugar, porque la oscura trazabilidad implícita en los algoritmos (verdaderas «cajas negras»), se ha incrementando exponencialmente en la era del aprendizaje automático (DU SAUTOY, 95), pues, sus creadores no sólo no saben cómo los algoritmos (a través de árboles de decisión) han alcanzado sus conclusiones, sino que tampoco son capaces de invertir el camino para descifrarlo.

De hecho, BODEN (68), refiriéndose a las redes neuronales, afirma que es la forma en que funcionan lo que las hace intrigantes. Y, LATORRE (211) advierte que el «problema de la trazabilidad podría escapar de nuestras manos si las propias inteligencias artificiales pasan a corregirse a sí mismas. La velocidad de cambio de un código fuente que se mejora a sí mismo puede hacerse vertiginosa, de forma que todo el proceso escape a las capacidades humanas».

Paradójicamente, estamos sustituyendo las incógnitas derivadas de nuestra (errática y humana) intuición causal por otras igualmente indescifrables.

– En segundo lugar, porque (DU SAUTOY, 119), ya hay numerosas pruebas de que los algoritmos cobijan «sesgos ocultos» (una preocupante derivada del fenómeno que se sintetiza con la expresión: «entra basura, sale basura»; o «garbage in, garbage out» – «GIGO«). O, como apunta BRIDLE (160), asumiendo que estas tecnologías dependen por completo de la información histórica que utiliza como datos de entrenamiento (con todos sus sesgos y discriminaciones), supone «codificar esa barbarie en nuestro futuro».

– En tercer lugar (MAYER/CUKIER, 74), debe tenerse en cuenta que «cuando el número de datos crece en orden de magnitud, también se aprecian más correlaciones espurias, fenómenos que parecen estar conectados aun cuando no sea así». Lo que puede llevar a pronósticos desviados. Especialmente porque (241) en la medida que «nunca podemos disponer  de información perfecta, nuestras predicciones resultan inherentemente falibles». Es lo que BRIDLE (96), también críticamente, describe como la «magia (o la falacia) de los macrodatos».

– En cuarto lugar, (DU SAUTOY, 120), aunque los algoritmos pueden analizar ingentes cantidades de datos y darles un sentido, son propensos a omitir las irregularidades (esto es, las situaciones fuera de lo normal). Y, como ya les he expuesto en otro momento, son miopes ante los cisnes negros.

– Y, en quinto lugar, y directamente relacionado con el cambio de paradigma que les anunciaba al inicio de la entrada en relación a las novedades introducidas por el RDLey 2/2021, porque (MAYER/CUKIER, 188, 216 y 217) podemos llegar a articular sanciones (o castigos) a partir de mera propensiones, basadas en correlaciones y no en causalidades.

Esto es, en vez de ser «responsables por nuestras acciones pasadas», a partir de predicciones estadísticas de unas acciones futuras, podemos «acabar juzgando a las personas no por lo que han hecho, sino por lo que hemos predicho que harían».

Y es obvio que esto supondría un replanteamiento profundo sobre la responsabilidad individual (y, condicionaría de forma determinante nuestra libertad).

Además, reparen que la tarea de refutar lo predicho, no sólo nos exigirá dar luz sobre lo insondable, sino que, además (MAYER/CUKIER, 236) es «axiomáticamente imposible demostrar la falsedad de una predicción» (esto es, de algo que no ha pasado).

 

Valoración final

Como apunta DIÉGUEZ (68), «es evidente que no podemos renunciar a la tecnología, pero sí podemos – contra lo que defiende el determinista – desobedecer el imperativo tecnológico que convierte en necesario todo lo que es técnicamente posible». Y, siguiendo ahora con BRIDLE (114), adviértase también que «a medida que se proponen soluciones más complejas a problemas cada vez más complejos, se corre el riesgo de pasar por alto problemas sistémicos aún mayores».

Si les gusta el cine sobre eventuales realidades distópicas, es posible que a lo largo de la lectura les haya venido a la cabeza la unidad de «pre-crime» de la película de Minority Report.

Es probable que estemos lejos de este escenario. Pero ya no lo estamos de situaciones en las que la analítica predictiva ya se está utilizando para estimar nuestra propensión a heterogéneos riesgos (insolvencia, accidente, salud, etc.) e imputándonos consecuencias de diverso signo.

Y, desde hace pocas semanas, parece que ya no tan lejos de instrumentos predictivos que posibiliten la imposición de sanciones en el orden social.

Aunque desconocemos cómo se acabará materializando, convendría no acabar siendo prisioneros (y/o víctimas) de la tiranía de los datos y de las correlaciones y dejar que el conocimiento humano («materializado» en el cuerpo de Inspectores) complementara el extraordinario potencial algorítmico, básicamente, para poder tener en cuenta el contexto, la visión de conjunto y el «humanismo» implícito.

 

 


Bibliografía citada

  • BODEN, M. A. (2016), Inteligencia artificial, Turner Noema.
  • BRIDLE, J. (2020), La nueva edad oscura, Debate.
  • DE LA PUEBLA, A. y MERCADER, J. R. (2021), «El RDL 2/2021, de 26 de enero: nueva entrega de la prórroga de los ERTE y el aterrizaje del Big Data en la ITSS», Foro de Labos.
  • DIÉGUEZ, A. (2019), Transhumanismo, Herder. 
  • DU SAUTOY, M. (2021), Programados para crear, Acantilado.
  • FRY, H. (2019), Hola Mundo. Blackie Books.
  • GAZZANIGA, M. (1993), El cerebro social, Alianza.
  • GOERLICH, J. M. (2021), «Algoritmos en el procedimiento sancionador en el orden social y en la gestión recaudatoria de la Seguridad Social: las decisiones automatizadas en el Real Decreto-ley 2/2021», Foro de labos.
  • HAIDT, J. (2019), La mente de los justos. Deusto.
  • KAHNEMAN, D. (2012), Pensar rápido, pensar despacio. Debolsillo.
  • LATORRE, J. A. (2019), Ética para máquinas, Ariel.
  • MAYER-SCHÖNBERGER, V. y CUKIER, K. (2013), Big data, Turner Noema.
  • POPPER, K. R. (1984), La miseria del historicismo, Alianza Taurus.
  • STEPHENS-DAVIDOWITZ, S. (2019), Todo el mundo miente. Capitán Swing.

 

 

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.