El proceso de automatización en el que estamos inmersos no tiene parangón. A diferencia de otros procesos de transformación acaecidos en el pasado, la singularidad de este momento es que los ordenadores están asumiendo una dimensión que hace un tiempo se pensaba que estaba reservada a los seres humanos: el trabajo intelectual. Y, ciertamente, lo están asumiendo de forma exponencial.
El objeto de esta entrada es abordar el impacto que este proceso está teniendo en nuestras habilidades como seres humanos, pues, hay elementos para pensar que (si no somos especialmente cautos) podemos acabar experimentando, si me lo permiten, una «obsolescencia humana» o «atrofia cognitiva«.
Y, ciertamente, parece que de nosotros depende que no suceda.
A. Automatización y pérdida de pericia física y mental
La automatización es un proceso que (CARR, 2016, 83 y ss.), en lugar de abrir nuevas fronteras de pensamiento y acción a los colaboradores humanos de este software, está estrechando nuestra perspectiva.
De modo que experimentamos una especie de «efecto túnel» o estrechez de miras. Hasta el punto de que, a resultas de esta transformación, cada vez son más las evidencias de que estamos cambiando «talentos sutiles y especializados por otros más rutinarios y menos distintivos».
Y hay ámbitos muy cotidianos en los que esto puede apreciarse con facilidad. Por ejemplo, a medida que los asistentes a la conducción se han generalizado y sofisticado (por ejemplo, control de velocidad, asistentes de aparcamiento, de frenada o de cambio de carril, etc.),
¿no han percibido que, al disminuir las cosas que tienen que hacer mientras están al volante, tienden a desconnectar respecto del propio acto de conducir y empiezan a tener dificultades para mantener la atención?
A mi me ha pasado en varias ocasiones y, por temor a tener un accidente, he optado por desconectar estos dispositivos para dejar de soñar despierto y focalizar la concentración.
La cuestión es que al incrementarse esta asistencia, en vez de actuar, simplemente miramos. Lo que significa que nuestro foco muta, pues, funcionamos como vigilantes, convirtiéndonos en meros observadores pasivos.
Y, a medida que se incremente el uso de estos dispositivos, es posible que perdamos la pericia física y mental que el conocimiento y la experiencia nos había proporcionado. Nos oxidamos por el desuso. Lo que podría convertirse en un problema si, súbitamente, tuviéramos que suplir al software cuando falla (pues, podríamos actuar como inexpertos o ineptos – de hecho, hay casos documentados de este comportamiento en la aviación comercial).
Siguiendo con CARR (2016, 132, 104, 238 y 134), «a medida que las máquinas se sofistican, el trabajo que les queda a las personas avanza en sentido inverso». Pues, al «relevarnos del ejercicio mental repetivo, también nos revela del conocimiento profundo».
Y, por ejemplo, a nivel laboral, la automatización se está empleando como panacea para evitar los fallos humanos. Y el incremento de las prestaciones que ofrecen estos dispositivos conlleva la asunción de más control sobre nuestro trabajo, de modo que «las oportunidades de los trabajadores de desarrollar habilidades más cualificadas, como las relacionadas con la interpretación y el análisis, disminuyen».
Y, en algunos ámbitos profesionales, se está constatando que la sobredependencia técnica (amparada en el «fundamentalismo de los datos», el «parametricismo») tiende a limitar la creatividad y/o el talento (existe un interesante debate al respecto entre los arquitectos) y/o bien coartar la investigación, pues, (CARR, 2016, 147) si consideramos
«suficientes los cálculos automatizados de probabilidades para nuestros propósitos profesionales y sociales, corremos el riesgo de perder, o al menos debilitar, nuestro deseo y motivación de buscar explicaciones, de aventurarnos por los caminos tortuosos que conducen a la sabiduría y el asombro» (debate que se está suscitando, por ejemplo, en la medicina).
De hecho, cuando mayor es el uso de esta automatización, menor es nuestra pericia y mayor es nuestra dependencia a las aplicaciones y algoritmos (siendo cada vez menos capaces de actuar sin ayuda). Piensen, por ejemplo, en los efectos del software que corrige automáticamente los errores ortográficos (sin advertírnoslo), o el que traduce automáticamente una página web o autocompleta nuestras búsquedas (y ahora imagínense su impacto en las generaciones más jóvenes…).
B. La heurística del afecto y el mito de la sustitución
En general, en cambio, siguiendo de nuevo a CARR (2016, 85), tendemos a calificar a la automatización como benigna. En la medida que nos libera de ciertas tareas tediosas, pensamos que nos permite elevarnos a «misiones superiores sin alterar, por otra parte, nuestra forma de comportarnos o pensar».
Lo que no deja de ser una muestra de lo que se conoce como heurística del afecto. Si lo recuerdan, este sesgo se refiere a que (SUNSTEIN, 76 y 77)
“la información sobre los beneficios modifica los juicios acerca de los riesgos, y que la información sobre los riesgos modifica los juicios acerca de los beneficios” (extensamente aquí).
De hecho, este «atajo» podría explicar porqué no desinstalamos determinadas aplicaciones de nuestros dispositivos móviles a pesar de tener fundadas sospechas de que están espiándonos permanentemente. Dado que esto no es frecuente que suceda (al menos en mi caso), parece ser que la utilidad que nos aportan ciega nuestra capacidad de valoración crítica respecto de los riesgos que acarrean. Sin duda, nuestra ingenuidad (o «buenísmo») es alarmante (o el efecto de este sesgo es mucho más intenso de lo que nos pensamos).
De un modo similar, nuestra valoración positiva de la automatización (siguiendo a CARR, 2016, 85), no deja de ser una falacia, describiendo lo que se conoce como el «mito de la sustitución«:
«Un dispositivo que reduce el volumen de trabajo no solo ofrece un sustituto para algún componente aislado de un trabajo. Altera la naturaleza de toda la actividad, incluidos los roles, las actitudes y la destreza de las personas que participan en ella. Como explicó RAJA PARASURAMAN, ‘la automatización no sólo suplanta la actividad humana, sino que más bien la cambia, con frecuencia de manera no intencionada ni anticipada por los diseñadores’. La automatización rehace tanto el trabajo como el trabajador».
Llevándolo a un ámbito doméstico (pero probablemente extensible a cualquier ámbito en el que intervenga un proceso automatizado), debo confesarles que temo por el resto de coches de mi calle el día que se estropee el asistente para aparcar del mío…
De hecho, es frecuente que cuando llevamos a cabo una tarea con la ayuda de un «ordenador» (en su concepción más amplia posible), somos víctimas de lo que se conoce como la «complacencia automatizada» y el «sesgo por la automatización«.
La particularidad es que su efecto combinado provoca un un «coste cognitivo» especialmente intenso (que no deberíamos obviar).
Déjenme que, siguiendo el hilo conductor de CARR (2016), les detalle brevemente en qué consisten (acompañándolo de reflexiones paralelas):
C. Complacencia automatizada
La complacencia automatizada (siguiendo a CARR, 2016, 85 y 86)
«tiene lugar cuando un ordenador nos atonta en una falsa sensación de seguridad. Estamos tan confiados en que la máquina trabajará inmaculadamente y solucionará cualquier imprevisto que dejamos nuestra atención a la deriva. Nos desenganchamos de nuestro trabajo o al menos de la parte de él que maneja el software, y podemos como resultado de ello perdernos señales de que algo va mal».
¿Cuántos de ustedes se han perdido al seguir ciegamente las indicaciones del navegador GPS de su coche…?
Más allá de esta pérdida de tiempo (o el malestar que al llegar tarde generemos a quiénes nos esperan), esta desconexión de nuestro «sentido común» (basado en una confianza ciega en la tecnología) puede tener implicaciones mucho más dramáticas.
Imagínense si esto sucede en el diagnóstico médico, salas de control de fábricas o centrales eléctricas, pilotos de avión, capitanes de barcos, maquinistas de tren, diseño de estructuras en la construcción o ingeniería civil, asesores financieros, gestores de riesgos y, obviamente también en el ámbito jurídico, a medida que se extienda el uso de software predictivo …
De algún modo, estas situaciones están relacionadas con el sesgo de disponibilidad, al que he hecho referencia en otras ocasiones. En la medida que el ordenador se ocupa de la tarea, el riesgo asociado a la misma ya no está «disponible» en nuestra mente y, por consiguiente, tomamos decisiones sin poder hacer una evaluación ajustada de los riesgos que llevan aparejados.
Siguiendo, de nuevo con CARR – que cita a TURKLE – (2016, 87)
«cuanto más sofisticado es un ordenador (…) más empiezas a asumir que está corrigiendo tus errores, más empiezas a creer que lo que sale de la máquina es exactamente como debería ser. Es algo visceral».
D. ¿Cómo osamos rebatir al «doctor algoritmo» o a las «máquinas oráculo»?
En definitiva, la tecnología nos apabulla….
«¿cómo osamos cuestionar el «saber informático» basado la velocidad y potencia de cálculo y de procesamiento del, por ejemplo, «doctor algoritmo» o de las «máquinas oráculos«?»
No obstante, en contra de esta idea, parece que nos hemos olvidado (CARR, 2016, 144 a 147) de la «estrechez de percepción» de los algoritmos.
En efecto, tendemos a olvidar que son «sabios-idiotas» (al menos de momento), pues, la inteligencia informática es «eminentemente práctica y productiva», pero «absolutamente carente de curiosidad, imaginación y sentido real del mundo», mostrando todavía una «falta espeluznante de sentido común» (HARARI, 2016, 349 y ss., en cambio, entiende que simplemente es cuestión de tiempo para que estas limitaciones sean superadas).
Asimismo obviamos que, también por el momento, y por las mismas razones, parece que están lejos de la serendipidad (esto es, la capacidad de hacer descubrimientos, por azar o por sagacidad, de cosas que no se están buscando – por cierto, así ha sucedido con una gran cantidad de inventos – TALEB, 243).
En cuanto a su capacidad «predictiva» (a partir del análisis de lo precedente y la correlación), nos olvidamos también de que difícilmente pueden tener en cuenta todo aquello que queda fuera de los patrones establecidos.
De hecho, el uso de herramientas informáticas nos ha inducido una falsa percepción predictiva. Nuestra incapacidad de proyección del futuro sigue siendo abrumadora y el uso de ordenadores no ha hecho más que potenciarla exponencialmente (TALEB, 232 y ss.).
Como apunta HARARI (2015, 267), la «historia no se puede explicar de forma determinista y no se puede predecir porque es caótica».
Y, lo que se conoce como sesgos retrospectivo y de resultado no nos ayudan excesivamente a entenderlo (KAHNEMAN, 264 y ss.; TALEB, 49 y 168; HARARI, 2015, 264 y ss.).
Como apunta KAHNEMAN (268), en el marco de nuestros «Sistemas cognitivos 1» (Homer Simpson) y «Sistema cognitivo 2» (racional, deliberativo):
«La maquinaria del Sistema 1, que a todo da sentido, nos hace ver el mundo más ordenado, predecible y coherente de lo que realmente es. La ilusión de que uno ha entendido el pasado alimenta la ilusión de que puede predecir y controlar el futuro».
A pesar de nuestras limitaciones, si ciegamente confiamos la predicción a la automatización, ¿quién se encargará de detectar y diagnosticar imprevistos, de identificar lo improbable?
E. Sesgo por la automatización
Lo que se conoce como sesgo por la automatización está íntimamente relacionado con la complacencia (CARR, 2016, 88):
«surge cuando las personas dan un peso excesivo a la información que aparece en sus monitores. La creen incluso cuando la información es errónea o engañosa. Su confianza en el software se vuelve tan intensa que ignoran o desechan otras fuentes de información, incluidos sus propios sentidos».
Este sesgo está presente en múltiples ámbitos, pero es un riesgo singular en aquellas «personas que utilizan software de apoyo para la toma de decisiones en análisis y diagnóstico» (médicos, analistas financieros, gestores de riesgo,…).
Como apunta TALEB (232) ciertas predicciones, en el momento que aparecen en una pantalla, la proyección cobra vida propia, pierde su vaguedad y abstracción y se convierte en lo que los filósofos llaman reificación, algo investido de la calidad de concreto; así adquiere una vida nueva como objeto tangible».
F. El coste cognitivo (y la obsolescencia humana o atrofia cognitiva)
El efecto combinado de la complacencia y el sesgo por la automatización, podría apuntar hacia una cierta – como les he avanzado – «obsolescencia humana» o «atrofia cognitiva«.
Especialmente porque automatización (CARR, 2016, 91),
«tiende a hacernos pasar de ser actores o observadores. En lugar de manipular el mando, miramos la pantalla. El cambio puede facilitarnos la vida, pero también puede inhibir nuestra capacidad de aprender y adquirir experiencia. Independientemente de que la automatización mejore o empeore nuestro rendimiento en una determinada actividad, a largo plazo puede afectar a nuestras habilidades existentes o impedir que adquiramos otras nuevas».
El coste cognitivo asociado a la automatización podría ser considerable, pues (CARR, 2016, 95),
«al automatizar tareas cognitivas como la resolución de problemas ponemos trabas a la capacidad de la mente para traducir la información en conocimiento, y este en práctica efectiva».
En algunos sectores, el uso de software avanzado esta asociado con el declive del aprendizaje (cuanto más preciso sea, más perezosos nos volvemos).
En definitiva, la automatización
«reduce nuestra implicación con el trabajo, y en particular si nos empuja a un rol más pasivo, como observador o controlador, eludimos el procesamiento cognitivo profundo que sostiene el efecto generación. Como resultado, obstaculizamos nuestra capacidad de acumular la clase de conocimiento rico y real que conduce a la sabiduría práctica. El efecto generación requiere precisamente el tipo de esfuerzo que la automatización busca aliviar».
Parece que induce un proceso «degenerativo».
G. (y si no lo remediamos) Alguien podría empezar a pensar por nosotros
Una de las derivadas del coste cognitivo descrito en el apartado anterior, es que puede condicionar nuestro pensamiento y la percepción de la realidad.
En efecto, (CARR, 2016, 98)
«el hecho de saber que la información estará disponible en una base de datos, parece reducir la probabilidad de que nuestro cerebro haga el esfuerzo necesario para formar recuerdos».
No la codificamos internamente, simplemente, cuando la necesitemos la buscaremos.
Aunque es un proceso algo más complejo, permítanme que lo formule simplificadamente de este modo: tendemos a pensar con lo que «tenemos en la cabeza» (en definitiva, con la «información», recuerdos, memoria que tenemos «disponible»).
De modo que si el «continente» está vacío (porque ya lo buscaremos cuando lo necesitemos), corremos el riesgo de que alguien empiece a pensar por nosotros.
Especialmente, si permitimos que sea ese «alguien» el encargado de que, cada vez que lo necesitemos, posibilita que la información esté «disponible» en nuestra mente (por ejemplo, a través de un buscador de internet o de un vídeo-tutorial …).
H. Valoración final: una automatización centrada en los humanos (¡es posible!)
El reto al que nos enfrentamos es hercúleo. Pero, en esta ocasión (a diferencia de quienes defienden el «determinismo tecnológico«), lo singular también es que depende sólo de nosotros. Porque, hasta que las máquinas no sean capaces de reproducirse a si mismas, «toda tecnología es expresión de la voluntad humana» (CARR, 2011, 61 y 64).
En definitiva, «simplemente», debemos responder (como plantea HARARI, 2015, 453) a la siguiente pregunta: «¿en qué deseamos convertirnos?«.
Y, sin negar que existe una inercia tecnológica (o «ímpetu tecnológico») que dificulta los cambios de orientación (CARR, 2016, 200), en la medida que todavía estamos en disposición de poder elegir, (CARR, 2016, 187 a 193) debemos abogar por una «automatización centrada en los humanos» (y no en la actualmente predominante «automatización centrada en la tecnología»).
Debemos primar y potenciar los sistemas que, lejos de suplantar el criterio humano, lo suplementen.
Especialmente, porque la automatización (en particular, si es fiable – esto es, que no comete errores con frecuencia), como he tratado de exponer, al menguar nuestra concentración y hacer que nos mostremos excesivamente confiados, estaría potenciando nuestras limitaciones cognitivas.
En definitiva, dificulta la intervención de nuestro «Sistema 2», dejando al «Sistema 1» al control de todo …
Así pues, mientras «afinamos» el proceso de automatización en el que estamos inmersos, si me permiten un consejo, no dejen que Homer Simpson campe a sus anchas…
Bibliografía citada
- CARR, R. (2016), Atrapados, Taurus.
- CARR, R. (2011), Superficiales, Taurus.
- HARARI, Y. N. (2016). Homo deus, Penguin Random House.
- HARARI, Y. N. (2015). Sapiens, Penguin Random House.
- KAHNEMAN, D. (2012). Pensar rápido, pensar despacio. Debolsillo.
- TALEB (2011). El cisne negro, Paidós.
- SUNSTEIN, C. R. (2006), Riesgo y razón, Katz.
Estimadisimo profesor Beltran.
Le escribe Manuel Alonso Escacena Abogado, laborista, de Sevilla. Sigo a diario su blog por suscripción de correo. Interesante articulo sobre los riesgos de la automatización. Compartidas sin duda sus conclusiones. Aplicado a nuestro campo jurídico es el legaltech, y hace poco escribí sobre ello. Todo se basa en al certeza de la prediccion. https://legalsur.com/2019/02/09/legaltech-inteligencia-artificial-y-derecho/
Sócrates decía, que nuestra memoria se atrofiaría con la escritura, por eso no escribía, solo hablaba. Pero su sabiduría no hubiese llegado de no ser por Platon, que escribía. La lucha obrera de la revolución industria inglesa, se basaba en parte, en el temor de la sustitución del hombre por maquina. Ambos temores -ciertos- no entrañaban amenaza. Eran cronológicamente asimilables. Los softwares predictivos en aviación han evitado mas accidentes, que los derivados de sus fallos. El error humano, (falta de cualificacion, cansancio, sueño de los pilotos, etc. producía mas, o al menos producía su cuota de accidentes también.
Es pues una cuestión de grado. Si se implementan estos avances en un tiempo tan rápido que sobrepasan la asimilación al modo humano, estamos muertos. Si se cede, lo mejor que tenemos -nuestra percepcion inteligente de los fenómenos- a las maquinas, igualmente muertos. Si añadimos que los 4 listos que controlan este negocio, están en una aldea remota, bajo una palmera, o en un barco fondeado, percibiendo la vida real, y controlando que sus hijos no piquen en esta toxicidad, mientras nos la venden a toneladas, ya es el colmo.
La única vacuna a mi juicio, es fortalecernos en una idea y pertrecharnos en ella numantinamente: frente a tanta oferta de soluciones, para entregarnos la felicidad…frente a: ¿Que me ofrece usted hoy -que hace obsoleto lo que me ofreció ayer mismo- para solucionar mi vida? Pues…gracias, pero no me hace falta. Adios. Ya le llamare o avisare si lo necesito. No se lo tome a mal. Es que ahora estoy tomando una cerveza al sol con dos amigos, y esto es muy importante para mi, discúlpeme. Tal vez nunca devolvamos esa llamada. Y que se aburran.. o se jodan.