La superficialidad del solucionismo tecnológico

By bbeltran

 

 

 

La apariencia de verosimilitud que acompaña al uso de los algoritmos predictivos (lo que incluye, obviamente, a la IA generativa – IAG) plantea un riesgo importante, porque la utopía de certeza que destilan sugiere que sólo hay una única solución a cada problema que se quiere abordar; y, además, que la que se ha propuesto es la definitiva.

Como individuos, padecemos una especie de empequeñecimiento cognitivo porque no es fácil cuestionar sus respuestas (la opacidad que acompaña su gestación tampoco ayuda). De hecho, siquiera planteárselo se convierte en una especie de atrevimiento hereje. En el día a día, cada vez son mayores (y más inverosímiles) las consultas que se formulan a la IAG; y lo más probable es que, con el paso del tiempo, este modus operandi se generalice y (como si de un oráculo se tratara) se normalice antes de enfrentarse a cualquier pregunta más o menos cotidiana.

Esta verdad «numérica», si bien tiene la virtud de simplificar problemas muy complejos a dimensiones «más digeribles», conlleva dos riesgos o inconvenientes de enorme calado.

En primer lugar, minimiza el «coste» asociado a la toma decisiones. Las hace mucho más fáciles. Esto, aunque pueda ser paradójico, es problemático porque, en el fondo, precipita una delegación en la toma de decisiones con importantes efectos colaterales:

  • El primero es que, al hacerlo, puede disiparse la percepción de responsabilidad del agente.
  • El segundo es que, en este entorno, en la medida que la decisión ya no es el resultado de una reflexión gestada en el fuero interno, sino que es la resultante del análisis de un asistente omnisciente (en realidad, la «verdad» que arroja la estadística de los grandes números), los errores dejan de ser propios (es decir, cometidos por uno mismo). Esto también es problemático porque, de forma derivada, se coarta el aprendizaje vital asociado a las equivocaciones (en un futuro, «¿la posibilidad de equivocarse debería convertirse en un derecho?» ).
  • El tercero es que, además, como corolario de lo anterior, la tentación a pensar que uno puede exonerarse de los efectos de sus actos/decisiones puede aflorar con facilidad.
  • El cuarto es que el uso recurrente de asistentes para todo acabará corroyendo el sentido de autonomía y convierte a las personas en seres especialmente doblegables ante las adversidades (lejos de promover la antifragilidad, la debilita): no es de extrañar que las personas sean cada vez menos resistentes a los reveses de la vida (y, de ahí que la sensación de frustración se acreciente).
  • Y, finalmente, entre otros posibles efectos, si la decisión tiene un origen externo, es difícil que emerja un sentido de compromiso; y, sin él, es claro que las virtudes cívicas tenderán a socavarse.

En segundo lugar, los algoritmos tienen serios problemas para comprender la dimensión ética, política y/o social de las cosas (aspectos, difícilmente parametrizables). Desde este punto de vista (COECKELBERGH: 163), presentan una severa limitación para enfrentarse a las preguntas más difíciles que se nos plantean.

Este (falso) solucionismo tecnológico es también visible en entornos más mundanos. Se han preguntado alguna vez, ¿por qué necesitamos una papelera con sensores, cámara y acceso a internet? ¿y una tetera con wifi? Este tipo de innovaciones en constante expansión (MOROZOV: 12 y ss.) son anunciadas como lo más avanzado para resolver ciertos problemas (en este caso, la mejora del reciclaje y así del medio ambiente; o avisarnos de la temperatura del agua). En el fondo, aspiran a que los seres humanos se «comporten de manera más responsable y sustentable», maximizando la eficacia.

El incremento de gadgets interconectados formaría parte de una idea hipertrofiada de perfeccionismo que explota una visión sesgada de las limitaciones intrínsecas de las personas (ahondando en la dificultad de aprender de los errores).

La palanca que los activa es una planificación de la arquitectura de los incentivos. En este proceso, por ejemplo, la compartición de los datos en las redes sociales (¡de nuestra basura!) se envuelven en procesos de gamificación, convirtiéndose en acicates que promueven la corrección de nuestras desviaciones. En el caso de la basura (entre muchos otros), estimulando la competencia con nuestros seguidores a través de puntuaciones y premios virtuales en función de nuestros progresos en la mejora selectiva.

La evidente superficialidad de estas innovaciones (que promueven la infantilidad de la sociedad a costa de banalizar la complejidad), en muchos casos, se refieren a problemas que, en sí mismos, no lo son.

Además (parafraseando a SANDEL: 52), al ludificar virtudes cívicas, quedan seriamente corrompidas, descendiéndolas a un nivel inferior al que le es propio. Especialmente porque estas recompensas, lejos de activar nuestra motivación intrínseca, en fondo, lo que consiguen es extinguir el impulso interior (BECK: 247 y 253): la «mayoría de estos sistemas de gratificación subestiman [el] principio de funcionamiento de la motivación humana y nos tratan como a máquinas que pueden acelerarse con solo aumentar la propulsión. Sin embargo, no por repostar el doble el motor andará más rápido». La transformación de nuestro entorno (incluyendo las tareas más rutinarias y mecánicas) a incentivos divertidos y lúdicos (MOROZOV: 333.) también promueve la proliferación de ciudadanos con virtudes, cuanto menos peculiares.

En definitiva, es difícil que la tecnología, por sí sola, sea capaz de resolver la cuestión relativa a las prioridades de las diversas dimensiones concurrentes en una decisión, conflicto o problema (probablemente, los humanos, por sí solos, tampoco estemos plenamente en condiciones).

En cualquier caso, no les quepa duda que, a medida que llenamos nuestras vidas de sensores que parametrizan nuestro día a día, promovemos (en términos de FLORIDI) su «encapsulamiento» ; y, al hacerlo, las convertimos en un entorno habitable para la IA (sin él no tendría acceso y sería inútil).

Esta ecología digital, precisamente, es la que (si no lo remediamos) reforzará la utopía de certeza de la que les hablaba al principio y, consecuentemente, acelerará nuestro empequeñecimiento…

 

 

 

 


Bibliografía citada

  • Henning BECK (2019), Errar es útil, Ariel.
  • Mark COECKELBERGH (2021), Ética de la inteligencia artificial, Cátedra.
  • Luciano FLORIDI (2024), Ética de la inteligencia artificial, Herder.
  • Evgeny MOROZOV (2015), La locura del solucionismo tecnológico, Katz.
  • Michael J. SANDEL (2013), Lo que el dinero no puede comprar, Debate.

 

#AIFree

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.