Inteligencia artificial generativa (Chat GTP) y sesgo por la automatización y complacencia automatizada

 

La irrupción de la conocida como IA generativa (como, por ejemplo, el famosísimo Chat GTP) acabará teniendo un impacto que, probablemente, todavía no somos capaces de evaluar. El mundo profesional y universitario se verá profundamente afectado y es obvio que el jurídico, a todos los niveles, también.

El poder de esta tecnología supera con creces algunas de las habilidades que, hasta la fecha, entendíamos que eran exclusivas del ser humano. Esto nos aproxima a un punto de inflexión trascendental en términos evolutivos por dos motivos: en primer lugar, porque (HARARI, 2017: 341), se confirma que de forma paulatina «la inteligencia se está desconectando de la conciencia»; y, derivadamente, los «humanos corren el peligro de perder su valor».

A medida que nos familiaricemos con el uso de esta herramienta (les recomiendo que empiecen a «jugar» con ella para que sean conscientes de su potencial), es posible que seamos víctimas del conocido como sesgo por la automatización y también experimentemos una complacencia automatizada.

Permítanme que les hable de ellos (recuperando algunas notas de una entrada pasada).

El primero es visible (CARR, 2016: 88) «cuando las personas dan un peso excesivo a la información que aparece en sus monitores». De algún modo, cuando aparece en pantalla (TALEB, 2012: 232), «la proyección cobra vida propia, pierde su vaguedad y abstracción y se convierte en lo que los filósofos llaman reificación, algo investido de la calidad de concreto; así adquiere una vida nueva como objeto tangible». Tiene apariencia de verosimilitud y se da por buena, aunque sea errónea o engañosa. Esta confianza es tan poderosa que, incluso, se desechan otros datos, incluyendo los obtenidos a través de los propios sentidos. Este sesgo está presente en múltiples ámbitos, pero es un riesgo singular al que están expuestos quienes utilizan asistentes informacionales (con la IA generativa, prácticamente, cualquier ser humano con acceso a esta herramienta). Pero también está presente al ejecutar tareas más cotidianas (¿cuántos de ustedes se han perdido al seguir ciegamente las indicaciones del navegador GPS de su coche…?).

La complacencia automatizada es una derivada del anterior. El consumo de información a través de este medio genera una falsa sensación de seguridad (CARR, 2016: 85 y 86): «estamos tan confiados en que la máquina trabajará inmaculadamente y solucionará cualquier imprevisto que dejamos nuestra atención a la deriva. Nos desenganchamos de nuestro trabajo o al menos de la parte de él que maneja el software, y podemos como resultado de ello perdernos señales de que algo va mal».

La confianza ciega en la tecnología precipita una desconexión de nuestro sentido común, un entumecimiento psíquico en toda regla, con implicaciones dramáticas. De algún modo, estas situaciones también están relacionadas con lo que se conoce como sesgo de disponibilidad: en la medida que la máquina se ocupa de la tarea, el riesgo que su uso lleva aparejado ya no está disponible en nuestra mente. Lo invisibilizamos, descuidando sus consecuencias. Recuerden que la mayor o menor disponibilidad de un riesgo específico en nuestra mente es un poderoso factor preventivo condicionante, sobreprotegiéndonos o todo lo contrario (si el riesgo está más disponible en nuestra mente, se recurre a este pensamiento de forma más asidua que otros casos que no los tenemos tanto a tiro). En definitiva, la disponibilidad, siguiendo con FISCHHOFF y KADVANY (159), es «una de las muchas reglas de decisión que la gente emplea para juzgar sobre acontecimientos inciertos, y proporciona juicios útiles, aunque imperfectos, cuando se carece de los conocimientos y de los recursos necesarios para tener certeza».

En el fondo (especialmente, si el nivel de sofisticación técnica es elevado), es muy difícil desprenderse de la idea de que la máquina está corrigiendo permanentemente los errores de quien la utiliza. Esto refuerza el pensamiento que (CARR, 2016: 87) lo que sale de la máquina es exactamente como debería ser. El hábito para confiar en el rendimiento constante y creciente de la tecnología que nos asiste es generalizado: cada vez más, creemos (FRY: 18) que su «juicio es siempre superior al nuestro; y al cabo de un tiempo ya ni siquiera somos conscientes de nuestro propio sesgo con respecto a ellos».

Nos sentimos apabullados por la tecnología y el saber informático basado en la velocidad y potencia de cálculo y de procesamiento. El inconveniente es que la infalibilidad de estas herramientas está (todavía) muy lejos de ser una realidad.

En el mundo del Derecho (universitario y profesional), la verosimilitud de la información que provee la IA generativa, probablemente, exigirá que desarrollemos una capacidad crítica sobre su contenido extrema y, obviamente, para poderlo hacer con garantías (intuyo) tendrán que darse dos condiciones: en primer lugar, habrá que saber mucho para poder discriminar la información parcial y/o incorrecta que nos facilite; y, en segundo lugar, aunque se cumpla con la primera condición, nunca podrá bajarse la guardia. De modo que tendremos que mantener a nuestro yo consciente (el famoso «Sistema 2» de KAHNEMAN) en un estado de máxima concentración para evitar que sesgo por la automatización y complacencia automatizada nos jueguen una mala pasada (esto es, para evitar que nos dejemos llevar por el ímpetu del «Sistema 1»).

Permítanme concluir esta breve entrada con una última nota conclusiva.

Este proceso de degradación cognitiva sugiere que tengamos que estar (LATORRE: 76) «atentos a la consecuencia de construir máquinas que nos superan». Especialmente porque el ser humano no acostumbra a tomar nota de las implicaciones que tiene la creación de una tecnología verdaderamente disruptiva (LATORRE: 44): «Si no somos educados en nuestros errores pasados, difícilmente actuaremos de forma sabia en el futuro».

La historia nos ha demostrado (HARARI, 2015: 106 y 107) que no nos damos cuenta que una vida más fácil puede liberar inmensas fuerzas de cambio que nadie imaginaba ni deseaba. Paradójicamente, puede conllevar muchas privaciones, generando nuevas obligaciones e incrementando nuestra dependencia; y, con ellas, mayor ansiedad y una vida mucho más agitada.

 

 

 


Bibliografía Citada

  • Nicholas CARR (2016), Atrapados, Taurus.
  • Nicholas CARR (2011), Superficiales, Taurus.
  • Baruch FISCHHOFF y John KADVANY (2013), Riesgo: una introducción, Alianza
  • Hannah FRY (2019), Hola Mundo, Blackie Books.
  • Yuval-N. HARARI, (2017), Homo Deus, Debate.
  • Yuval-N. HARARI (2015), Sapiens, Penguin Random House.
  • José I. LATORRE (2019). Ética para máquinas, Ariel.
  • Nassim N. TALEB (2012), El cisne negro, Booket.

 

 

1 comentario en “Inteligencia artificial generativa (Chat GTP) y sesgo por la automatización y complacencia automatizada

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.