La superficialidad del solucionismo tecnológico

La apariencia de verosimilitud que acompaña al uso de los algoritmos predictivos (lo que incluye, obviamente, a la IA generativa – IAG) plantea un riesgo importante, porque la utopía de certeza que destilan sugiere que sólo hay una única solución a cada problema que se quiere abordar; y, además, que la que se ha propuesto es la definitiva.

Como individuos, padecemos una especie de empequeñecimiento cognitivo porque no es fácil cuestionar sus respuestas (la opacidad que acompaña su gestación tampoco ayuda). De hecho, siquiera planteárselo se convierte en una especie de atrevimiento hereje. En el día a día, cada vez son mayores (y más inverosímiles) las consultas que se formulan a la IAG; y lo más probable es que, con el paso del tiempo, este modus operandi se generalice y (como si de un oráculo se tratara) se normalice antes de enfrentarse a cualquier pregunta más o menos cotidiana.

Esta verdad «numérica», si bien tiene la virtud de simplificar problemas muy complejos a dimensiones «más digeribles», conlleva dos riesgos o inconvenientes de enorme calado.

El propósito de esta entrada es exponérselos.

No, la tecnología no es neutra y, obviamente, la inteligencia artificial tampoco

Seguramente han oído esta frase en diversas ocasiones: «la tecnología no es ni buena ni mala, todo depende del uso que se haga de ella».

Con la irrupción de la inteligencia artificial (IA), se ha convertido en una expresión manida.

El martillo o un cuchillo son los ejemplos que se acostumbran a añadir a continuación: no tienen un uso o finalidad predefinidos, ambos pueden utilizarse benévolamente o para infligir dolor o sufrimiento.

Luego, la IA disfruta de idéntico status.

No obstante, se trata de un tópico, cargado de imprecisión y, dado que en muchos casos es deliberada, también de intención.

La técnica no tiene un efecto neutro y, obviamente, la IA tampoco.

El propósito de esta entrada es desmontar este tópico.

Neurotecnología, Inteligencia Artificial y Neuroderechos (Ponencia)

En el marco del proyecto de investigación del Ministerio de Ciencia e Innovación titulado “Algoritmos extractivos y neuroderechos. Retos regulatorios de la digitalización del trabajo” que, junto con el Prof. Adrián Todolí, codirijo, se organizó el Congreso «La IA en el mundo del trabajo» (celebrado en Valencia los días 20 y 21 de junio).

En este contexto tuve oportunidad de impartir una ponencia con el siguiente título: «Neurotecnología, Inteligencia Artificial y Neuroderechos».

Estatuto del yo inconsciente de las personas trabajadoras: un escudo frente al nuevo poder instrumentario empresarial

El efecto combinado de big data y la expansión sin precedentes de la estadística computacional (todavía lejos de la «inteligencia» en el sentido humano del término) está posibilitando una cartografía humana exhaustiva. Nuestras intenciones, emociones y estados de ánimo, como si estuvieran tras una pared de cristal, ya pueden ser leídos. Este acceso al patio trasero neuronal describe un nuevo desafío porque estas máquinas están acumulando capacidad para aguijonear la mente, acceder al yo inconsciente y condicionar subliminalmente el comportamiento.

Algoritmos y condicionamiento por debajo del nivel consciente: un análisis crítico de la propuesta de Ley de Inteligencia Artificial de la Unión Europea (Artículo)

En el número 286 volumen 73 de la Revista de la Facultad de Derecho de México (de acceso abierto) he tenido la oportunidad de publicar un artículo con el siguiente título: «Algoritmos y condicionamiento por debajo del nivel consciente: un análisis crítico de la propuesta de Ley de Inteligencia Artificial de la Unión Europea».

Inteligencia artificial y reconocimiento biométrico de emociones: una valoración a la luz de las enmiendas del Parlamento europeo a la Ley de Inteligencia Artificial

By bbeltran   La Ley de la Inteligencia Artificial de la UE, cuyo texto definitivo se espera que se aprobará a finales de 2023, se está desarrollando en el marco de la negociación tripartita de la UE (Comisión, Consejo y Parlamento). A la propuesta original de la Comisión, se le añadieron (noviembre 2022) las posiciones del Consejo («orientaciones generales«) y, más recientemente (junio 2023), la posición común del Parlamento. Esta […]

Preocupante regresión de la propuesta de Reglamento de Inteligencia Artificial: la mente inconsciente profundamente amenazada

  La proliferación de algoritmos extractivos está posibilitando una cartografía humana exhaustiva. Nuestras intenciones, emociones y estados de ánimo ya pueden ser leídos. Este acceso al patio trasero neuronal describe un nuevo desafío porque estas máquinas están acumulando capacidad para aguijonear la mente, acceder al yo inconsciente y condicionar subliminalmente el comportamiento. Como saben este es el punto de partida de la monografía que les presenté hace unos días («Inteligencia artificial y neuroderechos: la protección […]