Las prohibiciones del Reglamento de Inteligencia Artificial como protección del neurosciente humano (Iniciativa Interblogs #3)

By bbeltran

 


 

Esta entrada es la tercera entrega de la iniciativa Interblogs de Derecho del Trabajo “La regulación de la Inteligencia Artificial en el Mundo laboral”, en la que se comentan diferentes aspectos de la Regulación de la Inteligencia Artificial en el ámbito sociolaboral.

Esta iniciativa es el preludio a un Congreso que se celebrará en la Facultat de Dret de la Universidad de Valencia el 20 y 21 de junio de 2024. La iniciativa y el congreso forman parte del proyecto de investigación del Ministerio de Ciencia e Innovación titulado “Algoritmos extractivos y neuroderechos. Retos regulatorios de la digitalización del trabajo” ref. PID2022-139967NB-I00 IP Adrián Todolí e Ignasi Beltrán de Heredia (ALEXNE) y del Proyecto de Investigación “La huida del mercado de trabajo y la legislación social en España (TRABEXIT), PID2022-141201OB-I00″, dirigido por el profesor Miguel Rodríguez-Piñero Royo y la profesora María Luisa Pérez Guerrero.

 


 

La mente inconsciente al descubierto

La recopilación ingente de datos y su tratamiento, como he tenido la oportunidad de exponer extensamente en Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona, permite husmear en el código impreso en el circuito neuronal. O, al menos, en las exteriorizaciones de sus patrones. Si el 95% de nuestra actividad cerebral discurre por debajo del nivel consciente[1], quienes tengan acceso a esta información estarán en condiciones de sumergirse bajo la superficie de la percepción consciente y podrán tratar de manipular sutilmente la conducta con una granularidad y sofisticación distópicas.

Especialmente porque, como apunta BARGH, «a nuestra mente le lleva un tiempo sacudirse de encima los efectos del momento previo. Nuestra mente se demora en el pasado reciente y se traslada solo gradualmente a la nueva situación. Esto significa que el residuo del pasado reciente puede influir en cómo uno interpreta una nueva situación, cómo nos comportamos en ella, las decisiones que tomamos, las emociones que sentimos»[2]. Además, el ser humano puede ser bombardeado por percepciones que, «sin notarlas en su momento, ya porque nuestra atención está desviada o porque el estímulo para nuestros sentidos es demasiado leve para dejar una impresión consciente», sí han sido captadas inconscientemente. Y estas «subliminales percepciones sensibles desempeñan un papel significativo en nuestra vida diaria. Sin darnos cuenta de ello, influyen en la forma en que reaccionamos ante los hechos y la gente». Pueden tener un «efecto de gatillo» y precipitar un determinado pensamiento, emoción y/o comportamiento[3]. Y es muy importante advertir que «es significativo el gran número de desencadenantes sensoriales subliminales que hay – tan breves o mínimos que no los notamos conscientemente o que son de un tipo que, incluso, aunque los notásemos, parece que son irrelevantes para el comportamiento que se produce posteriormente- (…). Las señales sensoriales pueden dar forma a nuestro comportamiento inconscientemente».

Algunos ejemplos (entre otros muchos), pueden contribuir a ilustrar lo anterior. Desde un punto vista visual, el género de una cara se procesa en una exposición de 150 milisegundos (y el estatus social, en una de 40 milisegundos)[4]. Obviamente, es un tiempo tan corto que las personas no están siquiera seguras de haber visto algo. A su vez, las señales auditivas subliminales también alteran el comportamiento. Las personas piensan que las patatas fritas saben mejor cuando oyen sonidos crujientes. Y lo mismo cabe decir del olfato[5]. También es posible generar estímulos inconscientes a través de las palabras, afectando a nuestro comportamiento. Por ejemplo, en el conocido juego experimental económico del dilema del prisionero, los participantes tienden a cooperar más si previamente se les informa que están jugando al «juego de la comunidad», a si se les informa que se denomina el «juego de Wall Street»[6]. Y el orden o estructuración de la información también puede alterar sustancialmente el comportamiento de las personas. Como afirma Daniel KAHNEMAN, en su conocida Teoría de las Perspectivas, «La afirmación de que ‘las probabilidades de supervivencia un mes después de la cirugía son del 90 por ciento’ hace que nos sintamos más seguros que la de que ‘la mortalidad un mes después de la cirugía es del 10 por ciento’»[7]. Otros experimentos han evidenciado la influencia de otros factores mucho más sutiles: la presencia de una bandera de tu propio país hace que las personas rellenen un cuestionario expresando principios igualitarios más acusadamente[8]; y algo similar sucede con el contexto o ambiente social que nos rodea[9]. De hecho, en la dicotomía Nosotros-Ellos, las supuestas cogniciones racionales sobre Ellos también pueden ser manipuladas de manera inconsciente. Incluso, la propia dicotomía puede crearse por debajo del nivel de conciencia[10].

El efecto combinado de big data y la expansión sin precedentes de la estadística computacional (todavía lejos de la «inteligencia» en el sentido humano del término) está posibilitando una cartografía humana exhaustiva y desvelando patrones hasta la fecha ocultos. Nuestras intenciones, emociones y estados de ánimo, como si estuvieran tras una pared de cristal, ya pueden ser leídos.

Los síntomas de que estamos en la antesala de una gran transformación empiezan a exteriorizarse con fuerza. A medida que la interacción (más o menos invasiva) con dispositivos electrónicos se incremente, mayor será la información sobre los patrones que rigen la mente inconsciente y, por lo tanto, el riesgo a padecer un condicionamiento subliminal que nos guíe de forma imperceptible se irá incrementando paulatinamente. Especialmente porque, aunque las personas pueden ser conscientes de muchos aspectos de su entorno, no necesariamente tienen que serlo respecto de cómo estos aspectos ambientales ejercen influencia sobre sus pensamientos y comportamiento: «estas influencias no son perceptiblemente subliminales, pero siguen siendo subliminales en su influencia»[11].

Como es fácil de advertir, esto socaba profundamente la idea de acto libre y voluntario y, sin lugar a dudas, cortocircuita la de identidad. En paralelo, repárese que, si el consentimiento está comprometido, también debe estarlo la idea de «culpa» y, por consiguiente, de «responsabilidad» derivada de nuestros propios actos. En definitiva, a la luz de esta realidad en ciernes, la necesidad de articular un marco que nos proteja frente a nosotros mismos y frente a quienes, accediendo a este nivel de intromisión, tratan de sacar provecho, es una emergencia que no puede posponerse. Como saben, llevo algún tiempo advirtiendo de la necesidad de crear un nuevo estatuto jurídico, a través de los denominados «derechos del yo inconsciente de la persona» (o «derechos YIP«), que contenga estas intromisiones (compartiendo la oportunidad de esta aproximación y la denominación sugerida, RECHE TELLO, 231).

Aunque es difícil anticipar cuáles de los posibles cursos de esta evolución acabará materializándose, hay señales que invitan a pensar que es posible que este ímpetu tecnológico se despliegue vastamente en el entorno sociolaboral. La confluencia de incentivos organizativos, productivos y económicos podrían erigirse en los factores aceleradores de este proceso y convertir a las empresas en una zona cero de este fenómeno. El ámbito socio-laboral es un espacio especialmente propicio para la psicometría y, con ella, habilitar al condicionamiento subliminal del comportamiento y/o del pensamiento.

Y, como se desprende del art. 5 de la Ley de Inteligencia Artificial, esta posibilidad ha dejado de ser una quimera.

 

El Reglamento de Inteligencia Artificial como respuesta (insuficiente)

El Reglamento de Inteligencia Artificial de la UE (en adelante, RIA) ha dado un primer paso en este sentido. Especialmente porque, en primer lugar, verbaliza la existencia de este riesgo y de su potencial amenazador; y, en segundo lugar, es la primera medida legislativa dirigida a contenerlo de forma explícita (y que discurre paralela al debate internacional sobre los conocidos neuroderechos[12]). Desde este punto de vista, el apartado a) del art. 5.1 debe ser calificado como un gran avance.

No obstante, lamentablemente, se ha quedado corto. Son muchas las sombras que arroja. O, para decirlo con mayor claridad: los espacios habilitados para que la IA pueda ser utilizada para condicionar a las personas por debajo del nivel consciente son muy superiores de lo que sería deseable. Como se expondrá posteriormente, en un marco normativo regido por el Estado de Derecho y al amparo de la Carta de Derechos Fundamentales de la UE (CDFUE), esto no debería haberse tolerado (o, mejor dicho, su contenido deberá operar como un límite infranqueable a pesar del RIA).

La literalidad del precepto es la que sigue:

«La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un grupo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que una persona tome una decisión que de otro modo no habría tomado, de un modo que provoque, o sea probable que provoque, perjuicios considerables a esa persona, a otra persona o a un grupo de personas».

 La debilidad de este escudo protector puede apreciarse a partir del estudio detenido de los elementos descriptores del supuesto de hecho[13]. Como punto de partida, repárese que la intromisión prohibida se refiere de forma explícita al empleo de técnicas subliminales que operen por debajo del nivel consciente, o bien, a técnicas intencionadamente manipuladoras o engañosas. Aunque se establece esta distinción, en puridad, las primeras podrían ser calificadas como un subtipo de las segundas, porque la naturaleza de las notas características es compartida. En efecto, toda estrategia con propósito subliminal es inevitablemente intencional porque, al pretender eludir la mente consciente, es difícil que no se haga con la voluntad de manipular o engañar a las personas.

Este impacto debe ser deliberado (buscado expresamente), o bien, un resultado indirecto. Aunque esto último es interesante en términos de protección, adviértase que debe ser de una determinada intensidad: se exige que su afectación en el comportamiento sea «sustancial». La concreción de esta incidencia viene dada por dos factores que deben concurrir simultáneamente. De modo que, si no se dan ambos, debe colegirse que el condicionamiento por debajo del nivel consciente estará permitido. Estos factores son los siguientes:

– Primero, las técnicas empleadas (subliminales, manipuladoras y/o engañosas) se prohíben si limitan la «capacidad» para tomar una decisión informada de forma «apreciable». Formulado en estos términos, parece que el condicionamiento debe ser de tal entidad que prácticamente anule la voluntad humana: bien, porque se niega la propia intención y/o bien, la autoconciencia de lo que se hace. Esta intromisión heterónoma, al impedir adoptar una decisión informada, debe reducir el elemento volitivo del sujeto afectado, convirtiéndolo en algo similar a la condición de zombi. Por consiguiente, si no se llega a este extremo, la afectación por debajo del nivel consciente deberá ser admitida.

– Segundo, la regla prohibitiva del art. 5 RIA sólo se despliega si la intromisión heterónoma lleva a una persona a adoptar una decisión que, de otro modo, no habría tomado. Es decir, si antes del condicionamiento ya tenía «pensado» ese curso de acción con plena determinación, no se activa la prohibición.

Es obvio que este requisito plantea un problema jurídico de extrema complejidad porque obliga a comparar dos escenarios (ya de por sí, difícilmente determinables):

– Por un lado, exige valorar un estadio previo a la decisión tomada muy etéreo (¿qué entidad debe tener este pensamiento previo para que se entienda que, antes del condicionamiento imperceptible, era una decisión ya tomada?). Repárese que es muy posible que el propio afectado no sea siquiera capaz de apreciarlo; o, si puede hacerlo, no pueda medir la determinación con la que quería tomar esa decisión (pudiendo ser una de las muchas alternativas al alcance). Como puede imaginarse, acreditar este extremo raya lo imposible.

– Por otro lado, exige constatar un contrafactual. En efecto, debe proyectarse un acontecimiento hipotético que, aunque pudo ser posible si las decisiones se hubieran tomado de otro modo, no se ha materializado en el mundo real. En estas condiciones (teniendo siempre presente que ha mediado un susurro imperceptible), se está exigiendo la acreditación de un hecho ajeno a la realidad (porque apela a un escenario que no se ha materializado). En definitiva, es muy difícil saber qué hubiera podido pasar si no se hubiera producido la intromisión por debajo del nivel consciente. Como apuntan Judea PEARL y Dana MACKENZIE, el razonamiento contrafactual, que se ocupa de dar respuesta a la pregunta «¿y si…?» (como, por ejemplo, «¿y si no hubiera ido a la playa, qué habría pasado?»), se caracteriza porque la observación empírica no puede ni confirmar ni rebatir las respuestas a tal clase de preguntas[14].

La resultante de esta comparación (sobre un estadio previo difícilmente medible y un contrafactual que ni es confirmable ni rebatible) arroja un problema en términos de identificación y acreditación procesal insuperables.

– Y, tercero, sólo se prohíben los condicionamientos que causen un daño significativo (un «perjuicio considerable»). Aunque no es necesario que el daño se materialice (pues, basta que sea «probable» que se produzca), es obvio que su evaluación plantea no pocos inconvenientes, especialmente, en términos de relación de causa y efecto; y, obviamente (y de nuevo), de su acreditación. Además, conviene no olvidar que el uso de estos instrumentos subliminales, manipuladores y/o engañosos está prohibido en la medida que incida en el «comportamiento» de una persona. Por consiguiente, la prohibición no se extiende a intromisiones que simplemente condicionen una «emoción» o un «pensamiento» (consciente y/o inconsciente). Aunque podría suceder que este «cognito inducido» no se materialice en una conducta específica de forma inmediata, dada la predominancia de la mente inconsciente, puede que los efectos de esta alteración se posterguen en el tiempo (de modo que la relación de causa-efecto sea difícil de demostrar).

El efecto combinado de estos tres factores permite concluir que el condicionamiento por debajo del nivel consciente no se ha formulado en el RIA con parámetros restrictivos: se permite cualquier afectación que permanezca por debajo de un determinado umbral; o, incluso, por encima, si no es probable que se cause un perjuicio, o bien, aunque lo sea o se materialice, si es de baja intensidad. Además, la delimitación de este margen de condicionamiento tolerado plantea serios inconvenientes. En particular, porque la «consideración de un perjuicio» es difícil de calibrar. Como se ha expuesto, con la ciencia actual es muy complejo medir y/o evaluar cómo la mente inconsciente afecta a las decisiones del yo consciente. Además, en este entorno neuronal, es ilusorio pensar que seremos capaces de establecer en términos jurídicos y de acreditación probatoria un parámetro de comparación que permita saber si algo es más o menos «perjudicial».

 

Los límites infranqueables del derecho de la UE

El grado de tolerancia normativa en el uso de las técnicas subliminales recién expuestas no debe limitarse únicamente a lo descrito en el RIA, sino que debe ser lo más omnicomprensiva posible. En efecto, aunque el art. 5.1 no prohíbe todo tipo de condicionamiento subliminal (como, por ejemplo, sí hace establece para la publicidad el art. 3.c de la Ley 34/1988, de 11 de noviembre, General de Publicidad[15]), esto no quiere decir que la comercialización de este tipo de tecnología no se tope con algunos límites del Derecho de la Unión infranqueables (o difícilmente superables)[16].

En efecto, el encaje pacífico del art. 5.1 RIA con otros preceptos del Derecho de la UE puede ser complejo. Por ejemplo (sin ánimo de exhaustividad), recuérdese que el art. 3.1 CDFUE establece que «Toda persona tiene derecho a su integridad física y psíquica» (formulación muy similar a la prevista en el art. 15.1 CE)[17]. Como se acaba de exponer, una IA que emplee técnicas subliminales, pero que no cause un perjuicio considerable, no estará prohibida. Sin embargo, al margen de la resbaladiza discusión sobre la entidad del daño y el posible escenario contrafáctico apuntado, no cabe duda que sí puede calificarse como una intromisión no deseada en la mente y, por consiguiente, una vulneración de la integridad física y psíquica de las personas (de hecho, al ser subliminal, es difícil medir en qué medida alguien podría dar un consentimiento válido a una intromisión de esta naturaleza).

A mayor abundamiento, si el condicionamiento deliberado por debajo del nivel consciente altera la voluntad individual (la capacidad para tomar una decisión informada), también puede ser calificado como una vulneración del art. 1 CDFUE que proclama «La dignidad humana es inviolable. Será respetada y protegida». Especialmente porque cercena la posibilidad de las personas de decidir su rumbo y, de este modo, también socaba profundamente su libertad (vulnerándose también el art. 6 CDFUE). Si nuestra autonomía y capacidad de actuar y elegir libremente está comprometida (porque algunas opciones han sido deliberadamente susurradas), ya no podremos decir (en términos de la filosofía kantiana) que actuamos conforme a una ley que nos damos a nosotros mismos. En tal caso, lo haremos sometidos a unos fines dados desde fuera de nosotros (porque han sido intencionadamente dictados por terceros).

En paralelo, la limitación de las elecciones (porque algunas han sido subliminal y premeditadamente sugeridas frente a otras potencialmente al alcance) también corrompe el concepto de identidad, porque sin posibilidad de elección, es difícil acercarnos al concepto del yo[18]. Sin olvidar que, al tratarse de una actuación imperceptible, es claro que el interés de quien lo pone en marcha responde a una voluntad torticera: aspira a impedir la intervención consciente de la voluntad.

De todo lo anterior, también podrían desvelarse otras fricciones relevantes. En efecto, cualquier susurro imperceptible que condicione la conducta podría ser calificado como un acto contrario a la voluntad de uno mismo. O, al menos, de la conscientemente valorada. Si esto es así, este tipo de tecnología estaría lindando la frontera de la prohibición de servidumbre que proclama el art. 5.1 CDFUE (y, obviamente, si se desarrolla en el marco del trabajo por cuenta ajena, de la prohibición de la esclavitud o trabajo forzado – art. 5.1 y 2 CDFUE).

A su vez, en la medida que los susurros de la IA, en aras a generar un bucle de reforzamiento constante, se enriquezcan con los datos del propio usuario que la emplea, se encontrará con los límites del Reglamento General de Protección de Datos (RGPD). Como se acaba de exponer el carácter subliminal choca frontalmente con la garantía de transparencia informativa que proclama el RGPD. De hecho, es difícil saber cómo una herramienta pensada para operar de forma imperceptible puede cohonestar con el contenido de los arts. 5, 12.1, 13.2.f y 14.2.g y 22 RGPD. Un simple repaso de los mismos puede contribuir a evidenciar un estadio de contradicción difícilmente superable.  A partir de los principios básicos que deben regir el tratamiento de datos (art. 5), el art. 12.1 exige al responsable del mismo que tome las medidas oportunas para facilitar al interesado toda información sobre obtención de los datos (arts. 13 y 14), así como cualquier comunicación relativa a su tratamiento con arreglo a lo previsto en diversos preceptos y, en particular (a estos efectos), en el art. 22. Debe hacerlo de forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo. De lo que se deduce que debe hacerse de forma continua en el tiempo (de otro modo, difícilmente se cumplirían estas condiciones). Si la obtención de datos (facilitados por el propio interesado o no) será empleada para alimentar decisiones automatizadas, el responsable del tratamiento debe informar de su existencia y, al menos, ofrecer información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado (arts. 13.2.g y 14.2.g)[19]. Lo que, ciertamente, es difícil imaginar que esto sea factible en un entorno de condicionamiento por debajo del nivel consciente.

Finalmente, el art. 5 RIA podría entrar en oposición frontal con la medida de garantía recogida en el art. 22 RGPD y que reconoce el derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado (incluida la elaboración de perfiles), que produzca efectos jurídicos en el interesado o le afecte significativamente de modo similar[20].

En definitiva, a la luz de todo lo anterior, hubiera sido más oportuno que el art. 5.1 RIA hubiera prohibido de forma absoluta el condicionamiento subliminal.

 

 


Nota: la presente publicación es un fragmento adaptado del trabajo titulado «Hacia el estatuto del yo inconsciente de las personas trabajadoras», desarrollado en el marco del Proyecto ALEXNE y que será publicado, en breve, en un número monográfico de la Revista Derecho y Trabajo.

 

Si les interesa la regulación de la IA, como exponía al inicio de esta entrada, un grupo de iuslaboralistas hemos diseñado esta iniciativa Interblogs que les animamos a seguir. Esta es la tercera entrada de las siguientes previstas:

 

Tema Autor/autora Blog fecha
El reglamento europeo de IA y su afectación al ámbito laboral Miguel Rodríguez-Piñero https://grupo.us.es/iwpr/2024/04/08/el-reglamento-europeo-de-ia-y-su-afectacion-al-mundo-laboral/ Semana del 8-12 de abril
Reglamento europeo de IA y su coordinación con el Reglamento de protección de datos Adrián Todolí https://adriantodoli.com/2024/04/18/reglamento-europeo-de-ia-y-su-coordinacion-con-el-reglamento-de-proteccion-de-datos-iniciativa-interblogs/ Semana del 15-19 de abril
Las prohibiciones del REIA como protección del neurosciente humano Ignasi Beltrán de Heredia https://ignasibeltran.com/2024/04/22/las-prohibiciones-del-reglamento-de-inteligencia-artificial-como-proteccion-del-neurosciente-humano-iniciativa-interblogs-3/ Semana del 22-26 de abril
Los sistemas automatizados de reconocimiento de emociones Ana Belén Muñoz www.elforodelabos.es Semana 29-3 de mayo
Los usos de alto riesgo en el ámbito laboral de la IA y la autocertificación Jesús Mercader www.elforodelabos.es Semana del 6 al 10 de mayo
Las sanciones automáticas de la ITSS y el reglamento de IA Jose María Goerlich www.elforodelabos.es Semana del 13 al 17 de mayo
El reglamento de IA y la transparencia Daniel Pérez del Prado www.elforodelabos.es Semana del 20 al 24 de mayo
Las empresas de selección de personal y el reglamento de IA Antonio Fernández https://aflabor.wordpress.com/ Semana del 27 al 31 de mayo
Clausura Eduardo Rojo www.eduardorojotorrecilla.es Primera semana de junio

 

 

 

Notas al pie

 

[1] Leonard MLODINOW, Subliminal, op. cit., p. 46. No obstante, hay autores que reducen todavía más el % de la mente consciente (Joaquín M. FUSTER, Cerebro y libertad, Ariel, 2014, pp. 46 y 47): “El noventa y nueve por ciento – por decir un número – de lo que percibimos en nuestra vida cotidiana es inconsciente. De hecho, si no fuera así, tendríamos la corteza y la conciencia abarrotadas. Transitamos por el mundo inconscientemente ‘evaluando hipótesis’ – esto es, expectativas – sobre el mismo. Sólo si estas hipótesis son refutadas, llegamos a ser conscientes de ellas y de su falsedad”.

[2] John BARGH, Sin darse cuenta, B de Bolsillo, 2018, p. 136.

[3] Carl G. JUNG, El hombre y sus símbolos, Paidós, 1995, pp. 34 y 36.

[4] Robert M. SAPOLSKY, Compórtate, Capitan Swing, 2018, pp. 126 y 130. Y cuando se trata de evaluar a personas, añade (pp. 132 y 133): «aunque obtenemos la información subliminal a partir de señales corporales como la postura, la mayor cantidad de información la extraemos de los rostros» (y, en particular, de los ojos).

[5] Robert M. SAPOLSKY, Compórtate, op. cit., pp. 133 y 134. Quien, respecto del olfato afirma: «El sistema olfativo humano está atrofiado; aproximadamente el 40 por ciento del cerebro de una rata se dedica al procesamiento de los olores, frente al 3 por ciento que dedicamos nosotros. Sin embargo, seguimos teniendo vidas inconscientemente olfativas y, al igual que pasa con los roedores, nuestro sistema olfativo envía más proyecciones directas al sistema límbico que los demás sistemas sensoriales».

[6] Robert M. SAPOLSKY, Compórtate, op. cit., pp. 138 y 139.

[7] Daniel KAHNEMAN, Pensar rápido, pensar despacio, Debolsillo, 2013, p. 120.

[8] Robert M. SAPOLSKY, Compórtate, op. cit., p. 140.

[9] Robert M. SAPOLSKY, Compórtate, op. cit., p. 142 a 144.

[10] Robert M. SAPOLSKY, Compórtate, op. cit., p. 575 y 576.

[11] Matija FRANKLIN, Hal ASHTON, Rebecca GORMAN, Stuart ARMSTRONG, «Missing Mechanisms of Manipulation in the EU AI Act», The International FLAIRS Conference Proceedings, 35 (https://doi.org/10.32473/flairs.v35i.130723), p. 2.

[12] Por ejemplo, la «Declaración de León de la UE Sobre la neurotecnología europea: un enfoque centrado en la persona y basado en los derechos humanos» (octubre 2023). En este documento la UE trata de combinar la apuesta por las neurotecnologías y el respeto de la persona. Esta iniciativa corre paralela al estudio de la Oficina del Alto Comisionado para los Derechos Humanos sobre neurotecnología y derechos humanos (Resolución aprobada por el Consejo de Derechos Humanos, 6 de octubre 2022, A/HRC/RES/51/3: https://documents-dds-ny.un.org/doc/UNDOC/GEN/G22/525/04/PDF/G2252504.pdf?OpenElement) y a la Recommendation on Responsible Innovation in Neurotechnology de la OCDE de 2019 (https://www.oecd.org/science/emerging-tech/recommendation-on-responsible-innovation-in-neurotechnology.htm) y que «invita tanto a los poderes públicos como a empresas y desarrolladores a anticiparse y afrontar los déficits éticos, jurídicos y sociales que puedan surgir». Por su parte, el Consejo de Europa también ha abordado la intersección entre neurotecnologías y derechos humanos (Recommendation of the Council on Responsible Innovation in Neurotechnology, 2019 https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0457). No obstante, el informe de expertos a resultas del debate impulsado por el Consejo de Europa y la OCDE (titulado Neurotechnologies and Human Rights framework: Do we need new rights?, 2022 http://rm.coe.int/round-table-report-en/1680a969ed) sugiere que, quizás, es prematuro proceder a su positivización porque (entiende, alineándose con un sector de la doctrina) existe el riesgo a que la elaboración de nuevos derechos pueda dar lugar a su inflación, socavando (en su opinión) los derechos fundamentales existentes; y sugiere que bastaría con los instrumentos de protección vigentes. Por otra parte, debe mencionarse el Report of the International Bioethics Committee of UNESCO (IBC) on the ethical issues of neurotechnology, diciembre 2021, del Comité de Bioética de la UNESCO (https://unesdoc.unesco.org/ark:/48223/pf0000378724). En marzo de 2023, el Comité Jurídico Interamericano, siguiendo la senda de declaraciones anteriores, ha aprobado la Declaración de Principios interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos (https://www.oas.org/es/sla/cji/docs/CJI-RES_281_CII-O-23_corr1_ESP.pdf), recogiendo 10 principios (que sólo enumero): Identidad, autonomía y privacidad de la actividad neuronal; Protección de los Derechos Humanos desde el diseño de las neurotecnologías; Los datos neuronales como datos personales sensibles; Consentimiento expreso e informado de los datos neuronales; Igualdad, No Discriminación y Acceso equitativo a las neurotecnologías; Aplicación terapéutica exclusiva respecto al aumento de las capacidades cognitivas; Integridad neurocognitiva; Gobernanza transparente de las neurotecnologías; Supervisión y fiscalización de las neurotecnologías; y Acceso a la tutela efectiva y acceso a remedios asociados al desarrollo y uso de las neurotecnologías. Otras iniciativas precedentes dignas de consideración, como recoge Nuria RECHE TELLO («Nuevos derechos frente a la neurotecnología: la experiencia Chilena», Revista de Derecho Político, núm. 112, 2021, pp. 420 y 421). Para una síntesis de otras iniciativas más allá del contexto europeo (y, en particular, las latinoamericanas) véase en el Informe C (pp. 10 a 11).

[13] Un análisis de las diversas versiones previas de este precepto en Ignasi BELTRAN DE HEREDIA RUIZ, «Algoritmos y condicionamiento por debajo del nivel consciente: un análisis crítico de la propuesta de Ley de Inteligencia Artificial de la Unión Europea», Revista de la Facultad de Derecho de México, 73, 286, 2023 (pp. 621–650).

[14] El libro del porqué, Pasado y Presente, 2020, p. 20.

[15] El art. 4 de la misma define la publicidad subliminal en estos términos: «la que mediante técnicas de producción de estímulos de intensidades fronterizas con los umbrales de los sentidos o análogas, pueda actuar sobre el público destinatario sin ser conscientemente percibida».

[16] Todo ello, sin perjuicio (obviamente) de otros instrumentos internacionales que eventualmente pueden ser aplicables a los Estados miembros.

[17] La STEDH 8 de julio 2003, Sentges vs. Netherlands (https://hudoc.echr.coe.int/eng?i=001-23318), al respecto «private life includes a person’s physical and psychological integrity; the guarantee afforded by Article 8 of the Convention is primarily intended to ensure the development, without outside interference, of the personality of each individual in his relations with other human beings»

[18] Judea PEARL y Dana MACKENZIE, El libro del porqué, op. cit., p. 371.

[19] A la luz de las Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679 del GT29 (en adelante, Directrices), el concepto de significatividad de la lógica aplicada debe garantizar, siguiendo a Jesús MERCADER UGUINA («Riesgos, garantías y responsabilidades frente al uso de sistemas de inteligencia artificial», En Alfredo Abadías y Guillermo García (Coords.), Protección de los trabajadores e inteligencia artificial: la tutela de los derechos sociales en la cuarta revolución industrial, Atelier, 2022, pp. 140 y 141), que el interesado toma conciencia del «tipo de tratamiento que se está llevando a cabo con sus datos y le proporciona certeza y confianza sobre sus resultados». No obstante, como apuntan las Directrices (p. 28; y nota 40), el responsable no necesariamente ha de ofrecer «una compleja explicación de los algoritmos utilizados o la revelación de todo el algoritmo (…). La complejidad no es una excusa para no ofrecer información al interesado»

[20] En cuanto a la configuración de esta garantía desde la perspectiva de los procesos mentales, extensamente al respecto, Ignasi BELTRAN DE HEREDIA RUIZ, Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona, Aranzadi, pp. 173 a 177.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.