La profesora Lisa FELDMAN BARRETT en su fantástico libro «La vida secreta del cerebro» afirma (306)
«entre neurociencia y el sistema jurídico hay una gran falta de sincronización en cuestiones fundamentales sobre la naturaleza humana. Estas discrepancias se deben abordar si queremos que el sistema jurídico siga siendo uno de los logros más importantes de la realidad social, y si queremos seguir protegiendo los derechos inalienables de las personas a la vida, la libertad y la búsqueda de la felicidad».
La necesidad de esta simbiosis podría acrecentarse con la irrupción de la estadística computacional y los algoritmos. Especialmente porque, como les expuse en «La irrupción de los algoritmos en el Derecho del Trabajo» lo cierto es que, de algún modo, estas herramientas están contribuyendo a desencriptar ciertos patrones de nuestro comportamiento.
En efecto, «los algoritmos de aprendizaje profundo reconocen rasgos de la programación humana, de nuestro código fuente, que todavía no hemos sido capaces de articular con palabras (….). Los programas informáticos han detectado rasgos que guían nuestras preferencias, y que podemos intuir pero no articular» (SAUTOY, Programados para crear, 110 y 111).
Psicometría y patrones conductuales emergentes
La psicometría (Byung-Chul HAN, Infocracia, 35 a 37), también conocida como «psicografía», es un «procedimiento basado en datos para obtener un perfil de personalidad». El potencial de estas herramientas radica en el hecho de que estos perfiles «psicométricos permiten predecir el comportamiento de una persona mejor de lo que podría hacerlo un amigo o un compañero».
De hecho, «con suficientes datos, es posible incluso generar información más allá de lo que creemos saber de nosotros mismos».
Y, en este contexto, el smartphone juega un papel absolutamente medular, pues, como «informante» (nuestra nueva «extremidad artificial»), es «un dispositivo de registro psicométrico que [¡voluntariamente!] alimentamos con datos día a día, incluso cada hora». Por este motivo, «puede utilizarse para calcular con precisión la personalidad del usuario».
Siguiendo con HAN (22 y 23), a partir de la idea de Walter BENJAMIN, que atribuía a la cámara cinematográfica la capacidad de acceder de forma especial al inconsciente de las personas (denominándola el «inconsciente óptico»), pues, los primeros planos y la cámara lenta permitían visibilizar «micromovimientos y las microacciones que escapan al ojo humano», en la actualidad, el big data y la estadística computacional operan como una «lupa digital que descubre el inconsciente oculto del agente tras el espacio consciente de la acción».
Pero en otros ámbitos se están empleando estas herramientas con un impacto más profundo: hay investigadores que (a partir de una concepción errónea de cómo se generan las emociones FELDMAN, 45) emplean algoritmos para analizar escáneres cerebrales y creen que son capaces de detectar las huellas dactilares neurales de las emociones (como la ira o el miedo) y, de este modo, alcanzar lo que se conoce como «adivinación neural del pensamiento».
En cualquier caso, ciertamente sería un error pensar que estamos simplemente ante un estadio evolucionado de las formas ocultas de propaganda que, iniciando una nueva era de la publicidad, exponía hace décadas Vance PACKARD. En realidad, se trata de un salto que describe un nuevo orden de magnitud, pues, la psicografía que se obtiene de esta información permite lo nunca antes alcanzado: un microtargeting con una granularidad tan fina que la personalización, literalmente, «a la carta» es ya una realidad. Conocer el psicograma de cada una de las personas se ha convertido en un propósito que, como les expuse en «El saqueo de nuestra privacidad y la corrosión de la democracia de la sociedad digital«, no sólo es posible, sino que está siendo perseguido crecientemente por empresas e instituciones.
En el fondo, se aspira a que, a través del inconsciente digital, pueda influirse sobre el comportamiento humano por debajo del umbral de la conciencia (un conductismo digital severo o radical).
Por ejemplo, reparen en lo que se conoce como la «ilusión del libre albedrío» (FELDMAN, 88): el cerebro hace uso de la predicción para iniciar movimientos corporales (como alargar el brazo para coger una manzana o huir de una serpiente). Estas predicciones se dan antes de que seamos conscientes de la intención de mover el cuerpo. Es decir,
«el cerebro emite predicciones motrices para mover el cuerpo mucho antes de que seamos conscientes de la intención de moverlo (…). Si el cerebro fuera sólo reactivo sería demasiado ineficiente».
Pues bien, el propósito es aguijonear en (HAN, 23) estas «capas prerreflexivas, instintivas y emotivas del comportamiento que van por delante de las acciones conscientes». Este apoderamiento ya no sólo persigue un propósito comercial, sino que ya ha dado el paso hacía la psicopolítica (el escándalo de Cambridge Analytica podría ser una buena muestra).
Y, para que vean que no se trata de meras especulaciones (o futuribles remotos), reparen que el art. 5.1.a) de la Propuesta de Reglamento en materia de Inteligencia Artificial ya describe el riesgo en estos términos: «un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento«.
Una vez hemos sido «perfilados» (siguiendo a HAN, 48 – que cita a Eli PARISER), las
«máquinas pronosticadoras crean y refinan continuamente una teoría sobre su personalidad y predicen lo siguiente que usted querrá hacer. Juntas, estas máquinas crean un universo único de información para cada uno de nosotros y cambian fundamentalmente el modo en que accedemos a las ideas y a la información».
Es la «utopía de certeza» a la que se refiere Shoshana ZUBOFF (El capitalismo de la vigilancia). En cualquier caso, de nosotros depende cortar (o, si lo prefieren, dosificar) el flujo de este imperativo extractivo sobre nosotros mismos (en el que participamos despreocupadamente, sin reparar excesivamente sobre los efectos colaterales a corto, medio y largo plazo).
De momento, (parece que) seguimos teniendo cierta soberanía al respecto (y espero no que se convierta en el último reducto de nuestra libertad).
Pastoreo social (¿y derechos YIP?)
A la espera de nuevos avances de la neurociencia sobre la condición humana y nuestra capacidad de control real sobre nuestro comportamiento (desconociendo hasta qué profundidad podremos llegar), como ya les expuse en otro momento, quizás, deberíamos empezar a exigir la protección frente a las violaciones deliberadas de nuestro yo inconsciente. Y no esperar a actuaciones reactivas una vez se constate la intromisión ilegítima (si es que somos capaces de detectarlas).
Sin perjuicio de otras derivadas (y salvo error y/o mejor doctrina), el derecho a la libertad, probablemente, es que que esté más comprometido (o el que está más expuesto). Pero no sólo, pues, el individualismo (entendido como individuo libre que actúa de forma autónoma) es visto como un fenómeno a erradicar (ZUBOFF, 581 y ss.; HAN, 66 a 70). Reparen, por poner otros ejemplos de posibles implicaciones, que el propio concepto de consentimiento puede verse comprometido y determinadas compulsiones pueden traducirse en comportamientos de carácter obsesivo o, incluso, en trastornos severos de la salud.
De ahí que deberíamos prevenirnos frente a cualquier correlación no espuria que la estadística computacional sea capaz de desvelar y que opere como factor precipitador previo, inmediato y decisivo de una posterior acción humana por debajo del nivel consciente.
Si la estadística computacional es capaz de detectar patrones conductuales emergentes que inciden en nuestra capacidad decisoria y, por ende, nuestro comportamiento, deberíamos, como mínimo, conocerlos.
Es obvio que quien tenga esta información (y, además, obtenga una ventaja competitiva) no estará dispuesto a compartirla – o será muy reacio a hacerlo (y, no nos engañemos, también es difícil que las personas acaben ejerciendo el derecho que les reconoce el art. 22 del RGPD). De ahí que la intensificación de la protección legal sea determinante. En este sentido, creo que las referencias contenidas en el Reglamento de Protección de Datos y la Propuesta de Reglamento de Inteligencia Artificial, aunque abordan aspectos muy importantes, se quedan cortas.
Si, efectivamente, estamos hablando de herramientas efectivas que operan por debajo de nuestro nivel consciente, es posible que necesitemos un marco jurídico que (paradójicamente) nos dé amparo frente a nosotros mismos y, obviamente también, frente a quienes quieran aprovecharse de nuestros actos por debajo de dicho umbral. No se trata sólo de saber que hemos sido «perfilados» (automatizadamente o no), sino de cortocircuitar jurídicamente a quienes eventualmente traten de pastorearnos, con la idea de subyugarnos a sus intereses.
En algunos foros se empieza a hablar de la necesidad de articular un conjunto de derechos de nueva generación y se habla de «neuroderechos». Aunque el término «neuro» tiene mucho «enganche» (y, probablemente, acabará predominando), quizás (no sé cómo lo valorarán ustedes), sería más oportuno definirlos como los «derechos para proteger el yo inconsciente de las personas» (y, si quieren un acrónimo – quizás, un poco «kitsch» -, «derechos YIP»).
En todo caso, al margen del nombre, no deberíamos despreciar el riesgo que ya nos está amenazando.