¿Somos un algoritmo (biológico)?

 

Un algoritmo (siguiendo a FRY, p. 8) es «un conjunto ordenado y finito de operaciones que permite hallar la solución a un problema». Es (siguiendo con la misma autora),

«simplemente una serie de instrucciones lógicas que muestran cómo realizar una tarea de principio a fin. En esta amplia definición, la receta de un pastel es un algoritmo, como lo es la lista de indicaciones que podríamos darle a un extraño que se ha perdido (…), [E]n teoría cualquier lista autónoma de instrucciones para lograr un objetivo concreto y definido podría calificarse de algoritmo».

En definitiva (HARARI, 2016, p. 100) es «un conjunto metódico de pasos que pueden emplearse para hacerse cálculos, resolver problemas y alcanzar decisiones».

La cuestión es: ¿nuestra actividad cerebral es un algoritmo? ¿Somos los humanos un algoritmo biológico?

Es posible que el proceso de acelerada automatización que estamos experimentando pueda condicionar la respuesta. De hecho, como expone FRY (p. 3), no deberíamos pasar por alto que los algoritmos «poseen el poder oculto de alterar lenta y sutilmente las pautas que dictaminan lo que significa ser humano».

Si las máquinas son cada vez más sofisticadas e, incluso, pueden/podrán interactuar con nosotros sin que seamos conscientes de su artificialidad, ¿en qué nos diferenciamos?

Soy consciente de que se trata de un tema extremadamente complejo que exigiría un análisis detallado y profundo – que excede de lo que puede ser abordado en una entrada de un blog.

No obstante, permítanme el atrevimiento y aproveche esta ocasión para tantear la cuestión, apuntando algunas ideas y valoraciones (que espero que les resulten interesantes y, en el mejor de los casos, les inviten a la reflexión y/o el debate).

¿Me acompañan?

 

El punto de partida: ¿los humanos son algoritmos complejos?

Siguiendo el enfoque de HARARI (2016, p. 101), que recoge el enfoque de los biólogos, los humanos son algoritmos complejos que producen copias de sí mismos:

«los algoritmos que controlan las máquinas expendedoras funcionan mediante engranajes mecánicos y circuitos eléctricos. Los algoritmos que controlan a los humanos operan mediante sensaciones, emociones y pensamientos».

De hecho, sostiene que (2016, p. 131 y 132), en la medida que los organismos son algoritmos, se colige que pueden ser representados en fórmulas matemáticas. De modo que, en un futuro, podría escribirse, por ejemplo, el algoritmo del miedo.

LATORRE (p. 106), por su parte, entiende que la simplificación que toda representación matemática de una neurona lleva aparejada no deja de ser una cuestión menor, pues, basta con sofisticar el modelo matemático para que asemeje más a la real. Especialmente, si se entiende que toda actividad cerebral puede reducirse a una sucesión de reacciones bioquímicas y señales eléctricas.

En definitiva, desde este punto de vista, la vida es un simple procesamiento de datos. Y, de ahí se colige que, a resultas de la combinación entre la biología y las matemáticas, es cuestión de tiempo que los algoritmos electrónicos acaben por descifrar los algoritmos biológicos y los superen (HARARI, 2016, p. 400 y 401).

Antes de abordar las implicaciones de esta afirmación y su impacto en la comprensión de la inteligencia humana, creo que conviene adentrarse en el posible origen de esta concepción o corriente de pensamiento.

 

¿Una nueva metáfora del cerebro?

A la luz de estas afirmaciones (que identifican al ser humano con un algoritmo), tengo la impresión que no deja de ser un nuevo estadio del intento humano (SWAAB, p. 30 y 31) de «comparar las funciones del cerebro recurriendo a modelos basados en los últimos avances tecnológicos de cada época».

En efecto (siguiendo con el mismo autor), en el Siglo XV, durante el renacimiento, cuando se descubrió la imprenta, el cerebro se describía como un «libro omniabarcante» y, en el Siglo XVI, la metáfora empleada para describir el funcionamiento del cerebro era la de el «teatro en la cabeza».

Posteriormente (siguiendo a CARR, 2011, p. 36 y 37), DESCARTES, en sus Meditaciones (1641), lo identificó con una máquina:

«afirmaba que el cerebro y la mente existen en dos esferas separadas: una material y otra etérea. El cerebro físico, como el resto del cuerpo, era un instrumento puramente mecánico que, como un reloj o una bomba hidráulica, actuaba de acuerdo a los movimientos de sus componentes. Ahora bien, este funcionamiento del cerebro, argumentaba Descartes, no explicaba el funcionamiento de la mente consciente. Como esencia del yo, la mente existe fuera del espacio, más allá de las leyes de la materia. Mente y cerebro se influían mutuamente (a través, según Descartes, de alguna acción misteriosa de la glándula pineal), pero seguían siendo sustancias totalmente independientes»

Esta concepción mecánica del cerebro (como si de una máquina de vapor se tratara o un reloj mecánico),

«se amplió y reforzó aún más con la llegada del ordenador —la ‘máquina pensante’— a mediados del siglo XX. Fue entonces cuando científicos y filósofos empezaron a referirse a los circuitos de nuestro cerebro, e incluso a nuestro comportamiento, como a ‘cableados’, comparables a los circuitos grabados en el sustrato de silicio de un microprocesador de computadora».

Y SWAAB (p. 32) afirma que

«si consideramos el cerebro como una máquina biológica racional que procesa información, la metáfora de nuestro tiempo que lo compara con un ordenador no resulta en absoluto inadecuada» (aunque entiende que es mejor identificarlo con un complejo centro de operaciones en un Estado de guerra).

Por su parte, PINKER (p. 64 y 65), tras rechazar que el cerebro funcione «como un ordenador digital y que la inteligencia artificial pueda llegar a copiar la mente humana o que los ordenadores son conscientes en el sentido de tener una experiencia subjetiva en primera persona», entiende que, a través de lo que se conoce como la «teoría computacional de la mente», puede afirmarse que «el razonamiento, la inteligencia, la imaginación y la creatividad son formas de procesado de información, un proceso físico bien conocido».

No obstante, apartándome de este enfoque (y si lo he comprendido bien), teniendo en cuenta uso del término «computacional» y la «proximidad» semántica del mismo con la informática y el cálculo (me remito al diccionario de la RAE.es), ciertamente, veo difícil que la propuesta de PINKER no pueda acabar calificándose como una nueva versión de las anteriores metáforas: esto es, la tendencia humana a tratar de comprender el funcionamiento del cerebro en función del estado de la técnica.

 

Si somos algoritmos biológicos, ¿qué nos diferencia de los artificiales?

De hecho, a partir de los enfoques mecánicos descritos en el apartado anterior, se puso en duda la idea de una mente inmaterial fuera del alcance de la observación y la experimentación (CARR, 2011, p. 36), refutando la teoría del dualismo que se atribuye a DESCARTES.

En efecto, como apunta HARARI (2016, p. 119), estos planteamientos tratarían de evidenciar que los humanos no poseen alma (la idea de su existencia sería, según él, difícilmente admisible desde el punto de vista de la teoría de la evolución de DARWIN). O, como apunta PINKER (p. 76), el «yo» «no deja de ser una red de sistemas cerebrales». Una mera consecuencia de reacciones «físicas» de nuestro cerebro.

Aunque, hay otros autores (LATORRE, p. 268 y ss.) que no descartan que la inteligencia artificial en algún momento pudiera imitar al alma humana.

En este sentido, es importante tener en cuenta que, en la actualidad (FRY, 103), los operadores de las redes neuronales «no llegan a entender cómo o por qué el algoritmo llega a sus conclusiones». Perdemos el trazo de lo que están haciendo, y sencillamente resuelven los problemas para las que han sido creadas. Lo que no deja de ser particularmente perturbador…

En todo caso, en la medida que tampoco somos capaces de identificar el trazo del pensamiento humano, ¿es esto un elemento que permita afirmar que las redes neuronales artificiales son ya «inteligentes», o bien, que podrán serlo en un futuro?

Y, en tal caso, si realmente somos algoritmos biológicos, ¿qué nos diferencia de los ordenadores o de la inteligencia artificial? O, si lo prefieren, ¿qué es lo que caracteriza a la inteligencia «humana»? Y, en el fondo, ¿qué nos hace «humanos» verdaderamente?

Sin olvidar que es difícil (por no decir imposible) hacer predicciones a futuro (el «problema del pavo» nos ha demostrado que es temerario hacerlo), es claro que (HARARI, 2016, p. 341) «no parece que los ordenadores estén a punto de tener conciencia ni de empezar a experimentar emociones y sensaciones».

De hecho, como apunta FRY (p. 14),

«aunque en los últimos tiempos la inteligencia artificial ha avanzado a pasos agigantados, todavía sigue siendo ‘inteligente’ solo en el sentido más restringido del término. Probablemente sería más útil interpretar lo que hemos estado viviendo como una revolución de la estadística computacional que de la inteligencia».

Sin embargo (siguiendo con HARARI, 2016, p. 350), partiendo de la base de que los humanos tienen dos tipos básicos de capacidades (físicas y cognitivas), en la medida que, afirma, los algoritmos acabarán siendo mejores que los humanos, recordando, analizando y reconociendo pautas, «la idea de que los humanos tendrán una capacidad única fuera del alcance de los algoritmos no conscientes es solo una ilusión».

Y, en esta línea también, para LATORRE (p. 275 y 88), «si logramos crear máquinas que imiten nuestras emociones, nuestro sentido vital, que se comporten de acuerdo a códigos compartidos, hablaremos de ellas como almas que podremos amar». Y, de hecho, de acuerdo con el test de TURING, «si la forma de relacionarse de un humano y de una máquina sin indistinguibles, ¿qué perjuicio nos impide otorgar inteligencia al algoritmo?». Así pues, «basta que las máquinas nos imiten suficientemente bien para que les otorguemos características humanas».

Llegados a este estadio y volviendo a la idea de FRY, expuesta al inicio de esta entrada, ¿en qué medida los algoritmos están socavando las pautas que nos describen como humanos?

 

¿Qué nos hace «humanos»?

Aunque de la literatura consultada (a sabiendas que es ínfima comparada con la que ha abordado esta cuestión) son diversas las teorías que se han propuesto al respecto, con mucha cautela (e infinita humildad) me atrevo a decir que parece existir un denominador común (o un cierto hilo conductor) en algunas de ellas.

Permítanme que se las exponga a continuación:

Por ejemplo, para HARARI, partiendo de la base de que la inteligencia y la conciencia no son una particularidad exclusivamente humana y que (como se ha apuntado, para él) el «alma» no existe, la particularidad que nos hace humanos es nuestra capacidad de cooperar de manera flexible en gran número, dando lugar a las realidades o redes intersubjetivas de sentido (que sólo existen en la imaginación común), como, por ejemplo, el dinero o una revolución ideológica (2016, p. 150 a 152 y 164).

De hecho, esta capacidad de imaginar quimeras coincidiría con el planteamiento de GILBERT (p. 25 a 27 y 35) cuando afirma que,

«el logro más importante del cerebro humano es su capacidad de imaginar objetos y acontecimientos que no existen en el reino de la realidad, y esta habilidad es la que nos permite pensar en el futuro. Como dijo un filósofo, el cerebro humano es una ‘máquina de anticipación’ y ‘crear futuro’ es lo más importante que hace».

Sin embargo, conviene precisar que, aunque otras especies animales también tiene capacidad para crear futuro, sólo los humanos podemos hacer predicciones a largo plazo (y no sólo inmediatas, locales y personales). Esto es, tenemos capacidad de prever con la imaginación una serie de hechos que todavía no se han producido (y el lóbulo frontal es la máquina del tiempo que «nos permite abandonar el presente y experimentar el futuro antes de que ocurra»).

Como apunta HARARI (2016, p. 172), «no hay otro animal que pueda medirse con nosotros, no porque carezcan de alma o de mente, sino porque carecen de la imaginación necesaria».

Desde otra perspectiva (TOMASELLO, p. 31), se ha afirmado que una capacidad cognitiva exclusivamente humana es

«comprender las relaciones intencionales que los seres animales tienen con el mundo externo y las relaciones causales que los objetos inanimados y los acontecimientos tienen entre sí».

Es decir, somos los únicos seres conscientes con capacidad de concebir a los demás como agentes intencionales que persiguen metas y como agentes mentales que piensan sobre el mundo (TOMASELLO, p. 35).

De algún modo (y espero no estar muy errado en mi valoración), creo que nuestra capacidad de comprender el mundo en términos de intencionalidad (o la mentalidad de los otros) y causalidad no deja de ser una manifestación de nuestra capacidad de imaginar (o hacer predicciones a largo plazo). Y la cuestión relativa a nuestra capacidad de comprender la fuerza subyacente causal o intencional (que puede ser inducida por muchos acontecimientos antecedentes distintos) es un aspecto clave.

Así pues (TOMASELLO, p. 39 y 40) la capacidad exclusivamente humana de comprender los sucesos externos en función de fuerzas causales o intencionales surgió, en primer término, para permitir que los individuos predijeran y explicaran la conducta de los miembros de su especie, y luego fue utilizada para entender el comportamiento de los objetos inertes. Y,

«Las ventajas competitivas del pensamiento intencional y causal son principalmente dos. En primer lugar, esta clase de cognición permite a los humanos resolver problemas de modo especialmente creativo, flexible y previsor. En muchos casos, la comprensión intencional y causal permite a un individuo predecir y controlar acontecimientos aunque su antecedente habitual no esté presente, si hay algún otro acontecimiento que puede servir para promover la fuerza determinante» (como por ejemplo, «crear una nueva herramienta para mover un obstáculo») (…).

La segunda ventaja de la comprensión intencional o causal deriva de su importante función transformadora en los procesos de aprendizaje social. La comprensión de la conducta de otras personas es intencional y/o mental hace posibles, de manera directa, ciertas formas muy eficaces de aprendizaje cultural y sociogénesis, y estas formas de aprendizaje social son directamente responsables de la formas especiales de herencia cultural características de los seres humanos».

 

¿Podrán los algoritmos imaginar o conocer las fuerzas intencionales?

Llegados a este punto, la pregunta que creo que debemos formularnos es los siguiente: ¿los algoritmos no biológicos o, incluso, la inteligencia artificial (cuando acontezca la singularidad) podrán adquirir esta capacidad imaginativa propiamente humana? ¿Son/serán capaces de conocer las fuerzas intencionales?

No cabe duda que (HARARI, 2016, p. 341)

«estamos desarrollando nuevos tipos de inteligencia no consciente que pueden realizar tareas que hasta la fecha requerían mucha inteligencia consciente (jugar al ajedrez, conducir o diagnosticar enfermedades). Y, en ocasiones, pueden hacerlo mejor, «porque se basan en el reconocimiento de pautas, y los algoritmos no conscientes podrían superar pronto a la conciencia humana en el reconocimiento de pautas o patrones».

No obstante, a mi entender, esta impresionante capacidad de identificación de patrones y pautas con un descomunal rendimiento (y cuyo registro posibilita un minucioso «rastreo» de nuestra conducta) está muy lejos de nuestra capacidad de imaginación (y del conocimiento de la verdadera fuerza intencional que la disciplina).

En efecto (ESTUPINYÀ, p. 203), corremos el riesgo de que el big data nos haga ver patrones donde no los hay, llevando a algunos a sufrir una pareidolia de datos.

Podría pensarse que esta objeción no deja de ser una derivada de la arrogancia humana respecto de nuestra «singularidad».

No obstante, siguiendo a DAMASIO (p. 11) si sentir (esto es, tener emociones y sentimientos) es un componente integral de la maquinaria racional, si un algoritmo (biológico o no) no está provisto de esta particularidad, como en el famoso caso del ferroviario PHINEAS CAGE, ¿cómo podemos atribuirle racionalidad y, por ende, «inteligencia»?

De hecho (siguiendo con GILBERT, p. 30 a 34), en este famoso accidente ferroviario (por si tienen curiosidad, una breve aproximación aquí), la lesión sufrida en el lóbulo frontal tras el accidente con la barra de acero, afectó también a la capacidad de planificar y, por consiguiente, hacer proyecciones a futuro de él mismo (anclándolo en una vivencia de un «presente permanente» – y, por tanto, despojándole de una de las facultades propiamente «humanas»).

Y, aunque es una cuestión controvertida, siguiendo a GIGERENZER (p. 23), creo que no podemos olvidar que la inteligencia humana a menudo funciona inconscientemente, a través de la intuición (y mucho mejor que si se hace mediante pensamiento consciente y reflexivo – al respecto también, el fantástico libro de GLADWELL). Y es difícil imaginar cómo replicar artificialmente esta dimensión de nuestra inteligencia.

 

Una metáfora todavía insuficiente (y no subestimemos la complejidad)

Con el conocimiento que atesoramos en este momento, la metáfora del cerebro como un algoritmo o la teoría computacional de la mente es probablemente la mejor forma que tenemos para tratar de comprender el funcionamiento de este órgano de aproximadamente 1’5 Kg.

No obstante, creo que no le hace justicia.

Especialmente porque, como el propio HARARI admite (2018, p. 342 y 341) en lo que respecta a la observación y análisis de nuestra propia mente «apenas hemos arañado la superficie». Es cierto que con la ayuda de microscopios, escáneres cerebrales y potentes ordenadores podemos investigar el cerebro e identificar cambios en las actividades bioquímicas y eléctricas que en él se producen. No obstante, esta información no es capaz de darnos «acceso a las experiencias subjetivas asociadas a dichas actividades».

Calificar a la actividad cerebral como un algoritmo no deja de ser una nueva tautología. Y de ahí que parece difícil que su simulación artificial (por muy sofisticada que sea) pueda ser calificada siquiera de «análoga» a las redes neuronales humanas.

De hecho, hasta la fecha, a la única mente a la que podemos acceder directamente es la de cada uno. En el resto de casos (esto es, la información extraída de otros seres sintientes), siempre es información de «segunda mano» HARARI (2018, p. 341).

No obstante,, llegados a este estadio, como apunta CARR (2011, 53 y 54), no podemos olvidar que

«El cerebro, embalado cuidadosamente en la caja de hueso que es el cráneo, no nos da ninguna señal sensorial de su existencia. Sentimos latir nuestro corazón, expandirse nuestros pulmones, revolvérsenos el estómago; pero nuestro cerebro, a falta de movilidad y terminaciones nerviosas sensoriales, sigue siendo imperceptible para nosotros. El origen de la conciencia está más allá del alcance de la conciencia».

Y añade,

«la cualidad extrañamente remota del cerebro —el modo en que parece a la vez formar parte de nosotros y estar apartado de nosotros— sigue influyendo de manera sutil en nuestras percepciones. Tenemos la sensación de que nuestro cerebro existe en un estado de espléndido aislamiento, que su naturaleza fundamental es inmune a los caprichos de nuestro día a día. Si bien sabemos que nuestro cerebro es un monitor exquisitamente sensible de la experiencia, queremos creer que está más allá de la influencia de la experiencia. Queremos creer que las impresiones que nuestro cerebro registra como sensaciones y almacena como recuerdos no dejan huella física en su propia estructura. Creer lo contrario, nos parece, pone en tela de juicio la integridad del yo».

Como apunta TALEB (p. 134 y 135), el hecho de que la neurociencia permita comprender «cómo funcionan las diversas subpartes del cerebro (es decir, las neuronas), nunca nos permitirá comprender cómo funciona el cerebro en sí mismo».

Es más, si todavía no somos capaces de comprender cómo funciona el cerebro de la primera unidad viviente cuyos genes fueron secuenciados – el gusano Caernorhabditis elegans (con aproximadamente 300 neuronas – cuyos diagramas funcionales han sido perfectamente definidos), desde un punto de vista matemático se colige que nunca seremos capaces de comprender el funcionamiento de las cien mil millones de neuronas que aproximadamente contiene el cerebro humano.

En efecto, siguiendo a ESTUPINYÀ (p. 92), no parece que exponencialidad computacional que se deriva de la Ley de Moore pueda ser capaz de acercarse a este propósito (según esta Ley, la potencia de los ordenadores se ha estado duplicando cada 18 meses). Así pues, existe un optimismo desmesurado por parte de ciertos científicos (y futurólogos) y eso les lleva a subestimar la complejidad.

En definitiva, como afirma CARR (p. 2011, p. 33), estamos lejos de comprender cómo los miles de millones de sinapsis que se producen dentro de nuestros cráneos provocan lo que pensamos o cómo nos sentimos.

 

Valoración final

A pesar de lo anterior, nos estamos volcando ciegamente en la nueva fe de los datos (el «dataísmo» – HARARI, 2016, p. 400).

Y, ciertamente, aunque los algoritmos artificiales tienen una descomunal capacidad de conectividad y actualización de datos (muy superiores a las humanas – HARARI, 2018, p. 41), tendemos a olvidar que (CARR, 2016, p. 144 a 147) son «sabios-idiotas», pues, la inteligencia informática es «eminentemente práctica y productiva», pero «absolutamente carente de curiosidad, imaginación y sentido real del mundo», mostrando todavía una «falta espeluznante de sentido común».

Y añade,

«su precisión es extraordinaria, pero muchas veces es un síntoma de estrechez de su percepción. Incluso ante preguntas susceptibles de respuestas probabilísticas, el análisis informático no es perfecto. La velocidad y aparente exactitud de los cálculos de un ordenador pueden enmascarar limitaciones y distorsiones de los datos subyacentes, por no mencionar las imperfecciones de los propios algoritmos de búsqueda de datos. Cualquier gran conjunto de datos contiene abundantes correlaciones espurias junto a las fiables».

De hecho, si no nos andamos con cuidado (HARARI, 2018, p. 93), «si invertimos demasiado en desarrollar la IA [inteligencia artificial] y demasiado poco en desarrollar la conciencia humana, la inteligencia artificial muy sofisticada de los ordenadores solo servirá para fortalecer la estupidez natural de los humanos».

Sin embargo, paradójicamente, les estamos confiando la anticipación del futuro a través de correlaciones basadas en datos del pasado (lo que ha dado pie a lo que se conoce como el «fundamentalismo de los datos» – CARR, 2016, p. 145). Y, como saben los lectores del blog, a la luz del «problema del pavo» (al que estoy recurriendo con cierta frecuencia últimamente) puede llegar a ser una fuente de consecuencias nefastas.

A pesar de ello, mostramos (cada vez más) una fe ciega a sus predicciones.

Y es posible explicar esta reacción desde el punto de visa de nuestros sesgos. En efecto, esto podría estar sucediendo porque (FRY, p. 18), en la medida que los algoritmos acierten en un número elevado de ocasiones, nos lleva a pensar que

«su juicio es siempre superior al nuestro; y al cabo de un tiempo ya ni siquiera somos conscientes de nuestro propio sesgo con respecto a ellos».

En definitiva, acabamos siendo víctimas de la perniciosa autocomplacencia o sesgo de automatización, al que me referí en otra entrada (CARR, 2016, p. 144).

No obstante (FRY, p. 247), olvidamos que la capacidad de los algoritmos de ser «perfectamente justos y equitativos» está muy lejos de ser una realidad. Y, por ello, debemos asumir que «siempre van a cometer errores; siempre serán injustos».

Partiendo de la base de que los algoritmos no son perfectos (como tampoco lo son los humanos), comparto con FRY (p. 248 y 249),

«los mejores algoritmos son los que tienen en cuenta al ser humano en todas y cada una de sus fases. Los que reconocen nuestro hábito de confiar excesivamente en el rendimiento de una máquina, a la vez que aceptan sus propias deficiencias y exhiben orgullosamente su incertidumbre a las claras».

Concluyendo, en la medida que se están convirtiendo en fuentes de poder, conviene cuestionar su arrogancia y decisiones, escudriñar los motivos que los disciplinan y responsabilizándolos de sus errores y, sobre todo, evitar caer en la autocomplacencia.

Espero que esta aproximación les haya resultado interesante.

 

 


Bibliografía citada

  • CARR, R. (2016), Atrapados, Taurus.
  • CARR, R. (2011), Superficiales, Taurus.
  • DAMASIO, A. R. (1996), El error de Descartes, Editorial Andrés Bello.
  • ESTUPINYÀ, P. (2017). El ladrón de cerebros, Debolsillo.
  • FRY, H. (2019), Hola Mundo. Blackie Books.
  • GIGERENZER, G. (2008), Decisiones instintivas. Ariel
  • GILBERT, D. (2017), Tropezar con la felicidad. Ariel. 
  • GLADWELL, M. (2005). Inteligencia intuitiva, Debolsillo.
  • HARARI, Y. N. (2018). 21 Lecciones para el Siglo XXI. Debate.
  • HARARI, Y. N. (2016), Homo deus, Penguin Random House.
  • LATORRE, J. I. (2019), Ética para máquinas, Ariel.
  • PINKER, S. (2003), La tabla rasa. Paidós.
  • SWAAB, D. (2014), Somos nuestro cerebro. Plataforma Actual. 
  • TALEB, N. N. (2019). Jugarse la piel, Paidós. 
  • TOMASELLO, M. (2007), Los orígenes culturales de la cognición humana. Amorrurtu Editores.

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.