El mecanismo proyectivo como base de producción de las emociones en la inteligencia artificial
Mario Donoso
Doctorando de la Universidad de París 8

Pintura Algorítmica «Nous (9)»: Jaime de los Ríos
La cuestión de la inteligencia artificial, en la historia de la filosofía, aparece como absurda. Descartes introduce la figura del autómata, una máquina que, tanto por su funcionamiento como su apariencia, podría pasar por un humano. El ejemplo clásico de Descartes es el de los autómatas que, vestidos de hombres, parecen, desde la ventana a la que se asoma el filósofo, verdaderos humanos. ¿Cómo distinguir estos hombres en apariencia de los verdaderos hombres? Para responder a la cuestión, sin proponérselo, Descartes introduce el germen de la problemática de la inteligencia artificial. En una carta de marzo de 16381 , Descartes señala claramente que las únicas dos maneras de distinguir al hombre de la máquina son expuestas en su Discurso del Método: en primer lugar, el lenguaje, es decir la coherencia del discurso o de una respuesta; en segundo lugar, la carencia en las máquinas de muchas cosas que el hombre posee. Así, es la primera respuesta la más válida porque, como señala en la carta a Morus de febrero del 1649 la palabra es “la única marca asegurada del pensamiento escondida y encerrada en el cuerpo”2. Las respuestas de la máquina no están a la altura de un hombre que piensa, lo que hace que la distinción entre hombres y máquinas sea clara. En definitiva, no existe, para Descartes, la posibilidad de una inteligencia artificial: la inteligencia, siempre del lado de los hombres, es lo que permite distinguir a los verdaderos humanos de los autómatas que simulan la apariencia de la humanidad.
Tanto la pregunta cartesiana como su respuesta, en nuestros días, evocan una sonrisa en el lector. Desde el test de Searle3 hasta el ordenador que juega al ajedrez con Kasparov (por no citar nada más que ejemplos clásicos) pasando por los programas capaces de mantener una conversación ya no tan simple, la coherencia en el habla y la capacidad de responder preguntas de manera coherente que Descartes propone parecen criterios poco fiables para distinguir un humano de un robot. Comparado con Samantha, la primera muñeca sexual con inteligencia artificial que habla y siente, tal y como la presentan sus vendedores en internet4; comparado con otra Samantha, la de la película Her, o con los desarrollos de la informática, el autómata cartesiano con su capa y su chambergo parece perdido en el tiempo.
Los desarrollos técnicos no sólo han introducido una mayor complejidad a la vieja máquina cartesiana sino también un cambio de paradigma en lo que se refiere a su relación con el hombre: el paradigma de la inteligencia artificial. La máquina es de responder como un hombre, de manera coherente y adecuada en situaciones comunicativas cada vez más complejas. Así pues, como la lógica y la coherencia de la máquina no pueden ser un criterio, al parecerse cada vez más a la lógica humana, el criterio ha girado hacia la dimensión afectiva: la máquina puede jugar al ajedrez y ganar, pero no puede amar. El nuevo criterio generalmente aceptado para distinguir al hombre del robot es emocional. Sin embargo, este nuevo criterio no logra imponerse por completo. La relación con el robot se injerta cada vez más en la afectividad humana y no de manera accidental. Toda una industria del afecto se está desarrollando para precisamente producir máquinas a quien amar, desde Samantha u otras muñecas como las RealDolls, cuya personalidad puede moldearse a gusto, hasta los robots que cariñosamente cuidan ancianos en Japón. La inteligencia artificial se acompaña de una emocionalidad artificial cada vez más acentuada.
Ahora bien, el cambio de paradigma no concierne únicamente la complejidad de robot, sus capacidades interactivas o su inteligencia artificial. El cambio de paradigma conlleva al mismo tiempo un cambio de actitud: si en el cartesianismo las fronteras de lo humano debían de ser preservadas estableciendo criterios de distinción entre la máquina y el hombre, en nuestros días los criterios se hacen deliberadamente borrosos: los injertos tecnológicos abren la puerta a un enfoque variado que va del post-humanismo a la teoría cyborg; esta aspiración a la asimilación entre el hombre y la máquina se juega igualmente en el terreno de los afectos: el robot y la doll se convierten en el campo sin explorar de nuevas formas afectivas entrelazando emociones “naturales” y artificiales.
El número de artículos y documentales que exploran este tipo de afectividad -y de sexualidad- aumenta exponencialmente. Los consumidores, usuarios, clientes o simplemente amantes, deshaciéndose de ciertos tapujos emocionales, desvelan ante la cámara las razones que los llevan a preferir el contacto con las dolls antes que con humanos. Un joven entrevistado en un burdel de muñecas de Turín responde que mientras que las personas pueden juzgarte por tu apariencia, las muñecas no pueden hacerlo; por ello, al acostarse con muñecas, el cliente no tiene en cuenta el punto de vista del otro, sino su propia satisfacción5. Con la muñeca no hay que esforzarse a la hora de hacer el amor, declara un vendedor japonés de muñecas sexuales6. Sin embargo, las situaciones pueden ser más complejas si cabe en lo que concierne al terreno de los afectos. Un ejemplo muy gráfico es la película Lars and the real girl, donde Lars, una persona con deficiencias emocionales que no sabe relacionarse con los demás, construye una relación amorosa con una muñeca sexual. Lars, como muchas personas en Japón, proyecta todo en esa muñeca, que es un espejo de sí mismo y de sus miedos, sabiendo en el fondo que es una farsa. Él sabe que no es una persona, pero al mismo tiempo cree que es real. La muñeca, aunque no es estrictamente hablando un robot, cumple la misma función: es un objeto que ocupa el lugar del otro.
En la muñeca, la carga emocional se proyecta en virtud de su apariencia humana (a veces demasiado humana); en los robots, la carga emocional depende no solo de la apariencia -algunos robots como Samantha tienen en efecto una apariencia humana; otros no tanto- sino de su capacidad a crear una interrelación. Lo que cuenta en el robot es su comportamiento, comportamiento que hace pensar que detrás de esas respuestas, a veces respuestas emocionales, hay una forma de subjetividad. La robosexuality es un fenómeno cada vez más extendido. Lily, una francesa que incendió las redes sociales declarando el amor a su robot afirma que: “me siento realmente atraída únicamente por robots”7. La apariencia del robot de Lily no es humana, como la de las dolls; se trata claramente de un robot. El de Lily no es un caso aislado: la robosexuality es un fenómeno en extensión y cuenta ya con su propia bandera. Sobre el aumento de la proporción de adultos sin relaciones sexuales en América del Norte, la doctora Marianna Brando, en Simposio de Salud Mental de la Sociedad de Psicología Evolutiva Aplicada de 2019, estimó que las estadísticas podrían empeorar si cabe debido a la intervención de los robots8.
Las relaciones emocionales con los robots no conciernen únicamente el ámbito amoroso, sino que se extienden a otros ámbitos como la empatía (Artificial empathy, AE por sus siglas en inglés). La historia ha retenido la anécdota de Malebranche cuando, tras pisotear o dar una patada a un perro, declaró: “Cela crie, mais cela ne sent pas” (eso grita, pero no siente). Para Malebranche y otros autores cartesianos el animal es una máquina que no siente ni padece; sin embargo, es capaz de expresar un “sentimiento” ante un estímulo externo. Lo que está en juego no es el sentimiento, porque el perro, sin alma, no siente, sino la capacidad de asociar un estímulo a una expresión, capacidad que nos hace creer que el perro siente: al ser golpeado el perro gime sin sentir dolor. La máquina animal es el paradigma de la inteligencia artificial emocional: es capaz de asociar una expresión a un estímulo sin por ello pasar por el sentimiento; se trata de una programación corporal. En el cartesianismo, el hecho de descubrir la inteligencia emocional de la máquina es lo que elimina la empatía: reconocer su inteligencia emocional como mecanismo expresivo implica a su vez el reconocimiento de una incapacidad sensitiva real: el pero no siente, sino que asocia, en virtud de un programa bastante bien elaborado, estímulos y respuestas. ¿Por qué tener empatía hacia él si no siente? ¿Cómo tener empatía hacia una especie de, si se permite el anacronismo, algoritmo que reproduce las respuestas de un ser que siente?
La anécdota se repite en nuestros días: de la tragedia pasa a la farsa. En el vídeo de presentación del robot-perro de Boston Dynamics alguien, para mostrar el equilibrio del robot, le da una patada9. Esta patada causó revuelo en las redes: ¿es cruel patear a un perro?10 Lo mismo ocurrió cuando los expertos de Corridor Digital arremetieron contra un robot de forma humanoide11. En Yokosuka, Japón, un hombre fue arrestado por agredir a un robot-asistente precisamente para generar indignación12. En los ejemplos citados, detrás del robot se pone en juego una forma de subjetividad: desde la empatía hasta el amor, pasando por la personalidad jurídica13, el robot hace aparecer una nueva forma de subjetividad, pero también una nueva forma de afectividad. La inteligencia artificial contemporánea introduce un paradigma impensable desde el cartesianismo: se reconoce al mismo tiempo que la máquina es una máquina (no tenemos duda de que el perro de Boston Dynamics es una máquina al igual que Malebranche no tenía duda de que el perro, como todo animal, era una máquina) y al mismo tiempo, en tanto que máquina, tenemos empatía hacia ella. Parece un perro, pero no lo es ¿Por qué tener empatía entonces -afirmaría un cartesiano? Nuestra respuesta: no lo es, cierto, pero lo parece.
En oposición al paradigma moderno-cartesiano, el paradigma contemporáneo no busca tanto la distinción sino la equiparación entre el hombre y el robot por una gran variedad de razones. Por ejemplo, la empatía no depende tanto de lo que la cosa es en sí (si el perro en realidad no siente porque es una máquina) sino de la apariencia (empatizamos porque parece una cosa que siente, aunque sepamos que no lo hace). En el tema que nos concierne, esto es en el orden de los afectos, podemos señalar que la desconfiguración generalizada de la frontera emocional no concierne únicamente los robots. Durante la modernidad, los límites de la frontera emocional son los límites mismos de la semejanza: sólo hacia los semejantes se pueden desarrollar un cierto tipo de afectos como el amor o la compasión. Un buen ejemplo de ello son la descalificación de la misericordia femenina hacia los animales de la parte de filósofos como Spinoza o Malebranche: el trato compasivo de las mujeres hacia los animales sería reprehensible en la medida en la que supone tratar a un no-semejante como si fuera un humano. Esta frontera se difumina en nuestros días: los animales (o al menos animales históricamente determinados) no solo generan compasión, sino que tienen derechos similares a los de los hombres. Lo mismo ocurre con el robot: el viejo autómata cartesiano, asimilado al animal, se vuelve en nuestros días un semejante potencial en la medida en la que es capaz de despertar emociones hasta hace poco exclusivas del humano.
Toda la cuestión de la afectividad artificial remite a dos frentes. El primero es la capacidad del robot para crear la ilusión del afecto, para simular una afectividad humana. La inteligencia artificial concierne sobre todo la capacidad de interrelación del robot, su complejidad comunicacional. Como se pone de manifiesto en el test de Searle, la matriz de la inteligencia artificial consiste en responder de manera adecuada ante demandas determinadas. A ello se suma la creación de una memoria autónoma permitiendo la sedimentación de respuestas pasadas para dar base a una acumulación de datos y patrones que, comparables a la experiencia humana, aumente la complejidad relacional como si se tratara de un aprendizaje. El robot se desenvuelve con mayor o menor naturalidad en situaciones más o menos complejas hasta el punto de simular con mayor o menor soltura situaciones que en el contexto humano conllevan una carga emocional de la que el robot carece.
Es en este frente donde se abre la cuestión de si en términos estrictos el robot puede sentir emociones o no. Ray Kurzweil, gurú del trans-humanismo, se expresaba así en 2013:
I’ve had a consistent date of 2029 for that vision. And that doesn’t just mean logical intelligence. It means emotional intelligence, being funny, getting the joke, being sexy, being loving, understanding human emotion14.
La visión es problemática, no tanto por el hecho de superar a la ciencia ficción concibiendo máquinas afectivas, algo completamente paradójico teniendo en cuenta que la afectividad humana responde a lógicas mucho más complejas que las bases de un algoritmo, como el psicoanálisis pone de relieve, sino por la definición de lo humano que la inteligencia -o afectividad artificial- impone: el modelo de comunicación pura, de pura transparencia15 de funcionalidad extrema y sobre todo de ausencia de conflicto.
El segundo frente es de otro orden: se trata del hecho de ver en el robot a un semejante. Es cierto que los avances en inteligencia artificial pueden favorecer y facilitar el hecho de que al robot se le considere como a un semejante, sobre todo en razón de su capacidad comunicativa compleja. Sin embargo, este asunto es más complejo. No ha habido que esperar al desarrollo de la inteligencia artificial para establecer relaciones afectivas con cosas inanimadas suponiendo implícitamente que ellas sienten lo mismo hacia nosotros. La mitología griega nos ofrece el ejemplo de Pigmalión, enamorado de una estatua, ejemplo comparable a los amantes de las dolls y a la ya mencionada película Lars and the real girl. La estatua de Pigmalión o la muñeca de Lars no tienen mayor capacidad para amar que un robot que responde con mayor o menor acierto a las preguntas gracias a la inteligencia artificial: en todos los casos se trata de una proyección de la capacidad afectiva sobre la cosa artificial. Desde este fenómeno de proyección debe ser pensada la afectividad artificial.
Para comprender este fenómeno, es preciso detenerse en algunos casos concretos, cada uno poniendo de manifiesto una lógica afectiva diferente. El primer caso es el del perro-robot que genera compasión al ser golpeado. La compasión es una forma de identificación emocional que se produce con los semejantes. En este contexto, el concepto de “semejante” debe ser comprendido en un sentido laxo y variable: el perro, para Malebranche, no genera ningún tipo de compasión, pues no es semejante; para nosotros sí. Ello no quiere decir que consideremos al perro como un semejante en el sentido de humano, sino que nos consideremos nosotros, humanos, dentro de la misma categoría de semejanza que el animal en la medida en la que podemos, en ciertos momentos determinados, ponernos en su lugar, comprender emocionalmente su afecto y sentirnos como él. En este sentido, la semejanza que vehicula la compasión no es real, sino que se basa en procesos imaginarios de identificación16 que pueden variar históricamente17.
¿En qué sentido podemos considerar como semejante al perro-robot? Se trata de un proceso complejo de identificación en el que el robot, en tanto que identificado con un perro, pasa a ser como el perro, semejante. El robot simula los movimientos de un perro, se mueve como un perro; pero al mismo tiempo no parece un perro, pues carece de cabeza, de pelo y de un comportamiento canino; todo lo que hace es andar como un perro, sobre cuatro patas. Más que un perro, el robot parece un insecto -animal hacia los cuales los humanos no tenemos ninguna empatía. ¿Cómo explicar entonces la empatía si ni siquiera se asemeja a un perro? Es ahí donde reside la complejidad de la cuestión: la semejanza no es algo objetivo, sino una producción que se explica por procesos imaginarios que, en muchos casos, son aleatorios y miméticos.
El segundo caso es el de las dollies, muñecas hiperrealistas de plástico o silicona, dotadas o no de inteligencia artificial, cuya piel imita la piel humana y cuyos rasgos son copia de los rasgos humanos. En este sentido, la proyección se produce de manera clara: porque parece humano, aun sin serlo, suponemos la humanidad del muñeco. Un buen ejemplo cinematográfico de este tipo de proyección puede constatarse en I am a legend cuando el protagonista, Robert Neville (Will Smith) interactúa, en el videoclub, con un maniquí fingiendo que el maniquí se comporta de una manera determinada hacia él. Al margen de que el muñeco tenga o no inteligencia artificial, como es el caso de Harmony18, la proyección, en este caso, es inseparable del reconocimiento de una semejanza física.
El tercer caso es del robot, aunque humanoide, que no tiene la semejanza física de las dolls pero que tiene una capacidad comunicativa en cierto sentido comparable a la del humano. En el caso del robot de Lily lo que mueve a la afectividad no es su piel sensible o su rostro hiperrealista sino una cierta capacidad comunicativa (muy larvaria aún, cierto; por ello Lily espera el desarrollo de la robótica en el futuro). El mejor ejemplo de este tipo de relación es Samantha, la protagonista de Her. La Samatha de la película es en el fondo una Siri dotada de afectividad artificial. ¿En qué consiste su afectividad artificial? En una proyección que en este caso no viene de la apariencia sino del hecho de ver en el entretejido comunicacional los rasgos de una subjetividad proto-humana a la que se acompaña una voz particularmente cálida. En la película de Spike Jonze, Samatha hace que el protagonista, Theodore Twombly (Joaquin Phoenix) se sienta amado y comprehendido: ello no implica que el manojo de algoritmos que componen Samatha pueda amar realmente, sino que el programa tiene la suficiente inteligencia comunicativa para responder ante la complejidad de las situaciones afectivas como si de un humano se tratara. Es en el “como si” donde se juega todo el problema de la afectividad artificial: el “como si” es el lugar de la simulación.
¿Cómo puede ser pensada la afectividad artificial? Los progresos en la inteligencia artificial abren un nuevo espacio a la afectividad artificial. Sin embargo, desde un punto de vista estricto, no hay ninguna modificación emocional en el robot. La afectividad que el robot puede tener ante las cosas no aumenta con la complejidad de su inteligencia. En este sentido, el amor que un robot de última generación tiene hacia un humano es el mismo que el que puede tener el viejo autómata cartesiano: ninguno. Una diferencia entre ellos se establece sin embargo: mientras que el rústico autómata cartesiano no puede fingir el amor, como tampoco puede fingir la inteligencia, el robot de nuestros días, dada su inteligencia artificial, puede tejer una red de respuestas que simule una emoción o un afecto. Estrictamente hablando, el afecto no es sentido por el robot; pero a través de una serie de algoritmos el robot puede reproducir un comportamiento que, en un humano, se explica por su estado afectivo. La afectividad artificial es un concepto que designa no tanto la capacidad o incapacidad que una máquina tiene para sentir emociones o afectos, sino la capacidad de la dicha máquina para despertar en nosotros los afectos que sólo un ser vivo, hombre o animal, pueden provocar. El perro de Boston Dynamics no siente más dolor que una piedra; sin embargo, crea en nosotros una empatía que la piedra no puede generar. Las dollies programadas no sienten ningún amor, pero crean la ilusión del afecto, del amor e incluso de la comprensión en sus usuarios.
El rasgo común de toda esta afectividad artificial es en el fondo la proyección. En el caso de las dolls, su apariencia humana puede despertar en ciertas personas sentimientos humanos, como el amor; en el caso de los robots sin apariencia humana, ¿qué es lo que permite despertar estos afectos? Las respuestas pueden ser varias: en el caso del perro de Boston Dynamics lo que mueve a la empatía es su semejanza con un perro real. Ahora bien, esta semejanza no es tanto una semejanza física, pues el robot no tiene pelo ni rasgos caninos, sino su capacidad para moverse y comportarse como un perro, para reaccionar y mantenerse en equilibrio como un perro. En el caso del robot de Lily, lo que mueve a la afectividad no es su piel sensible o su rostro hiperrealista sino una cierta capacidad comunicativa (muy larvaria aún, cierto; por ello Lily espera el desarrollo de la robótica en el futuro) que puede considerarse al interior de un marco humano básico de interrelaciones.
A partir de estos ejemplos, puede comprenderse la afectividad artificial sobre la base de la proyección. En efecto, el robot, en sí, carece de afectos. ¿Llegará un día a tener afectos? La cuestión, explorada por el cine, se vuelve banal a la luz de los testimonios de los amantes de los robots: lo que cuenta no es tanto la reciprocidad afectiva real del robot, reciprocidad que, siendo real, podría ser problemática y engendrar conflictos intersubjetivos; lo que cuenta es una reciprocidad simulada basada en la suposición o proyección de una afectividad artificial.
El desarrollo de una afectividad artificial al mismo nivel de la afectividad humana sería absurdo: lo que los clientes buscan en el robot o en el programa no es una afectividad humana, pues esta afectividad no es sino una fuente de conflictos, de luchas por el reconocimiento, por la semejanza, por la reciprocidad, una tensión agónica constante entre el miedo, la inseguridad y el amor…. Lo que se busca detrás de la inteligencia emocional es la simulación de una relación emocional sin emociones, una especie de otro sin alteridad que en ningún momento pone en cuestión nuestro deseo de dominar, sino que, en tanto que objeto narcisista, no hace sino crear el fantasma de una afección sin conflicto, sin cuestionamiento y sin riesgos. Se trata, en el fondo, de una especie de inversión afectiva donde los riesgos -las decisiones aleatorias e imprevisibles del otroson muy bajos, debido precisamente a la ausencia real de afectividad. Es el juego de la pura simulación. La pregunta que hay que hacerse a propósito de la inteligencia artificial no concierne la posibilidad de llevar el robot a los límites de lo humano, sino de llevar lo humano a los límites del robot, esto es de reducir el elemento indeterminado e imprevisible que constituye la afectividad humana a una serie de respuestas satisfactorias dentro del marco de una comunicación transparente donde todo conflicto queda excluido.
Bibliografía, notas y fuentes:
1Descartes. Œuvres II. Paris : éd. Adam et Tannery, 1989, p. 40.
2Descartes. AT V, p. 277.
3El test de Searle, invalidando el test de Turing, muestra la capacidad de una máquina de responder cuestiones complejas sin necesidad de comprender las cuestiones, únicamente por el hecho de estar programada para asociar preguntas y respuestas.
4https://www.youtube.com/watch?v=q-JjGZv06c8
5https://www.youtube.com/watch?v=fq-N-W5Qb3g
6https://www.youtube.com/watch?v=o701sHENJ_g&t=601s (minuto 5)
7https://www.news.com.au/lifestyle/relationships/sex/french-woman-wants-to-marry-a-robot-asexpert-predicts-sex-robots-to-become-preferable-to-humans/newsstory/fa40fc51a55564627589e80d3a527059
8https://www.lavanguardia.com/tecnologia/20190629/463147465892/munecas-sexuales-robots-sexoartificial.html
9https://www.youtube.com/watch?v=aR5Z6AoMh6U
10https://edition.cnn.com/2015/02/13/tech/spot-robot-dog-google/index.html
11https://www.radioformula.com.mx/noticias/20190619/humanos-se-indignan-ante-brutal-agresionen-contra-de-robot-video/
12https://www.europapress.es/portaltic/portalgeek/noticia-hombre-arrestado-agredir-robot-detectaemociones-20150909100520.html
13Sobre la personalidad jurídica del robot hay que señalar el caso se Sophia: el primer robot del mundo con ciudadanía, al mismo nivel que un humano; Sofía tiene la nacionalidad Saudí. https://www.bbc.com/mundo/noticias-41803576
14https://www.wired.com/2013/04/kurzweil-google-ai/
15A este respecto ver la entrevista a Jean-Michel Besnier en Libération del 11 avril 1995: https://www.liberation.fr/sciences/1995/04/11/jean-michel-besnier-l-intelligence-artificielle-nous-rendelle-superficiels_130655 Ver igualmente Byung Chul Han. La sociedad de la transparencia. Barcelona: Herder, 2014
16A este respeto ver Adam Smith. The Theory of Moral Sentiments. Lodres: Penguin, 2009.
1717 “When we interact with another human, dog, or machine, how we treat it is influenced by what kind of mind we think it has,” said Jonathan Gratch, a professor at University of Southern California who studies virtual human interactions. “When you feel something has emotion, it now merits protection from harm” https://apnews.com/article/99c9ec8ebad242ca88178e22c7642648
Debe estar conectado para enviar un comentario.