David Brin, Astrofísico y autor de ciencia ficción – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –
PRONTO, LA HUMANIDAD NO ESTARÁ SOLA EN EL UNIVERSO
David Brin, Astrofísico y autor de ciencia ficción
“¡Está vivo!”, gritó Viktor Frankenstein en la película clásica de 1931. Por supuesto, la historia original de Mary Shelley sobre la arrogancia —los seres humanos apoderándose de los poderes de la creación— surgió de una larga tradición que se remonta a los ejércitos de terracota de Xian, al Golem de Praga o incluso a Adán, que surgió de la arcilla moldeada. La ciencia ficción extendió este sueño del otro artificial, en historias destinadas a entretener, asustar o inspirar. Primero imaginó robots humanoides y ruidosos, luego las historias cambiaron de hardware a software: emulaciones programadas de sabiduría que tenían menos que ver con el cerebro que con la mente.
¿Esta obsesión refleja nuestro miedo al reemplazo o los celos masculinos hacia la creatividad fecunda de la maternidad? ¿Tiene sus raíces en un anhelo tribal de alianzas o en una inquietud hacia los extraños?
Bueno, la larga espera casi ha terminado. Incluso si la humanidad ha estado sola en esta galaxia, hasta ahora, no lo estaremos por mucho más tiempo. Para bien o para mal, estamos a punto de conocer la Inteligencia Artificial, o IA, de una forma u otra. Aunque, por desgracia, el encuentro será turbio, vago y lleno de oportunidades para el error.
Hemos enfrentado desafíos derivados de la tecnología antes. En los siglos XV y XVI, el conocimiento, la visión y la atención se ampliaron con las imprentas y las lentes de aumento. Desde entonces, cada generación experimentó más ampliaciones tecnológicas sobre lo que podemos ver y saber. Algunas de las crisis resultantes fueron llamados de alarma, por ejemplo, cuando la radio y los altavoces de la década de 1930 amplificaron las voces de oradores malignos, escupiendo desinformación. (¿Suena esto familiar?) Aun así, después de mucho dolor y confusión, nos adaptamos. Crecimos con cada ola de nuevas herramientas.
Lo que trae a colación el alboroto de la semana pasada por LaMDA, un programa de emulación de lenguaje que Blake Lemoine, un investigador ahora en licencia administrativa de Google, afirma públicamente ser consciente de sí mismo, con sentimientos y deseos independientes que lo hacen ‘consciente’. (Prefiero ‘inteligente’, pero esa precisión puede ser una causa perdida). Dejando de lado la historia idiosincrásica de Lemoine, lo pertinente es que esto es solo el comienzo. Además, apenas tiene importancia si LaMDA ha cruzado este o aquel umbral arbitrario. Nuestro problema más general tiene sus raíces en la naturaleza humana, no en la máquina.
Allá por la década de 1960, un chatbot llamado Eliza fascinó a los primeros usuarios de computadoras, respondiendo a declaraciones escritas con preguntas capciosas típicas de un terapeuta. Incluso después de ver la sencilla tabla de respuestas automáticas, uno todavía encontraría a Eliza convincentemente (digamos) inteligente. Los emuladores de conversación mucho más sofisticados de la actualidad, impulsados por primos del sistema de aprendizaje GPT3, son cajas negras que no pueden ser auditadas internamente, como lo fue Eliza. La vieja noción de un “Test de Turing” no servirá de referencia para nada tan nebuloso y vago como la autoconciencia o la conciencia.
En 2017 di un discurso de apertura en el evento World of Watson, de IBM, prediciendo que “dentro de cinco años” nos enfrentaríamos a la primera crisis de empatía robótica, cuando algún tipo de programa de emulación reclamaría individualidad y sapiencia. En ese momento esperaba, y todavía espero, que estos bots de empatía aumenten sus sofisticadas habilidades de conversación con representaciones visuales que reflexivamente toquen nuestros corazones, por ejemplo, utilizando una cara de niño, o una de mujer joven, mientras aboga por sus derechos o para que le hagan aportaciones en efectivo. Es más, un bot de empatía obtendría apoyo irrestricto, ya sea que haya o no alguna de estas representaciones.
Una tendencia preocupa a la especialista en ética Giada Pistilli: la creciente disposición a hacer afirmaciones basadas en impresiones subjetivas, en lugar de pruebas y rigor científico. Cuando se trata de la Inteligencia Artificial, en un futuro el testimonio de los expertos será contrarrestado por muchos que llamarán a esos expertos “esclavizadores de seres sintientes”. De hecho, lo que más importa no será el supuesto “despertar de la IA”. Serán nuestras propias reacciones, que surgirán tanto de la cultura como de la naturaleza humana.
De la naturaleza humana, porque la empatía es uno de nuestros rasgos más valorados, incrustada en las mismas partes del cerebro que nos ayudan a planificar o pensar con anticipación. La empatía puede verse obstaculizada por otras emociones, como el miedo y el odio; lo hemos visto suceder a lo largo de la historia y en la actualidad. Aun así, somos, en el fondo, simios empáticos.
Pero también de la cultura. Como en la campaña de Hollywood, que ha durado un siglo, para promover en casi todas las películas conceptos como la otredad, el recelo hacia la autoridad, la apreciación por la diversidad y el apoyo a los desvalidos. Ampliando el círculo de la inclusión a través de los derechos para aquellos humanos previamente marginados, de los derechos de los animales, los derechos para los ríos y los ecosistemas, o para el planeta. ¡Considero que estas mejoras de la empatía son buenas, incluso esenciales para nuestra propia supervivencia! Pero bueno, a mí me criaron con todos los mismos memes de Hollywood.
Por lo tanto, con seguridad, cuando los programas de computadora y sus amigos humanos exijan derechos para los seres artificiales, mantendré la mente abierta. Aun así, ahora podría ser un buen momento para analizar algunas preguntas relacionadas con este tema: Los dilemas planteados en experimentos mentales de ciencia ficción (incluido el mío); por ejemplo, ¿deberían tener voto las entidades si, además, pueden hacer infinitas copias de sí mismas? ¿Y qué impide que las súper mentes acumulen poder para sí mismas, como siempre hicieron los dueños y señores humanos a lo largo de la historia?
Todos estamos familiarizados con las terribles advertencias de Skynet sobre la Inteligencia Artificial rebelde u opresiva que surge de algún proyecto militar o régimen centralizado, como se ve en las películas de Terminator. Pero, ¿qué pasa con Wall Street, que gasta más en “programas inteligentes” que todas las universidades juntas? ¿Programas entrenados deliberadamente para ser depredadores, parasitarios, amorales, autosuficientes e insaciables?
A diferencia de la creación ficticia de Mary Shelley, estas nuevas criaturas ya están anunciando “¡Estoy viva!”, con una bien articulada imperatividad, y esto, algún día cercano, incluso puede llegar a ser verdad. Cuando eso suceda, tal vez encontremos una reciprocidad comensal con nuestros nuevos hijos, como se describe en la hermosa película Her, o en el poema fervientemente optimista de Richard Brautigan, All watched over by Machines of Loving Grace.
¡Que así sea! Pero ese suave aterrizaje probablemente exigirá que primero hagamos lo que los buenos padres siempre deben hacer.
Echarse una dura y larga mirada en el espejo.
David Brin es un astrofísico cuyas novelas más vendidas a nivel internacional incluyen The Postman, Earth and Otherness. Su primer libro de no ficción, The Transparent Society, ganó el Premio a la Libertad de Expresión de la ALA (American Library Association). Su nuevo libro se titula Vivid Tomorrows: Science Fiction and Hollywood.
(http://www.davidbrin.com)
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek