Por Anthony Cuthbertson
El surgimiento de una poderosa inteligencia artificial, advirtió una vez el profesor Stephen Hawking, será “lo mejor o lo peor que le haya sucedido a la humanidad”. Por desgracia, para cuando averigüemos cuál será el caso, podría ser demasiado tarde, pero una nueva simulación de videojuego podría darnos pistas sobre lo que podríamos esperar.
Científicos del Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge han construido una modificación de “superinteligencia” del juego clásico de estrategiaCivilization 5 en el que se prevé una situación en la que una inteligencia artificial más lista que la humana se introduce en la sociedad.
Uno de los resultados presenta una oscura profecía de la desaparición de la humanidad, logrando el objetivo del juego de ayudar a los jugadores a comprender mejor la amenaza existencial planteada por la inteligencia artificial avanzada.
“La inteligencia artificial puede proporcionar inicialmente algunos beneficios, y con el tiempo, convertirse en una superinteligencia que otorgue el dominio de la ciencia a su descubridor”, escribieron los investigadores en la descripción de la extensión del juego.
“Sin embargo, si una gran cantidad de investigación sobre inteligencia artificial se sale de control, una superinteligencia hostil podría destruir a la humanidad, y producirá la derrota inmediata en el juego”.
En esta situación, aparece un mensaje en el juego que dice: “Se ha descubierto un dispositivo para crear una utopía en la Tierra, y tu civilización no ha sido la única en descubrirlo. Las generaciones futuras vivirán en un mundo perfecto, pero será el mundo perfecto de alguien más, ya que tu civilización yace olvidada en los antiguos libros de historia”.
Este no es el primer videojuego en el que se imaginan las consecuencias perjudiciales de una inteligencia artificial hostil: en octubre del año pasado, un juego en el que se recrea un conocido experimento de pensamiento de inteligencia artificial se volvió viral en Internet.
En el juego, llamado Paperclips, se explora la parábola de una inteligencia artificial programada para fabricar clips, descrita por primera vez por el filósofo Nick Bostrom en un artículo publicado en 2003 y en el que se exploran los aspectos éticos de la inteligencia artificial avanzada.
Aunque el objetivo de la inteligencia artificial es simple, si no se programa para valorar a la vida humana, podría acabar acumulando toda la materia del universo, incluidos los seres humanos, con el objetivo de producir más clips.
En ambos juegos se destaca el temor de que una máquina más inteligente que los seres humanos podría ser imposible de desactivar. En una conferencia dictada en 2015, Bostrom presentó la hipótesis de por qué los neandertales no eliminaron a todos los humanos cuando pudieron hacerlo para evitar ser depuestos como la especie dominante del planeta.
“Ciertamente, tenía sus razones”, dijo Bostrom en su charla TED (tecnología, entretenimiento y diseño). “La razón es que somos un adversario inteligente. Podemos prever las amenazas y planificar de acuerdo con ellas. Pero un agente súper inteligente también puede hacerlo, y sería mucho mejor en ello que nosotros”.
Otros académicos ya trabajan en mecanismos seguridad y formas de descartar ese riesgo, siendo la más notable DeepMind de Google, encabezada por Demis Hassabis, otro pionero de las simulaciones en juegos de video. En un artículo revisado por pares y publicado en 2016, investigadores de DeepMind describieron un botón de apagado que descartaría cualesquier comandos previos y desactivaría la inteligencia artificial, evitando así cualesquier posibles situaciones apocalípticas.
En años recientes, las sombrías advertencias sobre la inteligencia artificial avanzada se han vuelto más comunes en los círculos académicos y tecnológicos, y la del profesor Hawking es una de las voces más críticas.
“El éxito en la creación de inteligencia artificial podría ser el acontecimiento más grande en la historia de nuestra civilización”, dijo el profesor Hawking en un evento realizado en Cambridge en 2016. “Pero también podría ser el último, a menos que aprendamos a evitar los riesgos. Junto con los beneficios, la inteligencia artificial también puede producir riesgos, como poderosas armas autónomas o nuevas formas de hacer que unos cuantos opriman a la mayoría”.
El exitoso Elon Musk, entre cuyos proyectos se encuentra OpenAI, la empresa de investigación sobre inteligencia artificial sin fines de lucro, advirtió en 2014 que la inteligencia artificial es “potencialmente más peligrosa que las armas nucleares”, y en 2017 se unió a Hawking para solicitar apoyo para establecer principios que protejan al género humano de las máquinas y, finalmente, ofrezcan esperanza para el futuro en esta nueva era tecnológica.
“La inteligencia artificial ya nos ha dado herramientas beneficiosas que son utilizadas a diario por personas de todo el mundo”, dice en una carta abierta en la que se explican los principios antes mencionados.
“Su continuo desarrollo, guiado por los siguientes principios, ofrecerá asombrosos oportunidades para ayudar y empoderar a las personas en las décadas y siglos por venir”.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek