Stephen Hawking y Elon Musk se han unido a eminentes investigadores en inteligencia artificial para prometer su apoyo a los principios de proteger a la humanidad de las máquinas y de una potencial carrera armamentista de inteligencia artificial.
Una carta abierta publicada por el Instituto del Futuro de la Vida (FLI, por sus siglas en inglés) el lunes resumió los Principios en Inteligencia Artificial de Asilomar, 23 directrices para asegurar el desarrollo de inteligencia artificial que sea benéfica para la humanidad.
Por décadas, las “Tres Leyes de la Robótica” del escritor de ciencia ficción Isaac Asimov fueron una piedra angular del desarrollo ético de robots y máquinas de inteligencia artificial.
Expuestos por primera vez en su cuento de 1942 Círculo vicioso, los tres principios de Asimov declaraban: un robot no debe dañar a un humano mediante una acción o inacción; un robot debe obedecer a los humanos, y un robot debe proteger su propia existencia.
Cada regla tiene prioridad sobre las reglas que la siguen en orden para asegurar que una vida humana sea protegida sobre la existencia de un robot.
Los moralistas de la robótica y la inteligencia artificial han argumentado que estas reglas son un buen punto de partida pero son demasiado simplistas para el siglo XXI. Un ensayo de 2009 publicado enInternational Journal of Social Robotics sugirió que la sofisticación de las computadoras y su integración cada vez mayor en nuestras vidas significan que se necesita de mejores directrices.
Los Principios en Inteligencia Artificial de Asilomar siguen a cartas abiertas previas sobre seguridad en inteligencia artificial y armas autónomas y ya han sido suscritos por más de 700 investigadores en inteligencia artificial y robótica.
Los principios piden una responsabilidad compartida para asegurar una prosperidad compartida y precaución contra una carrera armamentista de inteligencia artificial.
“No soy fan de las guerras, y pienso que podría ser peligroso en extremo”, dijo Stefano Ermon del Departamento de Ciencias Computacionales en la Universidad de Stanford, quien estaba entre los signatarios. “Obviamente, pienso que la tecnología tiene un potencial enorme y, incluso con las capacidades que tenemos hoy día, no es difícil imaginar cómo podría usarse de maneras muy dañinas”.
Elon Musk, director ejecutivo de Tesla, ha dicho previamente que Google es la “única” que a él le preocupa en lo tocante al desarrollo de inteligencia artificial avanzada. Nick Bostrom, profesor de filosofía de la Universidad de Oxford y director fundador del Instituto para el Futuro de la Humanidad, advirtió el año pasado que Google está a la cabeza de la carrera mundial para crear inteligencia artificial de nivel humano.
Por ende, tanto a Musk como a Bostrom les complacerá que el fundador de DeepMind —el abanderado en inteligencia artificial de Google— estuvo entre los nombres que prometieron su apoyo a los principios. Demis Hassabis es considerado como una de las principales mentes en el campo de la inteligencia artificial y su compañía ha colaborado previamente con el FLI para proponer un interruptor de apagado para la inteligencia artificial corrupta.
En un ensayo titulado “Agentes interrumpibles de la seguridad”, se esbozó un “gran botón rojo” para evitar que las máquinas avanzadas ignoren los comandos de apagado y queden fuera del control humano. Esta idea se reitera en los Principios en Inteligencia Artificial de Asilomar, los cuales piden que los sistemas de inteligencia artificial estén “sujetos a medidas estrictas de seguridad y control”.
La colección de principios da directrices mucho más detalladas que las tres reglas de Asimov, pero el FLI reconoce que “de ninguna manera [están] completas”.
“Ciertamente está abierto a interpretaciones diferentes, pero también enfatiza cómo el comportamiento ‘por defecto’ actual alrededor de muchos problemas relevantes podría violar los principios que la mayoría de los participantes acordaron que es importante sostener”, dijo un portavoz del FLI en una declaración enviada por correo electrónico a Newsweek.
“Esperamos que estos principios provean material para una discusión vigorosa y también aspiraciones de metas sobre cómo se puede usar el poder de la inteligencia artificial para mejorar las vidas de todos en años venideros”.