“Las computadoras superarán a los humanos con la IA
[inteligencia artificial] en algún momento de los próximos 100 años”, dijo
Stephen Hawking, el renombrado físico teórico y cosmólogo, el martes en la
conferencia Zeitgeist 2005 en Londres. “Cuando eso suceda, necesitaremos
asegurarnos de que las computadoras tengan metas acordes con las nuestras”.
La IA se refiere a la inteligencia de los sistemas
computacionales, permitiéndoles llevar a cabo tareas que normalmente requieren
de la inteligencia humana. Siri, de Apple, y los autos que se manejan a sí
mismos son ejemplos actuales.
Hawking también afirmó que la preocupación actualmente reside
en quién controla la IA. Pero con la rápida evolución de la tecnología, dijo
él, la preocupación futura será si la IA puede ser controlada en absoluto. En
diciembre, él fue un paso más allá y dijo que “el desarrollo de la inteligencia
artificial total podría acarrear el fin de la raza humana”.
La capacidad de una máquina de matar, independiente de una
directriz humana, es uno de los muchos miedos expresados en un informe
publicado conjuntamente por Human Rights Watch y la Escuela de Leyes de Harvard
en abril. Sus autores pidieron la prohibición del “desarrollo, producción y uso
de armas totalmente autónomas mediante un instrumento internacional legalmente
vinculatorio”.
Hawking propuso otra solución posible: hacer que los
desarrolladores de tecnología coordinen cuidadosamente los avances para
asegurarse de que la IA se mantenga bajo nuestro control. “Nuestro futuro es
una competencia entre el poder creciente de la tecnología y la sabiduría con
que la utilicemos]”, dijo él.