La inteligencia artificial (IA) está transformando rápidamente a la humanidad y la duda persistente es: cuándo se apoderará del mundo; para analizar las posibilidades, Newsweek pidió a ChatGPT que respondiera una duda cada vez más recurrente.
En un momento donde las campañas políticas en Estados Unidos suscitan preocupación por su potencial para socavar las elecciones, especialmente cuando se utiliza para generar noticias falsas y desinformación, parece ser que la inteligencia artificial es usada de forma negativa.
Las próximas elecciones presidenciales se enfrentan a un mayor escrutinio de estos riesgos a medida que las herramientas de inteligencia artificial se vuelven más sofisticadas y accesibles.
Un ejemplo destacado de un dato falso es un vido donde el presidente de Estados Unidos, Joe Biden, aparece falsamente pidiendo a la gente que no vote. Este tipo de contenido, si no se controla, podría dañar la confianza pública en el proceso democrático.
Los vídeos o clips de audio manipulados pueden engañar a los votantes fabricando declaraciones falsas de figuras políticas. En respuesta, organizaciones de verificación de hechos como Full Fact han empezado a utilizar herramientas de inteligencia artificial para controlar las afirmaciones en tiempo real, analizando discursos y manifiestos para evitar la propagación de desinformación.
Sin embargo, los retos siguen siendo importantes, sobre todo cuando las falsificaciones se propagan rápidamente por las redes sociales, a menudo antes de que puedan ser desmentidas por verificadores de hechos con ojos de lince capaces de detectar un vídeo falso.
CHATGPT OPINA SOBRE LA INTELIGENCIA ARTIFICIAL Y LOS HUMANOS
Mustafa Suleyman, cofundador de DeepMind, hace hincapié en estos peligros en su libro “The Coming Wave” (La ola que viene), en el que sostiene que una inteligencia artificial descontrolada podría alterar significativamente los procesos democráticos.
Aboga por una regulación y supervisión más estrictas para evitar que las tecnologías de inteligencia artificial se conviertan en armas para engañar o manipular al electorado. Las preocupaciones de Suleyman coinciden con la opinión académica general, que advierte del potencial de la inteligencia artificial para desestabilizar las elecciones en todo el mundo si no se controla adecuadamente.
Casi la mitad de los estadounidenses temen que la inteligencia artificial pueda atacar a la humanidad. La encuesta, realizada por YouGov, revela la opinión de los estadounidenses sobre la inteligencia humana y la de los ordenadores, y pone de manifiesto su preocupación por la posibilidad de un conflicto entre el hombre y la máquina.
ChatGPT respondió: “La cuestión de si la inteligencia artificial podría ‘dominar el mundo’ y cuándo lo haría es compleja y depende de cómo definamos ‘dominar’ y de qué avances en la tecnología de la inteligencia artificial podrían conducir a tal resultado. Es un tema que a menudo se debate en la ciencia ficción, pero la realidad es mucho más matizada”.
AVANCES EN TECNOLOGÍA, MEDICINA Y CALIDAD DE VIDA
“Hoy en día, la inteligencia artificial es potente pero muy especializada. Destaca en tareas como el reconocimiento de imágenes, el procesamiento del lenguaje natural y el análisis de datos, pero no está cerca de igualar todo el espectro de la inteligencia humana. A este nivel de inteligencia artificial la denominamos inteligencia artificial estrecha o inteligencia artificial débil, lo que significa que es buena en tareas específicas pero carece de capacidades cognitivas generales.
“La idea de que la IA ‘tomará el relevo’ suele referirse a la inteligencia general artificial (AGI) o superinteligencia: sistemas de inteligencia artificial capaces de realizar cualquier tarea intelectual que pueda realizar un ser humano y, posiblemente, de superar la inteligencia humana. No estamos ni cerca de desarrollar la AGI. Los expertos no se ponen de acuerdo sobre cuándo se logrará, o incluso si se logrará, la AGI. Algunos creen que podría ocurrir en unas pocas décadas, mientras que otros argumentan que puede que nunca ocurra”.
Añade: “Visión optimista: La inteligencia artificial podría dar lugar a grandes avances en tecnología, medicina y calidad de vida, pero habría que gestionarla con cuidado”.
“Opinión cautelosa: Sin las salvaguardas adecuadas, la inteligencia artificial podría volverse incontrolable y tener consecuencias imprevistas, sobre todo si supera la inteligencia humana sin alinearse con los valores humanos”.
RIESGOS Y DESAFÍOS
ChatGPT también indica que existen varios riesgos potenciales, pero están lejos de ser ciertos. “Un riesgo a corto plazo es que la IA se utilice en aplicaciones militares, como drones autónomos, lo que podría causar una grave inestabilidad mundial.
“Automatización del empleo: La IA podría trastornar la mano de obra, automatizando muchos puestos de trabajo, lo que podría provocar trastornos sociales si los sistemas económicos y sociales no se adaptan”.
El programa agregó que en el tema de cuestiones éticas y de control: “La mayor preocupación de la inteligencia artificial es la alineación, es decir, cómo garantizar que los objetivos de la inteligencia artificial estén en consonancia con los valores humanos.
“Si la inteligencia artificial no está bien alineada, en teoría podría perseguir objetivos perjudiciales para la humanidad, ya sea deliberadamente o como efecto secundario de su programación”.
CONTROL Y SEGURIDAD DE LA INTELIGENCIA ARTIFICIAL SEGÚN CHATGPT
Organizaciones como OpenAI, DeepMind y otras están investigando activamente cómo construir sistemas de IA seguros y controlables. Existen varios enfoques para garantizar que la IA siga siendo beneficiosa, entre ellos:
Alineación de valores: garantizar que los sistemas de inteligencia artificial entiendan y sigan los principios éticos humanos.
Reglamentos y gobernanza: Desarrollar acuerdos internacionales para controlar el uso y desarrollo de la inteligencia artificial, especialmente en aplicaciones peligrosas.
ESPECULACIONES SOBRE EL CALENDARIO
“A corto plazo (próximos 5-10 años): La inteligencia artificial seguirá avanzando de forma significativa en campos específicos como la atención sanitaria, el transporte y la educación. Sin embargo, seguiremos trabajando con sistemas de IA limitados, y es poco probable que «se apoderen del mundo” en ningún sentido.
“A medio plazo (20-50 años): Algunos investigadores especulan con la posibilidad de que surja la inteligencia artificial, pero se trata de algo especulativo y muy incierto. Si lo hace, conllevará importantes consideraciones éticas y de seguridad.
“A largo plazo (más de 50 años): Predecir el desarrollo de la IA a tan largo plazo es extremadamente difícil. Si se desarrollan la AGI y la superinteligencia, será crucial una gestión cuidadosa para evitar resultados perjudiciales”.
“Es poco probable que la inteligencia artificial se apodere del mundo en un futuro próximo. Aunque la AGI, o IA superinteligente, podría plantear riesgos si se desarrolla, aún estamos lejos de llegar a esa fase”, sentencia ChatGPT.
“Que la inteligencia artificial se convierta en una fuerza para el bien o en un peligro dependerá de cómo la humanidad modele su desarrollo mediante directrices éticas, gobernanza y medidas de seguridad”. N
(Publicado en cooperación con Newsweek. Published in cooperation with Newsweek)