¿Es la inteligencia artificial (IA) tan peligrosa como la guerra nuclear? Algunos dentro de la industria tecnológica ahora sugieren que ese es el caso. Pero incluso a la luz de los riesgos reales, una mirada más cercana revela que los expertos en tecnología pueden estar buscando beneficiarse de crear pánico en torno a la IA.
Una declaración reciente del recién formado Centro para la Seguridad de la IA advirtió sobre el riesgo de “extinción” de la raza humana, poniendo a ChatGPT a la par con las pandemias y el armamento atómico. Entre los firmantes de la declaración hay muchos científicos confiables, pero de particular interés son Sam Altman, director ejecutivo de OpenAI, y Demis Hassabis, director ejecutivo de Google DeepMind. Estos directores ejecutivos también están cortejando a figuras políticas de EE. UU. para tratar de asegurar más reglas, tanto dando testimonio en el Senado como reuniéndose directamente con el presidente Joe Biden y la vicepresidenta Kamala Harris .
¿Por qué los directores ejecutivos de empresas que han gastado incontables dólares en investigación de IA de repente nos advierten que han estado poniendo en peligro a la raza humana todo este tiempo? Si realmente creen eso, ¿por qué gastaron tantos recursos en IA en primer lugar?
NUEVA LEGISLACIÓN SOBRE IA EN LA UNIÓN EUROPEA
La firma de Altman se vuelve aún más contradictoria en el contexto de una amenaza reciente que hizo de retirarse de la Unión Europea (UE) si ChatGPT de OpenAI es víctima de una “regulación excesiva”. Canceló una visita programada a Bruselas recientemente, donde la nueva legislación sobre IA está en proceso de aprobación por parte del Parlamento Europeo, pero mantuvo sus citas con el presidente francés, Emmanuel Macron , y el primer ministro del Reino Unido, Rishi Sunak.
Si Altman es una indicación, la industria quiere ser regulada, pero solo en los términos que establece. Ese es un fenómeno conocido como captura regulatoria. Enmascarados por el lenguaje de proteger al público en general, los creadores de IA simplemente persiguen sus propios intereses particulares. Esto queda claro cuando se entera del tipo de regulaciones que preferiría Altman. Según The New York Times, “expresó su apoyo a las reglas que requerirían que los fabricantes de modelos de inteligencia artificial grandes y de vanguardia se registren para obtener una licencia emitida por el gobierno”.
“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, dijo Altman a un subcomité del Senado. “Por ejemplo, el gobierno de EE. UU. podría considerar una combinación de requisitos de licencia y prueba para el desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades”.
INFLUENCIA DE LA IA EN LAS PERSONAS
No hace falta ser un científico espacial (o de IA) para descubrir por qué los principales desarrolladores de IA podrían estar interesados en tal regla. Cuando el Senado presionó sobre qué umbral podría ser apropiado para requerir una licencia, la respuesta de Altman estuvo abierta a la interpretación.
“Creo que un modelo que pueda persuadir, manipular o influir en el comportamiento de una persona, o en sus creencias, sería un buen umbral”, dijo.
Un simple bot de chat podría persuadir o influenciar a una persona sin que suceda nada peligroso. La información fáctica puede y debe influir en nuestras creencias.
Dejando a un lado las sospechas sobre las intenciones más amplias de exigir una licencia de desarrollador de IA, cualquier estándar justo tendría que estar mucho más claramente definido que el posible impacto en nuestras creencias: responder preguntas, generar contenido y proporcionar información es exactamente lo que cualquier IA que interactúa con el público se pretende hacer.
INEVITABLE QUE EXISTAN IA DE GUERRA DE INFORMACIÓN
Poner restricciones a la IA occidental no impedirá que otras naciones desarrollen IA destinada a persuadir o incluso manipular el comportamiento. Es inevitable que existan IA de guerra de información patrocinadas por el estado, en todos los lados, e Internet es un fenómeno global que trasciende fronteras. La educación sobre falsificaciones profundas y tecnologías similares tendrá que reemplazar los intentos inútiles de cerrar la caja de Pandora al limitar quién puede realizar investigaciones. La sociedad aún deberá adaptarse a la proliferación de IA, incluida la separación de la realidad de la ficción con nuestro propio juicio cuando sea necesario.
La propuesta de regular la IA a través de licencias estatales para la investigación no aborda los riesgos u oportunidades reales que presenta la IA. En cambio, los poderosos actores de la industria parecen estar buscando un entorno en el que las empresas más pequeñas sin las conexiones políticas correctas se arriesguen a recibir sanciones por información errónea vagamente definida, mientras que los desarrolladores de IA que trabajan mano a mano con los gobiernos tienen al menos ventajas, si no los únicos capaces de hacerlo. desarrollar herramientas de IA a una escala que sea comercialmente viable.
Requerir la aprobación del gobierno para crear IA no solo creará monopolios. Las instituciones políticas no son mágicamente neutrales, y el patrocinio estatal difícilmente garantiza que el contenido esté libre de sesgos políticos o información errónea. La IA se entrena en última instancia con datos sesgados producidos por humanos, con filtros de contenido determinados por humanos, por lo que la “IA sesgada” está en el ojo del espectador.
ELON MUSK ACUSA DE PARCIALIDAD POLÍTICA A CHAT GPT
El propio ChatGPT de Altman, que presumiblemente cree que merece la aprobación del gobierno dada su defensa, ha sido acusado de parcialidad política por figuras como Elon Musk. La investigación académica también sugirió esto, como se ve en un estudio previo a la impresión realizado por investigadores de la Universidad Técnica de Munich y la Universidad de Hamburgo. Ya sea que Musk tenga razón o no, su desafío plantea la posibilidad muy real de que las licencias basadas en el potencial de la IA para “influir en las creencias” simplemente se conviertan en otro campo de batalla para la guerra cultural partidista.
El escepticismo en torno a quienes impulsan este impulso no significa que la IA esté libre de riesgos. Si las propuestas estuvieran orientadas a garantizar que la IA sea positiva para los trabajadores que se verán afectados económicamente, en lugar de centrarse en quién obtiene el patrocinio estatal para desarrollar la IA que los reemplaza, podría haber espacio para un debate interesante. Pero cuando una industria de repente pide que se la regule después de introducir algo que, según afirman, podría acabar con la vida en la Tierra, vale la pena preguntarse qué está pasando realmente. N
Grant Gallagher es un escritor en la industria de la publicidad que trabaja con clientes orientados a la ciencia y la tecnología. Es presentador del próximo podcast de historia New Disorder: a History of the 21st Century , que explora la relación contemporánea entre la política y la sociedad.
Las opiniones expresadas en este artículo son del autor.