La inteligencia artificial irrumpió en la escena cotidiana y desplegó todo su potencial para transformar distintos ámbitos de la sociedad. Aunque la tecnología no es nueva, el lanzamiento de ChatGPT cambió el juego.
Incluso, su adopción a nivel mundial y en sus múltiples áreas de aplicación es hoy 2,5 veces superior a la de 2017, según lo revela un informe de McKinsey, por lo que no será tarea sencilla lograr una regulación profunda.
El vertiginoso desarrollo de la IA hizo que la herramienta se pusiera al alcance de la mano de las personas y su utilización no tardó en multiplicarse trayendo consigo los inevitables riesgos que toda evolución conlleva. En este contexto, el 2024 se presenta como un año bisagra en la vida de la IA y abre un interesante interrogante: ¿será posible acompañar esta innegable evolución con regulaciones que estén a la altura y promuevan un uso ético y responsable?
Algunas acciones concretas demuestran hacia dónde se está perfilando el tema: recientemente la Unión Europea aprobó la primera ley para regular de forma completa los usos de la inteligencia artificial y esto abrió un nuevo capítulo que será eje de debate indiscutido a nivel mundial.
Para la UNESCO, la IA no debería ser una zona sin ley, ya que se considera que su influencia puede impactar directamente en las vidas de las personas. Tan es así que a nivel mundial ya se están implementando acciones para establecer un marco regulatorio en el uso de esta tecnología. El reporte del índice de la inteligencia artificial 2023 de la Universidad de Stanford muestra que según los registros legislativos de 127 países analizados: 31 ya han aprobado por lo menos una ley relacionada con esta tecnología y se han decretado más de 125 normas a nivel global. Estados Unidos encabeza la lista del reporte, con 22 leyes aprobadas, seguido de Portugal y España, con 13 y 10 leyes, respectivamente, luego se ubican Italia, Rusia, Bélgica, y Reino Unido.
Estados Unidos lidera ampliamente en términos de cantidad total de inversión privada en IA, con 47.400 millones de dólares en 2022, muy por encima de China, que se encuentra en segundo puesto con 13.400 millones de dólares y que solo ha ratificado tres leyes sobre IA desde 2016.
En lo que respecta a América Latina, el índice Latinoamericano de IA destaca que Chile, Brasil y Perú son los países líderes en materia de regulación de la región.
Que la tecnología avanza con más velocidad que la legislación, no es novedad. En este contexto se abre entonces el debate público y el interrogante estelar apunta a entender si será posible regular en profundidad a una tecnología de tamaña magnitud que está en constante evolución y cambio. Hay quienes consideran que es inconcebible estar frente al que llaman un territorio sin ley, aunque no podemos perder de vista que la IA está regida por datos y hasta tanto sea alcanzada por una regulación puntual, siempre serán aplicables las leyes de protección de datos existentes en cada país.
ILUSIONISMO Y ENGAÑOS
Entendamos que si bien la IA tiene el potencial de facilitar la vida, también genera interrogantes en torno a los engaños, la desinformación, la seguridad, plantea dudas en torno a la equidad, el sesgo, los posibles impactos en la fuerza laboral o los riesgos de su uso malicioso. Para acompañar de manera responsable esta innegable evolución, el primer paso debe ser comprender cuáles son los riesgos reales que se presentan y el impacto que pueden generar.
Hemos visto que la IA se convirtió en un jugador estelar en los procesos electorales de todo el mundo dado que esta herramienta es utilizada por los partidos políticos para analizar datos y tendencias del electorado. Pero en este contexto llegaron también los llamados deepfakes que refieren a campañas realizadas con base a imágenes o audios tergiversados mediante el uso de esta tecnología. Así sucedió por ejemplo en el marco de la campaña electoral en Estados Unidos en la que circuló una imagen falsa del arresto del expresidente Donald Trump; un video de un futuro sombrío si Joe Biden es reelecto o un audio falso de ambos lanzando insultos.
Al respecto, la organización sin fines de lucro AIandYou lanzó una campaña de concientización pública para educar a los votantes sobre cómo la IA podría afectar las elecciones. Por su parte, Meta (META.O), también tomó un rol activo cuando días atrás anunció la implementación de barreras de seguridad para evitar que se utilicen sus nuevos productos publicitarios de IA en campañas políticas.
Otra cuestión que debe ser atendida apunta a que los sistemas de IA deben ser diseñados de manera que no discriminen a ningún grupo de personas. Esto podría lograrse mediante el uso de técnicas de aprendizaje automático que sean más inclusivas y mediante el desarrollo de mecanismos de supervisión para evitar la discriminación.
En este escenario, Google, por ejemplo lanzó un fondo monetario para apoyar el desarrollo responsable de la IA: el Proyecto Futuros Digitales busca apoyar a investigadores, organizar reuniones y fomentar el debate sobre soluciones de políticas públicas relacionadas con la IA, abordando el sesgo, la equidad y el impacto en la fuerza laboral.
Son muchos los interrogantes y las iniciativas que se generan alrededor del mundo en torno a la IA. Para lograr el camino hacia una regulación para su uso responsable el primer paso será dimensionar la magnitud de esta tecnología y comprender sus diferentes áreas de impacto. No se trata de prohibir o limitar su utilización, se trata de acompañar esta evolución de manera responsable y para esto se requerirá de un esfuerzo conjunto de gobiernos, empresas y de la sociedad civil para afrontar el desafío de promover el uso ético de esta tecnología revolucionaria. N
—∞—
Mónica Talán, autora de este texto, es fundadora de Cryptoconexión y Techtranslators.ai