Aunque la palabra “innovación” suele evocar avances beneficiosos es crucial abordarla con una perspectiva equilibrada que contemple tanto sus ventajas como sus posibles riesgos. Este enfoque se vuelve especialmente relevante al considerar la proliferación de la inteligencia artificial (IA), una tecnología que ha emergido como una fuerza transformadora en diversos ámbitos de la sociedad y que, desde luego, conlleva ciertos riesgos.
La IA, con su capacidad para automatizar tareas, analizar grandes volúmenes de datos y tomar decisiones complejas promete revolucionar industrias y mejorar la calidad de vida de las personas. Sin embargo, su rápido crecimiento plantea interrogantes cada vez más apremiantes sobre sus implicaciones éticas, sociales y de seguridad.
El Global Risk Report 2024 del World Economic Forum, por ejemplo, destaca entre los riesgos globales a diez años las posibles consecuencias adversas derivadas de las tecnologías de IA. Estas preocupaciones abarcan una variedad de áreas críticas que requieren atención y acción para mitigar sus posibles impactos como el sesgo algorítmico, el impacto al empleo y la privacidad de los datos.
PODRÍAN PERPETUARSE LAS DISCRIMINACIONES
En cuanto al sesgo algorítmico que puede perpetuar o amplificar prejuicios existentes en los conjuntos de datos utilizados para su entrenamiento, es decir, si los datos utilizados para entrenar un algoritmo contienen desigualdades o reflejan prejuicios existentes en la sociedad (por ejemplo, preferencias de género, raza, edad o ubicación geográfica), la IA puede aprender y perpetuar esas discriminaciones. Si esto no se aborda adecuadamente puede conducir a decisiones injustas o discriminatorias en áreas como la selección de personal, la concesión de créditos y la aplicación de la ley.
Un ejemplo de eso es el referido por el World Compliance Association respecto a que, en el año 2015, Jacky Alcine, una afroamericana, miró su fotografía en la aplicación de Google Photos, donde el software de reconocimiento facial la había etiquetado con la palabra “gorila”, ya que el algoritmo no había sido entrenado con suficientes imágenes de personas de piel oscura.
Otro aspecto relevante es el impacto en el empleo. Aunque la IA puede mejorar la eficiencia y liberar a los trabajadores de tareas monótonas, también podría resultar en la automatización de empleos existentes y la pérdida de oportunidades laborales para ciertos sectores de la población, ya que las organizaciones pueden invertir en tecnología en vez de contratar personal. Así que es crucial desarrollar estrategias de reentrenamiento y reconversión laboral para brindar una transición justa y equitativa hacia una economía impulsada por la IA.
UN ENFOQUE CAUTELOSO Y REFLEXIVO PARA DISMINUIR LOS RIESGOS DE LA IA
Ya desde 2023, la entidad financiera estadounidense Goldman Sachs, en su investigación “The Potentially Large Effects of Artificial Intelligence on Economic Growth” adelantó que la IA podría ocasionar una disrupción en el mercado laboral que afectaría a 300 millones de empleos en todo el mundo.
Asimismo, la privacidad de los datos personales es vital. Con la creciente cantidad de datos recopilados y procesados por los sistemas de IA existe un riesgo inherente de violaciones de privacidad y mal uso de la información personal. En consecuencia, es fundamental establecer marcos regulatorios sólidos y prácticas de protección de datos para salvaguardar la privacidad y la seguridad de los individuos en la era de la IA.
En México contamos con las leyes de Protección de Datos Personales. Sin embargo, resulta importante fortalecerlas para enfrentar los desafíos planteados por la rápida adopción de la IA en diferentes sectores. Y es que su naturaleza dinámica y evolutiva demanda un marco regulatorio capaz de abordar las nuevas vulnerabilidades que surgen con el uso de esta tecnología.
En consecuencia, es fundamental adoptar un enfoque cauteloso y reflexivo hacia la integración de la IA en nuestras vidas, considerando tanto sus beneficios como sus implicaciones negativas y riesgos, a fin de anticipar y abordar proactivamente los posibles resultados adversos que podrían surgir en los próximos diez años. N
—∞—
Manuel Moreno es director de Habilitación de Ventas de Seguridad en IQSEC. Los puntos de vista expresados en este artículo son responsabilidad del autor.