The Mercury News informó que unos 50 departamentos de policía de todo el territorio estadounidense han utilizado programas de inteligencia artificial (IA) ideados para la vigilancia predictiva. Esos usuarios incluyen a 10 departamentos de California, donde han tenido diversos grados de éxito.
Andrew Mills, jefe de policía de Santa Cruz, dijo a la agencia noticiosa que los sistemas IA han resultado “útiles” para identificar periodos en que los agentes deben patrullar puntos de delincuencia críticos que han sido detectados previamente.
El mes pasado, el sitio Web Motherboard informó por primera vez que las dependencias policiales de Palo Alto y Merced, así como la Universidad de California en Berkeley (UC Berkeley) habían mostrado interés en el producto predictivo que desarrolla PredPol. Al consultar la documentación interna de esta empresa, se determinó que PredPol estaba haciendo “implementaciones inmediatas y a corto plazo” en Santa Cruz, San Francisco, Morgan Hill, Salinas y otras entidades. Por otra parte, dichos archivos incluían información de otros contratos ya concluidos en el estado de California.
En entrevista con The Mercury News, un sargento de la policía de UC Berkeley confirmó a que la universidad había utilizado el producto de PredPol durante “un par de años”, mientras que la policía de Palo Alto reconoció que hizo pruebas con el programa entre 2013 y 2015. Por su parte, funcionarios de la policía de Los Gatos/Monte Sereno informaron que ese departamento usó el software entre 2012 y el año pasado.
https://newsweekespanol.com/2019/01/inteligencia-artificial-virtual/
Desde hace tiempo, los críticos de la vigilancia predictiva han argumentado que los programas IA podrían estar contaminados con sesgos raciales, lo cual puede ocasionar que las comunidades de color y de bajos ingresos se conviertan en objetivos desproporcionadamente frecuentes.
En esencia, el software predictivo es un sistema para analizar grandes datos que invita a hacer comparaciones con la película de ciencia ficción “Sentencia previa” [Minority Report] y que, no obstante, no sirve para “predecir” delitos reales.
En vez de ello, el software IA escanea conjuntos de datos en gran escala que apuntan a las localidades con alto riesgo de alguna actividad criminal. En teoría, los oficiales de policía generan informes para precisar las ubicaciones y los momentos en que es más probable que se cometa un delito, a fin de enviar recursos a esos lugares.
Algunos expertos legales han manifestado la inquietud de que los datos se vean afectados por los sesgos incorporados en el sistema de justicia penal del mundo real, y conduzcan -por ejemplo- a la vigilancia excesiva de una demografía específica.
El año pasado, Vincent Southerland, director ejecutivo del Centro para la Raza, la Desigualdad y la Ley, organización de la Facultad de Derecho de la Universidad de Nueva York, dirigió la siguiente observación a la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés): “Existe un potencial enorme de que el sesgo se infiltre en la implementación de estas herramientas. En pocas palabras, los datos son el inconveniente”.
Si bien un empleado de PredPol reconoció que el “sesgo de notificación” no deja de ser una complicación, el CEO Brian MacDonald dijo a The Mercury News que, para evitar la introducción de sesgos, su compañía no utiliza datos de detenciones y solo proporciona información básica sobre los crímenes, incluyendo horarios, fechas y zonas. MacDonald agregó que PredPol destaca actividades como robos, allanamientos o datos de homicidio, mas no la distribución de drogas ni los delitos sexuales.
Numerosos expertos en derecho digital han censurado el uso de tecnologías para vigilancia secreta basadas en los datos que los departamentos judiciales recogen a lo largo de los años.
“Los datos son el origen de estos problemas. Debido a que la vigilancia predictiva depende de los datos criminales históricos, y ya que esos datos criminales suelen ser incompletos y sesgados (por ejemplo, en el caso de los crímenes de drogas), es inevitable que el software policiaco genere predicciones imprecisas y arbitrarias”, afirmó Ezekiel Edwards, en una entrada del blog de la ACLU publicada en agosto de 2016.
El grupo para derechos digitales de la Fundación Frontera Electrónica (EFF, por sus siglas en inglés) ha señalado que la vigilancia predictiva “amplifica las disparidades raciales en la actuación policial, pues se basa en los patrones inherentes a los registros policiacos y no en los delitos reales”. Esta semana, MacDonald respondió a la acusación durante una nueva entrevista con The Mercury News: “Nuestra impresión es que estamos ayudando. En algunas de nuestras ciudades, la criminalidad se ha reducido de manera drástica, casi siempre en dos dígitos”.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek