La Inteligencia Artificial (AI) ya se utiliza con fines represivos y de control social en China. Pero en Occidente los riesgos son igualmente altos. Se requiere fiscalización

El Deber logo
12 de mayo de 2019, 8:00 AM
12 de mayo de 2019, 8:00 AM

En la película Minority Report, los mutantes predicen los futuros delitos, lo cual le permite a la policía intervenir antes de que se cometan. En China, evitar el “predelito” con algoritmos es parte de la aplicación de la ley, utilizando la inmensa infraestructura de vigilancia del país para identificar a potenciales disidentes. Las herramientas de vigilancia predictiva también se usan en EEUU y Europa, aunque con propósitos ostensiblemente menos represivos. Sin embargo, sin la supervisión suficiente, potencialmente podrían hacer más daño que bien.

El uso de la vigilancia predictiva en la región de Xinjiang es parte de una represión más amplia en contra de los musulmanes uigures. Se basa en una infraestructura de vigilancia masiva, que incluye el reconocimiento facial que actualmente se está probando en la región. Según Human Rights Watch, la vigilancia predictiva en Xinjiang se presenta en forma de aplicación para teléfonos inteligentes, con acceso a datos sobre la religión de los ciudadanos, el historial de viajes, las conexiones familiares y más. A quienes el algoritmo considera sospechosos se les puede poner potencialmente bajo custodia. La nueva era de la vigilancia algorítmica convierte cada punto de datos en evidencia potencialmente incriminatoria.

Las herramientas de vigilancia predictiva en EEUU y Europa tienen acceso a datos menos granulares, y no hay evidencia de la existencia de centros de “reeducación política”. Los sistemas occidentales también desempeñan una variedad más amplia de usos en comparación con la aplicación de Xinjiang. Además de señalar a los potenciales delincuentes o reincidentes, las herramientas de vigilancia predictiva pueden localizar las zonas con alta incidencia de crimen, decidir si las personas necesitan detención preventiva y tomar decisiones sobre las solicitudes de libertad condicional. Podría decirse que estos sistemas ya han mostrado cierto éxito al permitirle a la policía realizar intervenciones tempranas, controlar grandes manifestaciones e identificar a las personas que son vulnerables al riesgo de violencia doméstica.

Sin embargo, un informe de Partnership on AI (Asociación para la Inteligencia Artificial), un grupo de investigación estadounidense, descubrió serios defectos potenciales en la forma en que se diseñan algunas herramientas de vigilancia predictiva. El más evidente proviene de los conjuntos de datos en los que se basan. Los datos inexactos o sesgados producirán resultados erróneos. Dadas las antiguas preocupaciones sobre el racismo en la vigilancia policial, existe un riesgo considerable de que los algoritmos simplemente repitan y cimenten las desigualdades existentes. Los algoritmos también serán inexactos si el vínculo entre una variable (como el empleo) y los resultados, incluyendo la reincidencia, es débil.

Hay varias formas de mitigar, al menos parcialmente, estos problemas. El Reino Unido podría seguir el ejemplo de Francia de declarar que todos los algoritmos utilizados por el gobierno estén disponibles públicamente para que se pueda verificar el sesgo o la programación deficiente. Sin embargo, este método ha recibido críticas por parte de los fabricantes de herramientas de vigilancia predictiva. Alegan que sus algoritmos son comercialmente sensibles y ponerlos a disposición pública socavaría su competitividad. Estas quejas podrían solucionarse mediante la creación de un organismo público confiable que pruebe algoritmos y garantice que estén diseñados de forma competente e imparcial. También hay necesidad de una mayor transparencia en nombre de las agencias de aplicación de la ley que utilizan sistemas predictivos.

Los avances tecnológicos, como las pruebas de ADN y las cámaras corporales, sin duda han mejorado la vigilancia policial. Sin embargo, incluso más que en otros sectores, la inteligencia artificial en el campo de la aplicación de la ley requiere de un cuidado extremo para evitar errores devastadores. La aplicación utilizada en Xinjiang representa un escenario profundamente perturbador en el que se cruzan la represión gubernamental y la vigilancia masiva. Sin embargo, los algoritmos mal diseñados en el Reino Unido y EEUU basados en conjuntos de datos sistémicamente sesgados también pueden aumentar la desigualdad. Una de las lecciones de la ciencia ficción es que darles poder sin supervisión a los robots rara vez termina bien para los humanos.