- Obtener vínculo
- X
- Correo electrónico
- Otras apps
La medida de policía londinense, por otro lado, ha sido motivo de críticas, por la aparente ineficiencia del sistema para la identificación de sospechosos. Así, si bien la policía de Londres argumenta que el sistema genera sólo una alerta falsa por cada 1,000 casos, un estudio de la Universidad de Essex encuentra que de 42 casos estudiados, solamente en 5 funcionó correctamente.
No es claro qué es lo que motiva la gran diferencia entre lo reportado por la Universidad de Essex y la policía londinense, pero ciertamente se esperarían diferencias sustanciales en la eficiencia del sistema de reconocimiento facial en función de las imágenes faciales que tiene que analizar. Así, esta eficiencia sería mayor con imágenes obtenidas a propósito, bien iluminadas y resueltas, que con imágenes borrosas obtenidas en un lugar público.
Por lo demás, si bien el caso de Londres no es único –Moscú, por ejemplo, poco después del anuncio de Londres, dio a conocer el despliegue de un extenso sistema de reconocimiento facial–, otras ciudades, como San Francisco y Boston, han prohibido su uso por la policía o las agencias gubernamentales por considerarla una tecnología todavía no lo suficientemente desarrollada. Se señala, por ejemplo, que la tecnología produce resultados sesgados en contra de las minorías, que acusan un mayor porcentaje de falsos positivos en comparación con la población mayoritaria blanca.
La causa del sesgo no reside, por supuesto, en la naturaleza de los sistemas de reconocimiento facial, sino en la información que les fue suministrada, en la forma de imágenes faciales, durante su entrenamiento. Así, los sistemas de reconocimiento facial son expuestos a un mayor número de imágenes de personas de raza blanca que de otras minorías, y como resultado se genera un sesgo en el número de sus equivocaciones.
Un caso que se ha hecho visible en los últimos días y que involucra también un sesgo de los sistemas de reconocimiento facial –esta vez hacia las personas de menor edad– es el de la ciudad de Buenos Aires, Argentina. Como comenta un artículo publicado esta semana en la revista “MIT Technology Review” bajo la firma de Karen Hao, la ciudad de Buenos Aires tiene instalado un sistema de reconocimiento facial para la captura de personas buscadas por la policía. Dicho sistema está ligado a una base de datos conocida como Consulta Nacional de Rebeldías y Capturas, o CONARC, en la que se concentran datos de personas sospechosas de crímenes.
El sistema de Buenos Aires ha mostrado numerosas fallas de identificación de sospechosos. En un caso, por ejemplo, un hombre fue arrestado por 6 días, siendo transferido a una prisión de máxima seguridad antes de ser liberado. En otro caso, la víctima fue advertida que podría sufrir más detenciones en el futuro y para evitarlos se le dio un pase para que lo mostrara a los agentes que pretendieran arrestarlo.
Además, de acuerdo con una investigación de “Human Right Watch”, CONARC contiene información de menores de edad, la mayor parte con edades de 16 y 17 años, pero también algunos considerablemente más jóvenes, incluso de hasta un año de edad. Si bien no se ha documentado que los infantes hubieran sido motivo de un arresto, los jóvenes de mayor edad si están expuestos a esta contingencia. De hecho, lo están más que los adultos, dado que los sistemas de reconocimiento facial generan más equivocaciones en el caso de los más jóvenes, pues fueron entrenados para reconocer personas de mayor edad.
Podríamos quizá concluir que los sistemas de reconocimiento facial en la medida en que avancen tecnológicamente tendrán sin duda aspectos positivos. Pero en tanto eso sucede, habría que poner en la balanza tanto sus aspectos positivos como negativos. Sin perder de vista la visión distópica orwelliana.
Comentarios
Publicar un comentario