Arrestan al hombre equivocado debido al reconocimiento facial, una “tecnología racista” según lo expertos
Apuntan a que la inteligencia artificial tiene sesgos racistas
En julio de 2019, Michael Oliver, de 26 años, se dirigía a su trabajo en Ferndale, Michigan, cuando un coche de policía lo detuvo. El oficial le informó de que había una orden de arresto por delito grave.
“Pensé que estaba bromeando porque se estaba riendo”, recordó Oliver. “Pero tan pronto como me sacó del coche y me esposó, supe que no era una broma”. Poco después, Oliver fue transferido a la custodia de la policía de Detroit y acusado de hurto.
Meses después, en una audiencia previa al juicio, vio cuál era la evidencia en su contra: una sola captura de pantalla de un video del incidente, tomada con el teléfono celular del acusador. Oliver, que tiene una cara de forma ovalada y varios tatuajes, compartía algunas características físicas con la persona de la foto, pero no las suficientes como para que le acusaran y le arrestaran.
“No se parecía en nada a mí”, dijo Oliver. “Ni siquiera tenía tatuajes”. El juez estuvo de acuerdo y el caso fue inmediatamente desestimado.
Casi un año después, Oliver se enteró de que su arresto injusto se basó en una coincidencia errónea utilizando una controvertida tecnología de reconocimiento facial. La policía tomó una imagen fija de un video del incidente y la pasó por un programa de software fabricado por una empresa llamada DataWorks Plus.
El software mide varios puntos en el rostro de una persona (el espacio entre los ojos, la inclinación de la nariz) para generar una “impresión facial”. Luego, el Departamento de Policía busca una posible coincidencia en una base de datos de fotos; el sistema puede acceder a miles de fotografías policiales, así como a la base de datos de fotografías de licencias de conducir.
La cara de Oliver apareció como una coincidencia, pero no era él, y había muchas pruebas para demostrar que no lo era.
La tecnología de reconocimiento facial se ha convertido en algo común en nuestra sociedad. Se utiliza para desbloquear celulares y mejorar la seguridad del aeropuerto. Pero muchos lo ven como una tecnología defectuosa que tiene el potencial de causar daños graves.
Identifica erróneamente las caras de personas negras a tasas sustancialmente más altas que sus contrapartes blancas, en algunos casos casi el 100% de las veces. Y eso es especialmente relevante en una ciudad como Detroit, donde casi el 80% de los residentes son negros.
“Creo que la percepción de que los datos son neutrales nos ha metido en muchos problemas”, dijo Tawana Petty, una activista digital que trabaja con el Detroit Equity Action Lab. “Los algoritmos son programados por hombres blancos utilizando datos recopilados de políticas racistas. Está replicando el sesgo racial que comienza con los humanos y luego se programa en la tecnología”.
Petty señala que más de una docena de otras ciudades, incluidas San Francisco y Boston, han prohibido dicha tecnología debido a preocupaciones sobre las libertades civiles y la privacidad. Ella ha abogado por una prohibición similar en Detroit. En cambio, la ciudad votó en octubre para renovar el contrato con DataWorks.
Incluso los partidarios reconocen que el sistema tiene una alta tasa de error. El jefe de policía de Detroit, James Craig, dijo en junio: “Si usáramos la tecnología por sí sola, para identificar a alguien”, lo que señaló que estaría en contra de la política del departamento, “diría que el 96% de las veces se identificaría erróneamente”.
El caso de Oliver se produjo después del arresto injusto de Robert Williams, de 42 años, quien también fue arrestado en 2019 por un crimen que no cometió, basado en el mismo software algorítmico.
Petty cree que con esta tecnología los costos humanos superan con creces los beneficios. “Sí, la innovación es inevitable”, dijo. “Pero esta no sería la primera vez que nos retiramos de algo de lo que nos damos cuenta que no es bueno para la humanidad”, explicó a CBS.
Oliver todavía no se ha recuperado de las consecuencias de su arresto injusto. “Falté al trabajo por las fechas del juicio. Luego perdí mi trabajo”. Sin ingresos, no pudo pagar la renta o su automóvil, y pronto los perdió también. Un año después se encuentra sin hogar, vive en el sofá con amigos y familiares, y busca desesperadamente un nuevo trabajo.
En julio, Oliver presentó una demanda contra la ciudad de Detroit por al menos $12 millones de dólares. La demanda acusa a la Policía de Detroit de utilizar “tecnología de reconocimiento facial sabiendo que tiene una tasa de error sustancial entre personas de etnia negra, sabiendo que llevaría al arresto y encarcelamiento injustos de personas en ese grupo demográfico étnico”.
El departamento de policía ha reconocido que el investigador principal del caso no realizó la debida diligencia antes de realizar el arresto.
“Enviamos la imagen al detective. Pero luego, a partir de ahí, el detective tiene que salir, mirar la foto y compararla con cualquier otra información”, dijo Andrew Rutebuka, jefe de la Unidad de Inteligencia Criminal que usa la tecnología. Los investigadores están capacitados para seguir los hechos, como lo harían en cualquier otro caso, como confirmar el paradero de la persona en el momento en que ocurrió el delito o cotejar cualquier otro registro. “El software simplemente proporciona un dato, la ventaja”, dijo Rutebuka. “El detective tiene que hacer su trabajo y hacer un seguimiento”.
Desde el arresto de Oliver, el Departamento de Policía de Detroit ha revisado su política sobre el uso de software de reconocimiento facial. Ahora solo se puede utilizar en el caso de un delito violento. Detroit tiene la cuarta tasa de homicidios más alta de la nación y el departamento sostiene que el programa está ayudando a resolver casos que de otro modo se congelarían.
Algunas familias de la zona apoyan la tecnología. Marsheda Holloway le da crédito al sistema por ayudar a desentrañar el asesinato de su primo Denzel, de 29 años.
“No quiero que otra familia pase por lo que yo y mi familia pasamos”, dijo a CBS. “Si el reconocimiento facial puede ayudar, todos lo necesitamos. Todo el mundo necesita algo que ayude”.
Pero Michael Oliver no está seguro de que el software valga la pena. “Solía poder cuidar de mi familia”, dijo. “Quiero recuperar mi antigua vida”.
Los defensores creen que hay docenas de casos similares de arrestos injustos, pero son difíciles de identificar porque el departamento de policía no está obligado a compartir cuándo se hicieron las coincidencias con un software de reconocimiento facial.
“Ojalá gane mi caso”, dijo Oliver. “No quiero que nadie más pase por esto”.