Siguen apareciendo en Estados Unidos demandas contra policías que utilizan el reconocimiento facial para detener a personas. La última, presentada en Detroit en agosto de 2023, es el sexto caso en los últimos tres a?os.
Ni que decir tiene que sufrir la indignidad de ser detenido injustamente porque la inteligencia artificial (IA) ha cometido un error es un suceso aterrador que puede tener consecuencias devastadoras para una persona.
Más aún cuando los cargos erróneos no se descubren a tiempo y la víctima se enfrenta a la cárcel.
Por otro lado, los partidarios de esta tecnología afirman que ha ayudado a las fuerzas del orden a ser mucho más eficientes.
Estos percances pueden solucionarse superando algunos fallos inherentes al software o garantizando un uso más regular de imágenes de alta resolución.
Sin embargo, ?hasta qué punto es ético seguir “probando” la tecnología de reconocimiento facial por IA para detener mientras tanto a personas que pueden ser inocentes?
?Hasta qué punto es ético utilizar el reconocimiento facial por IA en general, sabiendo hasta qué punto puede representar una violación constante de nuestra privacidad, al poder identificar siempre a las personas sin su consentimiento?
Empecemos por analizar los da?os que ha causado hasta ahora.
Un historial de errores de reconocimiento facial
Una embarazada víctima de un error del FRT, 2023
El último caso en el que el FRT identificó erróneamente a una persona ocurrió en Detroit a principios de este a?o. Para colmo de males, la víctima, Porsha Woodruff, de 32 a?os, estaba embarazada de ocho meses.
Woodruff fue detenida delante de sus dos hijas, de 6 y 12 a?os, y tuvo que pasar un día en la comisaría. Después, estresada y con malestar, se dirigió a un centro médico donde empezó a experimentar contracciones precoces.
Los médicos la encontraron deshidratada y le diagnosticaron una baja frecuencia cardíaca. No es la mejor manera de pasar unos de los días más delicados del embarazo.
Woodruff no fue la única víctima de los errores del FRT.
Un caso de acusación falsa basada en una grabación de vigilancia granulada, 2020
En enero de 2020, Robert Williams fue acusado de robar en una tienda cinco relojes por valor de 3.800 dólares.
Unas pocas imágenes granuladas de las grabaciones de vigilancia fueron todo lo que la policía de Detroit necesitó para detener al hombre, que fue esposado en su jardín delantero delante de todos sus vecinos mientras su mujer y sus dos hijas peque?as no podían hacer otra cosa que mirar angustiadas.
En teoría, las coincidencias de reconocimiento facial debían utilizarse sólo como una pista de investigación, no como la única prueba necesaria para acusar a Williams de un delito.
Sin embargo, fue suficiente para la policía, que lo detuvo sin pruebas que lo corroboraran, aunque al final se descubriera que Williams volvía en coche del trabajo a casa en el momento del robo.
Si seguimos indagando, descubriremos cómo no se trata de accidentes aislados: hay un reguero de asuntos similares que abarca a?os.
Cómo un DNI falso condujo a una detención injusta, 2019
En 2019, un ladrón dejó una licencia de conducir falsa de Tennessee en la escena del crimen en Woodbridge, Nueva Jersey, después de robar dulces. Cuando la identificación falsa fue escaneada por la tecnología de reconocimiento facial, Nijeer Parks fue identificado como una coincidencia de “alto perfil”.
Fue detenido, y como ya había sido condenado por cargos relacionados con drogas y se arriesgaba a cumplir el doble de condena, empezó a valorar si aceptar una declaración de culpabilidad sería la mejor solución.
Por suerte para él, acabó demostrando su inocencia cuando se encontró un recibo de una transferencia de dinero de Western Union realizada a la misma hora que el hurto, en un lugar que estaba a 50 kilómetros de la tienda de regalos.
Según los abogados defensores, no es tan infrecuente que las personas acusadas erróneamente por reconocimiento facial acepten acuerdos con la fiscalía, incluso cuando son inocentes.
El caso de los calcetines de NY: seis meses de cárcel por una posible coincidencia
Por ejemplo, en 2018, otro hombre fue acusado de robar un par de calcetines de una tienda T.J. Maxx en Nueva York. Todo el caso descansaba en una única y granulada grabación de seguridad que generó una “posible coincidencia” meses después del suceso.
Cuando un testigo confirmó que “era él”, el acusado pasó seis meses en la cárcel antes de declararse culpable, aunque sigue manteniendo su inocencia.
?El argumento de la defensa? El hombre estaba, de hecho, fichado en un hospital para el nacimiento de su hijo en el momento en que se produjo el crimen.
En algunos de los casos anteriores, una contraprueba ha demostrado -con éxito en dos casos, sin éxito en otro- que el acusado estaba lejos del lugar del crimen.
Pero no todos tendrán tanta suerte.
En otras palabras, los casos que conocemos pueden ser sólo una peque?a parte del número de personas inocentes que actualmente están en la cárcel o se enfrentan a penas de prisión debido a un reconocimiento erróneo del FRT.
“Debería regularse” frente a “debería prohibirse”
Como muchas cosas en la vida, los ejemplos anteriores ponen más de relieve la forma en que las personas utilizan las herramientas que las herramientas en sí.
En muchos casos, las fuerzas del orden utilizan el FRT como única prueba necesaria para encarcelar a las personas, en lugar de utilizar el posible reconocimiento como una simple pista en un proceso de investigación más amplio.
Puede que Sherlock Holmes hubiera acogido con satisfacción la tecnología, pero habría dedicado su tiempo a intentar desmontar las pruebas en lugar de tratarlas como un hecho.
Hay un problema subyacente mucho más grave que hace que esta tecnología sea altamente sesgada y su uso, en el mejor de los casos, polémico.
Ya en 2019, una investigación del Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) encontró un creciente cuerpo de evidencia que se?ala que la FRT está empa?ada por un sesgo racial significativo.
La IA a menudo, si no regularmente, identifica erróneamente a personas con tonos de piel más oscuros, personas más jóvenes y mujeres. El riesgo de identificación errónea es 100 veces mayor en asiáticos y afroamericanos, e incluso mayor en nativos americanos.
Las diferencias demográficas, como la edad y el sexo, también contribuyen, y esta desproporción puede acentuarse con algunos sistemas menos precisos.
Además de la enorme preocupación que suscita el hecho de que la FRT se dirija de forma desproporcionada a personas de determinadas etnias, el propio uso de esta tecnología podría vulnerar la intimidad y las libertades civiles.
La vigilancia pública en tiempo real identifica a las personas sin su consentimiento, y las bases de datos agregadas se construyen a menudo sin ninguna regulación que defina su legalidad.
Los datos biométricos pueden captarse con demasiada facilidad y en secreto y utilizarse para todo tipo de fines, incluido un control general de nuestra vida privada que probablemente muchos de nosotros consideremos inaceptable.
Las vulnerabilidades técnicas permiten que las imágenes capturadas se utilicen para todo tipo de actividades maliciosas, desde el robo de identidades, deepfakes, suplantaciones físicas o digitales, e incluso acoso.
Estas limitaciones técnicas pueden superarse a su debido tiempo, pero mientras se elaboran directrices que limitan el uso de FRT, se sigue persiguiendo a personas inocentes. Algunas ciudades, como San Francisco, han prohibido a la policía y otros organismos gubernamentales el uso del reconocimiento facial en absoluto, y muchos sostienen que ésta podría ser la única solución a este problema.
Lo esencial
El uso de FRT con fines policiales es un tema muy controvertido. Sin duda, es una gran herramienta para identificar amenazas rápidamente cuando la rapidez de respuesta es crítica, por ejemplo, deteniendo terroristas o garantizando la seguridad aeroportuaria.
Sin embargo, muchos afirman que esta tecnología es una invasión inaceptable de la vida privada y que estar bajo el escrutinio constante de los ojos indiscretos de un gobierno es una monstruosidad distópica.
De lo que podemos estar seguros es de que, en su estado actual, esta tecnología aún no está preparada para ser utilizada, al menos no sin riesgo de graves repercusiones.
Sin embargo, la falta de preparación no sólo se debe a los límites técnicos de la FRT, sino también al uso inadecuado que los seres humanos están haciendo de ella.
En otras palabras, para que la FRT sirva a la justicia, necesitamos un sólido conjunto de leyes y normas que la regulen. ?Quién vigila a los vigilantes?