“Con mi cara no”: una campaña alerta sobre el uso de reconocimiento facial en las calles argentinas
¿Qué tienen en común la ciudad de Buenos Aires, Tigre, Salta, Córdoba y Mendoza? En aquellos sitios ya se usa el reconocimiento facial en espacios públicos para identificar y autenticar de manera automática a individuos, igual que en otras ciudades del mundo como Londres, Moscú o Nueva York, siempre esgrimiendo la bandera de la seguridad. Hay otro aspecto en el que coinciden: en ninguno de los casos la implementación de esa tecnología se dio bajo un marco revisado, verdaderamente analizado y/o consensuado, señalan desde la Asociación por los Derechos Civiles (ADC).
Además de las ciudades mencionadas, en noviembre del año pasado el Ministerio de Seguridad de Santa Fe anunció su intención de implementar un sistema de reconocimiento facial Rosario.
“Queda claro que en muchos lugares aún no existen los marcos jurídicos necesarios que habiliten que el reconocimiento facial sea utilizado por fuerzas de seguridad en un ambiente público, ya que no suelen cumplir correctamente con las evaluaciones de impacto en la privacidad y los sesgos propios del sistema”, dice en diálogo con TN Tecno Eduardo Ferreyra, oficial de “Con mi cara no”, una iniciativa que, explican, procura generar concientizar respecto al uso de reconocimiento facial para que la sociedad comprenda cómo funciona, cómo se procesan los datos biométricos y por qué los riesgos de su implementación son mayores que los prometidos beneficios.
En esa línea, el lema de la campaña versa que estos sistemas no ofrecen protección, sino que propician el control.
– ¿Es habitual que se utilicen este tipo de tecnologías sin una evaluación previa, sin una discusión más abierta?
– Suele ser bastante común. Esta situación llevó a que, por ejemplo, en junio de 2019, el relator especial de Naciones Unidas por el Derecho a la Libertad de Expresión recomiende una moratoria inmediata al uso de tecnologías de vigilancia (incluyendo el reconocimiento facial), hasta que se sancionen regulaciones ajustadas al marco de derechos humanos. Ya para 2020, en varias ciudades en Estados Unidos se habían aprobado regulaciones locales para prohibir que la policía y las fuerzas de seguridad utilicen tecnologías de reconocimiento facial para vigilar el espacio público.
Para enumerar algunos casos, en el estado de California una ley prohíbe el uso en las cámaras colocadas en los chalecos de oficiales de policía; esto se replicó en varias ciudades donde prohibieron el uso mediante ordenanzas municipales: San Francisco, Berkeley, Oakland, Alameda. De igual forma ocurrió en otros estados, como en el de Massachusetts. Asimismo, en agosto del año pasado en el Reino Unido, la Corte de Apelaciones falló a favor de una demanda contra el uso de reconocimiento facial en vivo por la Policía de Gales del Sur, estableciendo que el reconocimiento facial es una tecnología más invasiva que la simple captura de fotografías o el uso de cámaras de videovigilancia.
– Revisando la experiencia internacional, estos sistemas tuvieron altas tasas de error en las identificaciones. ¿Contamos con datos de lo que ocurre en nuestro país?
– En Argentina no contamos con información tan detallada. Si bien no tenemos información de falsos positivos por cuestiones de tono de piel o género en nuestro país, sí hay registrados varios casos de identificaciones erróneas por esta tecnología. Estas situaciones generaron la detención de personas por parte de la policía por varias horas, e incluso días, hasta que la comprobación en los sistemas de información efectivamente arrojó que no se trataban de los perfiles que estaban siendo buscados.
– Previamente señalaste que “el entrenamiento del algoritmo es una cuestión tanto técnica como política”. ¿Cómo se relaciona esto a los sesgos machistas y raciales de los sistemas de reconocimiento facial?
– Estas tecnologías son un vehículo para la discriminación ya que son imprecisas y pueden arrojar un porcentaje más alto de falsos positivos contra personas de tez no blanca y mujeres; de ahí se considera el sesgo racista. Esto ocurre a partir del entrenamiento del algoritmo del software, que tiene definida la precisión con la cual podrá reconocer rostros en diversos escenarios. Por ejemplo, ante cambios de luz, fondos con distintos colores o ángulos variados, también puede incidir en la certeza del reconocimiento.
En esta instancia, aquellos aspectos sensibles como el tono de piel y el género de una persona juegan un rol crucial, dado que el software de reconocimiento facial puede discriminarlas, sea por ejemplo si confunde a una persona con otra por tener rasgos “parecidos” sólo por su tez, o incluso estigmatizando las identidades binarias y no binarias.
Todos los métodos de identificación proceden primero a recoger información de un individuo (huellas dactilares, características de la cara como distancia entre ojos, forma de la boca, nariz, etcétera) y luego determinan una distancia a los datos existentes en una base. Se decide si una persona se corresponde con una identidad si esa distancia es menor que una tolerancia. Entonces queda claro que los resultados dependen de ambos conceptos, y de ahí los posibles errores, pues con una tolerancia grande se aumenta el número de ‘coincidencias’ y con una chica probablemente no haya ninguna.
De este modo, el funcionamiento del sistema dependerá de la decisión del desarrollador o implementador de la tecnología. Si existe un margen de tolerancia grande, es probable que el sistema emita mayores resultados coincidentes que si se establece un margen más estricto. Pero el lado negativo de un sistema más tolerante es que es probable que algunas de esas coincidencias sean falsas, debido a la mayor laxitud con que se consideró la distancia. Por el contrario, un sistema que exige un mayor grado de coincidencia es más eficiente en evitar errores de identificación. Pero a su vez, la probabilidad de que efectivamente pueda identificar se reduce de manera considerable, ya que una mínima diferencia con los datos existentes en la base puede significar que el sistema no reconocerá a dicha persona.
– Hablamos de riesgos vinculados a esta tecnología, ¿podrías enumerarlos?
– Por un lado, el uso encubierto o sin consentimiento de la población. También, la inversión de la carga de la prueba, es decir que todos son culpables hasta que el algoritmo determine lo contrario, lo que afecta a las garantías del debido proceso. La discriminación, como se mencionó anteriormente. Al menos en la Argentina, no existe una regulación detallada que establezca las garantías necesarias o condiciones estrictas para su uso.
Las filtraciones o hackeos a la base de datos por una pobre o nula implementación de medidas de seguridad. El uso ubicuo, a partir de una implementación en tiempo real o utilización de fotografías o videos que hayan sido capturadas o grabadas en el pasado. Estos sistemas individualizan y realizan un seguimiento preciso de cada persona, sin que esta haya dado su consentimiento. Y se facilita la vigilancia masiva en forma automatizada, ya que los algoritmos de reconocimiento facial deben necesariamente detectar todos los rostros que registran las cámaras en donde están implementados; en definitiva, por más que el nombre de una persona no esté vinculado a su rostro, el software igualmente lo estará reconociendo.
– ¿Hay ventajas que puedan mencionarse?
– El beneficio que se suele esgrimir es la mayor precisión y facilidad para identificar a una persona. Sin embargo, como hemos visto, estos sistemas cometen errores. Pero incluso si esos errores pueden en algún momento solucionarse, el problema lejos de disminuir, aumentaría. Un sistema con un hipotético 100% de eficacia sería un incentivo muy grande para los gobiernos lo utilicen con alcances más amplios y de esta manera, convertirse en una herramienta de control y vigilancia masiva.
– ¿Cuáles son los objetivos que procuran alcanzar en la campaña “Con mi cara no”?
– Brindar información y alertar a la población sobre los peligros de esta tecnología, en particular en la Ciudad de Buenos Aires. Sin embargo, esta ya no es la única zona del país en donde estos sistemas fueron implementados, ya que cada vez hay más provincias y ciudades que los utilizan o anunciaron su intención de recurrir a sistemas de reconocimiento facial con fines de vigilancia pública.
Frente a esta situación, para la ADC es muy importante comenzar a dar cuenta de todos estos sucesos, ya que la lucha por la defensa de nuestros derechos en el espacio público no pertenece a una sola ciudad. Por eso, hemos actualizado los contenidos de la campaña y sumamos una nueva sección llamada “El mapa de la vigilancia”. Allí se puede encontrar información sobre actuales y futuras implementaciones de sistemas de reconocimiento facial por parte de las autoridades provinciales o municipales de nuestro país.
Según cuenta Ferreyra, a medida que estos sistemas se implementan en diversas ciudades, aquí y en el mundo, y con ello despiertan conciencias que comprenden la importancia de la privacidad; han notado un mayor grado de conocimiento en la sociedad.
“Particularmente en la Ciudad de Buenos Aires notamos el creciente interés por parte de la gente en conocer más acerca de cómo funciona esta tecnología y cómo puede afectar sus derechos”, dice.
“Más que brindar seguridad los sistemas de reconocimiento facial suelen ser herramientas de vigilancia y control, que ponen en riesgo el ejercicio de nuestros derechos fundamentales, el disfrute del espacio público y el desarrollo de nuestra vida en sociedad”, cierra el representante de ADC, una organización que durante 2019 solicitó información e inició una acción ante el Tribunal Superior de Justicia porteño para que dicte la inconstitucionalidad del reconocimiento facial ya implementado. “Además, estamos monitoreando la situación en el resto del país para reportar cuando un gobierno provincial o municipal implemente tecnología de este tipo”, señalan.
5 ítems para entender cómo funciona el reconocimiento facial
1. El reconocimiento de rostros se encuadra dentro de la tecnología biométrica. En sí misma, puede ofrecer beneficios por ejemplo para desbloquear un celular mediante la identificación del rostro del usuario. Los riesgos que señalan desde ADC se relacionan principalmente a su uso es espacios públicos, en manos de fuerzas de seguridad.
2. En la práctica, la biometría utiliza las características físicas y de comportamiento únicas de cada persona. De ese modo, en forma automatizada, permite reconocer, autenticar o identificar, a uno o múltiples individuos. El método opera gracias a un software alimentado por un algoritmo entrenado para reconocer rostros e individualizar sus rasgos.
3. Explican desde la organización que los datos biométricos son un paquete de información personal sensible y se dividen en dos categorías: los relacionados a características físicas y fisiológicas (como las huellas dactilares, los rasgos faciales, el ADN, el iris, la retina, la forma de una parte del cuerpo, etcétera). Por otra parte, los datos de comportamiento, por caso la voz, la firma, o la forma en que escribimos en un teclado.
4. Estas tecnologías toman los rasgos de las personas, hacen un mapeo de las características físicas de la cara y generan una plantilla con la representación matemática para ese rostro que, repetimos, es único. Su propósito es comparar e indicar en tiempo real en qué porcentaje la plantilla de una cara captada por una cámara de videovigilancia se corresponde con las imágenes almacenadas en una base de datos predeterminada. En este punto, la lectura de la cámara y del algoritmo se contrasta con una base de datos que contiene millones de rostros.
5. Una vez que el software encuentra una potencial coincidencia, muestra un porcentaje que define qué tan probable es que corresponda a la misma persona de la base de datos.