¡Te necesitamos! ¡Nuestros derechos están en juego!
El Sistema de Reconocimiento Facial es un software que corre sobre las cámaras de videovigilancia de la CABA con el objetivo de identificar a aquellas personas con pedido de captura por encontrarse rebeldes o prófugos de la justicia.
Aunque pueda parecer una buena idea, la implementación pone en riesgo nuestros derechos.
Seguí leyendo para enterarte por qué, qué hicimos al respecto y cómo podés ayudarnos.
Nuestros derechos están en juego
- Todas las personas en la vía pública que pasan frente a una cámara son identificadas y “perfiladas” por un algoritmo del cual desconocemos sus fines, vulnerando el derecho de reunión en la vía pública.
- Todas las personas son sospechosas hasta que el sistema demuestre lo contrario, vulnerando el principio de inocencia propio de un estado de derecho.
- Como todas las personas deben ser analizadas, eso incluye a los menores que a priori no se sabe que lo son, contraviniendo lo estipulado por la Convención de los Derechos del Niño.
- No hay un consentimiento informado de las personas registradas y vigiladas.
- Crea un riesgo para la sociedad en general. Si cualquier persona tiene acceso al sistema (porque ningún sistema de seguridad es perfecto) los potenciales peligros de su uso indebido resultan absolutamente desproporcionados.
¿Qué hicimos?
Desde O.D.I.A hicimos dos pedidos de acceso a la información pública, pero nunca nos respondieron de manera satisfactoria. Por eso, presentamos una acción de amparo para detener el Sistema de Reconocimiento Facial de Prófugos de la Ciudad de Buenos Aires. En una primera instancia fue rechazada, pero luego apelamos y ampliamos la demanda.
¿Cuáles son nuestros fundamentos?
- Se implementó el sistema sin informe de impacto previo sobre datos personales.
- Se hizo una licitación privada. Desde el llamado a licitación hasta que fue definido el ganador pasó menos de una semana, demostrando una eficiencia sin precedentes en el sector público.
- La empresa opera con software no abierto, por lo que no sabemos qué procesamiento hace de nuestros rostros y qué uso le da a los datos.
-
Hicimos preguntas sobre su funcionamiento que no fueron respondidas:
- En caso de detección de vulnerabilidades en el software, ¿cuál es el plan de acción? Por la falta de respuesta no parece haber uno. Todo software es vulnerable. Siempre. Tener un plan de contingencia es necesario cuando se manejan datos sensibles como la información biométrica.
- Los sistemas de reconocimiento facial suelen usar aprendizaje automático. Estos suelen estar sesgados hacia la población mayoritaria que hayan usado en los datos de entrenamiento, que en general están sesgados hacia personas caucásicas, jóvenes, cis género, masculino. En este caso, no nos respondieron qué base de datos se usó por derechos de autor de la empresa contratada.
- ¿Cuál es la política de permisos para manipular el sistema? Tienen que haber reglas claras para evitar abusos y para permitir auditorías.
¿Cómo podés ayudar?
El juez de la causa dispuso que, aquellas personas y organizaciones que se consideren con interés o capacidad de aportar a la causa, sean invitadas a realizar una presentación de amicus curiae hasta el 22 de septiembre. Esto es, una presentación voluntaria con tu opinión o demanda. Acá podés ver un ejemplo
Podés escribir un Amicus Curiae, a nombre de una o más personas, o de una asociación.
Si estás familiarizado con el sistema de Justicia de la Ciudad de Buenos Aires podés subir el documento al expediente 182908/2020-0.
Si no estás familiarizado, podés enviarnos el documento a odiaasoc@gmail.com y nosotres nos encargamos.