El 21 de febrero, tras un pedido de audiencia de la Defensoría del Pueblo de la Ciudad de Buenos Aires, la jueza Liberatori convocó a las partes involucradas en la causa que evalúa la implementación del sistema de reconocimiento facial para la búsqueda de prófugos instalado en 2019 en la ciudad de Buenos Aires.
La audiencia fue para definir los términos detallados del cumplimiento de las sentencias de primera instancia y de Cámara que suspendieron su uso hasta tanto estuvieran dadas las condiciones de control apropiadas. Junto con el Observatorio de Derecho Informático de la Argentina (ODIA) y la Fundación Vïa Libre planteamos la necesidad de una auditoría efectiva del sistema antes de su reimplementación en la esfera pública.
Recordemos que el sistema de reconocimiento facial fue implementado en la Ciudad de Buenos Aires para la identificación de prófugos en 2019. En un trámite posterior a la instalación del sistema, la legislatura porteña aprobó su uso bajo el control de dos organismos: una comisión ad hoc de legisladores y la Defensoría del Pueblo de la Ciudad. El poder judicial porteño le dio a la Defensoría del Pueblo la responsabilidad de llevar adelante una auditoría del sistema para evaluar su potencial discriminador, es decir, evaluar los sesgos integrados en el mismo.
Sistemas como estos afectan derechos como la privacidad, la libertad de expresión y de reunión, el principio de inocencia y, fundamentalmente, la igualdad y la no discriminación, teniendo en cuenta también los márgenes de error propios de su funcionamiento.
La discusión más compleja tiene que ver con la necesidad de realizar auditorías efectivas sobre un sistema que, tal como afirmó el propio gobierno de la Ciudad en la audiencia, fue comprado como enlatado, sin conocer efectivamente el funcionamiento real, los datos de entrenamiento y la arquitectura del sistema, ni tener acceso a ellos. En este punto es central la discusión sobre el secreto comercial y la propiedad intelectual: en una cuestión de orden público como esta, es inadmisible que el gobierno no garantice el acceso a esta información.
Estos sistemas toman decisiones que afectan la vida de las personas, ya que disparan alertas que redundan en la intervención policial y la detención en tiempo real de una persona en la esfera pública. La falta absoluta de control sobre los softwares adquiridos por el Estado imposibilitan a la ciudadanía el control de tales contrataciones públicas lo que, en definitiva, atenta también contra principios de transparencia.
Tras el cuarto intermedio, resta ahora definir varios aspectos, entre ellos, el marco institucional y presupuestario para la auditoría, los puntos sobre los que se hará, la disponibilidad de la información provista por la empresa y la Ciudad, así como las condiciones efectivas de lo que se va a controlar en el sistema. Falta además conocer la visión de la comisión de legislatura que tiene mandato legal de contralor del sistema junto con la Defensoría del Pueblo.
En próximas reuniones, todas las partes deberán buscar acuerdos para determinar los pasos a seguir, y presentar el plan ante el Juzgado para luego encontrarse en otra audiencia. Mientras tanto, y tal como marca el poder judicial porteña, el reconocimiento facial en Buenos Aires está suspendido.
La causa fue iniciada por O.D.I.A. a la que luego se sumó el CELS y que fue apoyada como amiga del tribunal por la Fundación Vía Libre.