Para ver esta nota en internet ingrese a: https://www.diarionorte.com/a/205920

Controles biométricos y derechos humanos

Algunas tecnologías de vigilancia son tan peligrosas que inevitablemente causan muchos más problemas de los que resuelven. El uso de reconocimiento facial y tecnologías biométricas remotas en espacios públicos permiten la vigilancia masiva y discriminatoria. Así lo asegura una carta abierta redactada por la organización de derechos humanos Access Now, que ha iniciado una campaña global para alertar sobre los abusos que se podrían cometer con el empleo de estas sofisticadas tecnologías.

En nuestro país una de las primeras organizaciones no gubernamentales que alertó sobre el problema fue la Asociación por los Derechos Civiles (ADC), que lanzó a nivel local la campaña “Con mi cara no”, a través de la cual explica que el reconocimiento facial es una tecnología que permite reconocer e identificar a las personas mediante los rasgos de su rostro; y observa que si bien debe admitirse que hay ciertas aplicaciones de esta herramienta tecnológica que son útiles, el uso indiscriminado, combinado con la ausencia de una regulación apropiada y precisa, está poniendo en riesgo el ejercicio de los derechos fundamentales de la ciudadanía, el disfrute del espacio público y el desarrollo de la vida en sociedad.

Según la ADC, en nuestro país esta tecnología se extiende cada vez más como una herramienta de vigilancia y control, debido a que, a partir del reconocimiento que hace de las características físicas y de comportamiento, se utiliza para identificar a las personas. La organización no gubernamental señala que la Ciudad Autónoma de Buenos Aires, el municipio de Tigre en la provincia de Buenos Aires y las provincias de Salta, Córdoba, Santa Fe y Mendoza son las jurisdicciones que aplican estos sistemas sin haber corroborado si afectan o no los derechos de los ciudadanos. En ese sentido, remarca que debido a que el programa informático de reconocimiento facial trabaja en función de un conjunto de instrucciones definidas para resolver un problema o realizar una tarea (es decir, un algoritmo), es importante conocer cómo fue entrenado ese algoritmo para realizar la detección, mapeo y contraste de los rasgos faciales y cuáles son las tasas de error programadas en el software.

En este punto, vale la pena detenerse en un asunto que no es menor y que es advertido por la ADC: el entrenamiento del algoritmo define la precisión con la cual podrá reconocer rostros en diversos escenarios. Por ejemplo, ante cambios de luz, fondos con distintos colores o ángulos variados, también puede incidir en la certeza del reconocimiento. “En esta instancia, aspectos sensibles como el tono de piel y el género de una persona juegan un rol crucial, dado que el software de reconocimiento facial puede discriminarlas, sea por ejemplo si confunde a una persona con otra por tener rasgos parecidos sólo por su tez, o incluso estigmatizando las identidades binarias y no binarias”, señala la asociación civil. Y agrega: “De acuerdo con la precisión del entrenamiento, los sistemas de reconocimiento facial pueden ser más o menos discriminatorios. La decisión sobre el entrenamiento del algoritmo y las tasas de error con la que contará el software biométrico es tanto una cuestión técnica como política”.

Eso mismo plantea como problema a nivel global la declaración de la organización Access Now, con sede en Bélgica, y que tiene el acompañamiento de Amnistía Internacional, European Digital Rights (EDRi), Human Rights Watch, Internet Freedom Foundation (IFF), el Instituto Brasilero de Defensa del Consumidor (IDEC), la propia ADC y más de 170 organizaciones defensoras de derechos humanos de distintos países que se sumaron al llamado para que no se autorice el uso de estas tecnologías.

En la Argentina, la Asociación por los Derechos Civiles enumera una serie de riesgos que se corren en las jurisdicciones donde se emplean estas tecnologías, entre ellas el uso encubierto de las mismas o sin consentimiento de la población, el problema que se presenta ante la inversión de la carga de la prueba (todos son culpables hasta que el algoritmo determine que no lo son) y la afectación a garantías del debido proceso. Además, debido a que la tecnología es imprecisa y arroja un alto porcentaje de falsos positivos contra personas de tez no blanca y mujeres (además de otras comunidades en situación de vulnerabilidad), es muy alta la probabilidad de que se institucionalicen prácticas discriminatorias.

La sola posibilidad de que las tecnologías de identificación de personas puedan vulnerar los derechos fundamentales de la ciudadanía obliga a prestar más atención a este debate que recién comienza.