Para ver esta nota en internet ingrese a: https://www.diarionorte.com/a/209319

¿Tecnologías de vigilancia amenazan la privacidad?

Los avances tecnológicos extraordinarios de las últimas décadas hicieron posible que sistemas biométricos de vigilancia masiva y reconocimiento facial estén presentes, cada vez más, en la vida cotidiana de la gente.

Tienen la capacidad de identificar, seguir, individualizar y rastrear personas. Presentados como una herramienta para la seguridad pública, son aceptados por buena parte de la ciudadanía. Sin embargo, organizaciones no gubernamentales aseguran que, sin controles adecuados, representan una amenaza a la privacidad.

El informe titulado “Tecnología de vigilancia en América Latina. Hecha en el exterior, utilizada en casa”, analiza la creciente infraestructura de vigilancia biométrica en Argentina, Brasil y Ecuador. El trabajo está basado en una investigación realizada por el Laboratorio de Políticas Públicas e Internet (LAPIN), la Asociación por los Derechos Civiles (ADC), LaLibre.net (Tecnologías Comunitarias) y Access Now, entre otras organizaciones no gubernamentales que ponen la lupa sobre la poco transparente industria de la vigilancia masiva en América Latina. Al presentar este informe, el gerente de Políticas para América Latina de la organización Access Now dijo que ese trabajo “expone la total falta de rendición de cuentas y transparencia a la que los gobiernos y las empresas de tecnología de vigilancia deben adherirse”.


El problema, por supuesto, no está presente solo en nuestra región. El informe citado señala que grupos de la sociedad civil en todo el mundo vienen alertando sobre prácticas discriminatorias en el empleo de sistemas de reconocimiento facial y otras tecnologías de vigilancia biométrica, y existen movimientos y campañas para prohibir su uso en la Unión Europea, los Estados Unidos, India y Rusia.

El documento asegura que representan una creciente amenaza para el ejercicio de los derechos humanos ya que dan a las autoridades la capacidad de identificar, seguir, individualizar y rastrear a personas, vulnerando los derechos a la privacidad y a la protección de los datos personales, el derecho a la libertad de reunión pacífica y de asociación y los derechos a la igualdad y no discriminación.

Una de las primeras organizaciones no gubernamentales que alertó sobre el problema en la Argentina fue la Asociación por los Derechos Civiles (ADC), que lanzó la campaña “Con mi cara no”, a través de la cual explica que el reconocimiento facial es una tecnología que permite reconocer e identificar a las personas mediante los rasgos de su rostro; y observa que si bien debe admitirse que hay ciertas aplicaciones de esta herramienta tecnológica que son útiles, el uso indiscriminado, combinado con la ausencia de una regulación apropiada y precisa pone en riesgo el ejercicio de los derechos fundamentales de la ciudadanía, el disfrute del espacio público y el desarrollo de la vida en sociedad.

Según la ADC, en nuestro país esta tecnología se extiende como una herramienta de vigilancia y control. Además, indica que la Ciudad Autónoma de Buenos Aires, el municipio de Tigre en la provincia de Buenos Aires y las provincias de Salta, Córdoba, Santa Fe y Mendoza son las jurisdicciones que aplican estos sistemas sin haber corroborado si afectan o no los derechos de los ciudadanos.

El problema es que debido a que los programas informáticos de reconocimiento facial operan en función de un algoritmo (instrucciones definidas para resolver un problema o realizar una tarea), es importante conocer cómo fue entrenado ese algoritmo para realizar la detección, mapeo y contraste de los rasgos faciales y cuáles son las tasas de error programadas en el software.

Es que el entrenamiento del algoritmo define la precisión con la cual podrá reconocer rostros en diversos escenarios. Por ejemplo, ante cambios de luz, fondos con distintos colores o ángulos variados, también puede incidir en la certeza del reconocimiento.

“En esta instancia, aspectos sensibles como el tono de piel y el género de una persona juegan un rol crucial, dado que el software de reconocimiento facial puede discriminarlas, sea por ejemplo si confunde a una persona con otra por tener rasgos parecidos solo por su tez, o incluso estigmatizando las identidades binarias y no binarias”, señala la asociación civil.

Y agrega: “De acuerdo con la precisión del entrenamiento, los sistemas de reconocimiento facial pueden ser más o menos discriminatorios. La decisión sobre el entrenamiento del algoritmo y las tasas de error con la que contará el software biométrico es tanto una cuestión técnica como política”. Se trata de un tema que, por todo lo que implica, merece un debate público para fijar con claridad la delgada línea que separa la seguridad pública de la vida privada de las personas.