En México, miles de personas son grabadas, identificadas y analizadas cada día por sistemas de reconocimiento facial instalados en calles, aeropuertos, estadios y espacios públicos, sin que exista una regulación específica ni garantías de transparencia.
Así lo advierte el informe “No nos vean la cara” publicado por la Red en Defensa de los Derechos Digitales (R3D), que documenta desde hace más de cuatro años la rápida expansión de esta tecnología en el país.
De acuerdo con R3D, el reconocimiento facial —una rama de la inteligencia artificial que analiza patrones biométricos del rostro— se presenta como una herramienta de seguridad, pero en la práctica es una tecnología intrusiva, poco confiable y con efectos discriminatorios. Entre sus principales fallas destacan los falsos positivos y negativos, que afectan con mayor frecuencia a personas de piel oscura, mujeres y adultos mayores.
Un estudio del Instituto Nacional de Estándares y Tecnología de Estados Unidos citado en el informe demuestra que los errores de identificación son entre 10 y 100 veces más comunes en afroamericanos y asiáticos que en personas caucásicas.
Pese a estas limitaciones, las autoridades mexicanas continúan instalando cámaras y sistemas de reconocimiento facial sin realizar evaluaciones independientes ni informar a la ciudadanía.
Según la legislación nacional, el tratamiento de datos biométricos exige consentimiento expreso, sin embargo, en la práctica millones de rostros se capturan y procesan de forma remota y sin aviso, lo que vulnera el derecho a la privacidad.
El documento subraya que esta vigilancia indiscriminada convierte el espacio público en un entorno hostil para derechos como la libertad de reunión, la protesta pacífica y, sobre todo, la presunción de inocencia, al tratar a todas las personas como potenciales sospechosas sin una orden judicial ni justificación individualizada.
“Las personas no tienen oportunidad de decidir si quieren que sus datos biométricos sean recolectados”, advierte el informe.
Además, el uso de esta tecnología tiende a reproducir y amplificar desigualdades sociales existentes, afectando de forma desproporcionada a comunidades indígenas, afrodescendientes y personas de la diversidad sexual, debido a sesgos en los algoritmos y bases de datos incompletas.
Otro aspecto preocupante es la falta de reglas claras. Aunque México cuenta con leyes generales de protección de datos personales, estas no contemplan los riesgos específicos del reconocimiento facial.
“Los sistemas de TRF tratan a cada persona en el espacio público como potencial culpable”, acusa el informe.
Según R3D, muchas de estas herramientas se contratan a empresas privadas sin licitación ni estudios de impacto, y la ciudadanía carece de información sobre cómo, dónde y para qué se utilizan.
El informe también critica la visión tecnosolucionista que promueve la videovigilancia como solución automática a problemas de seguridad, sin medir los efectos secundarios.
“Saber que hay una cámara que puede identificarnos en todo momento cambia nuestra forma de comportarnos en el espacio público”.
alerta la organización, que también advierte del riesgo de filtraciones, robo de identidad y espionaje cuando bases de datos biométricos quedan expuestas.
Ante este panorama, R3D propone suspender temporalmente el uso de sistemas de reconocimiento facial en espacios públicos hasta que exista una regulación robusta, auditorías independientes y garantías de transparencia. Además, hace un llamado a abrir un debate público sobre los límites de estas tecnologías y a fomentar alternativas menos invasivas que respeten los derechos humanos.