La utilización policial de los sistemas de reconocimiento facial automático
Acceso a Texto completo
Fuente
IUS ET VERITAS; Núm. 60 (2020)Abstract
Este trabajo analiza una reciente sentencia del Alto Tribunal de Justicia de Inglaterra y Gales, donde se enjuicia la utilización por parte de una fuerza de policía de un sistema de Reconocimiento Facial Automático (AFR) en ciertos eventos públicos. En particular, la sentencia examina si la utilización de esta técnica es contraria al artículo 8 del Convenio Europeo de Derechos Humanos (derecho al respeto a la vida privada y familiar); conculca la legislación de protección de datos de carácter personal; o tiene un sesgo discriminatorio contrario al principio de igualdad. Con respecto a lo primero, se concluye que el reconocimiento facial automático supone una injerencia en la vida privada, aunque para fundamentar esta posición ofrecemos una argumentación jurídica distinta a la de la sentencia. Seguidamente, se estudia el fundamento legal de dicha injerencia y su proporcionalidad. Con respecto a lo segundo, se reconoce que la utilización del AFR conlleva un tratamiento de datos de carácter personal especialmente sensibles, pero que dicho tratamiento cumple la normativa aplicable. Finalmente, se expone la inexistencia de datos sólidos que apoyen que AFR origina unas consecuencias discriminatorias para las mujeres y las minorías raciales. Todo este análisis se completa con referencias a la legislación peruana del objeto de estudio. This paper analyses a recent judgment from the High Court of Justice regarding the use of automated facial recognition (AFR) at public events by police forces. In particular, the judgment focuses on the questions whether the use of such technique might be contrary to article 8 of the European Convention on Human Rights (right to respect for private and family life), whether this instrument is compatible with the legislation on personal data protection and whether it has a bias towards certain groups of people that might be in conflict with the equality principle. Concerning the first issue, the author reaches the conclusion that the automated facial recognition represents an interference with the claimant´s rights under the ECHR, analyzing its necessity and proportionality. Regarding the second question, the paper states that the AFR uses personal data that are particularly sensitive; nevertheless, its use seems to be in accordance with the law. Finally, the judgment concludes that the existence of an ethnic or gender bias in the use of the AFR cannot be asserted. The Peruvian legislation on these issues is highly considered through the whole study.