Sí, lo sabemos, ningún sistema de reconocimiento facial es 100% preciso, pero el caso de Londres y su flamante tecnología está dejando muchas dudas. Según los datos obtenidos a través de la ley de libertad de Reino Unido, la tecnología de reconocimiento facial automatizada (AFR) utilizada por la Policía Metropolitana de Londres, tiene una tasa del 98% de falsos positivos. La más alta de la que se tiene registro público.
Ante esto, Cressida Dick, comisionada de la Policía Metropolitana del Reino Unido (Met), ha salido a aclarar que hasta el momento el sistema está en etapa de pruebas y que al final "no esperan muchas detenciones" derivadas del uso de esta tecnología. Y asegura, que a día de hoy no se ha arrestado a nadie usando AFR.
"Tecnología casi completamente inexacta"
A pesar de todo esto, la Met sigue defendiendo el uso de esta tecnología alegando que están en fase de pruebas y que mejorará con el paso del tiempo. De hecho, siguen luchando por superar los desafíos legales acerca de la privacidad y el manejo de la información recabada.
La Met asegura que el objetivo detrás de su sistema AFR es usarlo en eventos públicos multitudinarios, como conciertos, festivales y partidos de fútbol. Aquí hay que recodar que hace unos meses esta tecnología se puso a prueba durante la final de la Champions, donde dejó 2.000 falsos positivos.

La institución menciona que ya han perfeccionado su uso en entornos controlados, como en los puntos de migración en las fronteras, pero aún no logran los mismos resultados en las calles de la ciudad y en lugares públicos. La Met asegura que a día de hoy, el sistema es monitorizado "constantemente" por agentes de policía, y que hasta el momento no han arrestado a ni una sola persona por una falsa coincidencia.
Big Brother Watch, una organización sin fines de lucro que lucha por el derecho a la privacidad, fue quien solicitó los datos al gobierno del Reino Unido, y advierte que esta tecnología fue implementada sin ponerse a debate público. Mencionan que este sistema hará que cualquier sitio se convierta en un punto de control biométrico, lo que afectará los derechos humanos de los individuos y su libre expresión.
Por otro lado, cuando se cuestionó a la comisionada Dick acerca de estos fallos al estar usando tecnología casi completamente inexacta, así como los problemas de privacidad que conlleva, sólo mencionó que estaba "completamente cómoda", ya que al final "es solo una prueba, ¡y es lo que el público querría!".
Ver 13 comentarios
13 comentarios
sarpullido
La cuestion es preguntarse como hemos llegado a este punto..., y que le han dado a esta sociedad para que lo asimile como algo normal.
cefalopodo
Más o menos la misma fiabilidad que tendría un mono después de tomarse unas botellas de anís.
zarr
Una tasa de falsos positivos del 98% no es una tecnología "tecnología casi completamente inexacta". Al contrario, puede ser muy buena.
Existen dos métricas, la tasa de falsos negativos y la tasa de falsos positivos. Es muy difícil hacer las dos igual a cero, por lo que se suele dar prioridad a una de ellas dependiendo de la importancia del error. Por ejemplo, en seguridad sería más grave no detectar a un terrorista fichado por la policía (un falso negativo) que etiquetar como peligrosa a una persona de a pie (un falso positivo), ya que en este último caso se puede hacer una comprobación manual posterior.
En un partido de la Champions, en el que el sistema probablemente procesó millones de caras, sólo han saltado 2000 avisos, y de esos el 98% eran falso positivos. Asumiendo que no ha habido falsos negativos, eso es un muy buen resultado, ya que ha detectado a 40 personas potencialmente conflictivas (el 2% de los 2000 avisos), y la policía sólo ha tenido que chequear en detalle a 2000 personas, en lugar de los millones que han pasado por los puntos de control.
Por tanto, no hay datos suficientes para concluir si el sistema es muy bueno o muy malo. Todo depende del número de falsos negativos, que es muy difícil de evaluar (ya que no se han detectado).
Land-of-Mordor
"...Cressida Dick, comisionada de la Policía Metropolitana del Reino Unido (Met)..."
¿Seguro que no es "comisaria" en vez de "comisionada"? Porque en español son cosas diferentes...
dimasdmm
Es decir, el 2% restante lo acierta de pura casualidad?
Ricardo
@Sarpullido
La inmensa criminalidad y violencia de nuestras ciudades hizo a la población exigir la implantación de este sistema de reconocimiento facial de la misma forma que los policías ahora tienen cámaras de vídeo que suben todo a YouTube. No es ninguna malvada agenda en contra "derechos humanos de los individuos y su libre expresión", la propia población exigió ese sistema por su seguridad y ha funcionado: los delitos se encuentra en tendencia bajista desde hace años comparado con décadas anteriores a la implantación masiva de cámaras