0
Publicado el 3 Enero, 2020 por Redacción Digital en Tecnología
 
 

¿son racistas?

La falla en los sistemas de reconocimiento facial

Algunos usuarios han reportado que el sistema no es 100% efectivo porque reconoce los rostros de otras personas para desbloquear el dispositivo o, simplemente, no los reconoce.
Imagen a reconocer

foto: vix

Una investigación del Instituto Nacional de Estándares y Tecnología (NIDT) encontró fallas en los sistemas de reconocimiento facial que dificultan la identificación de personas afromaericanas y asiáticas.

Los sistemas de reconocimiento facial son un invento relativamente nuevo que dicen proveer mayor seguridad a los usuarios, pues solo los dueños de los dispositivos pueden desbloquearlos utilizando su cara. Sin embargo, estos sistemas también son utilizados por agencias policiacas y de seguridad.

Algunos usuarios han reportado que el sistema no es 100% efectivo porque reconoce los rostros de otras personas para desbloquear el dispositivo o, simplemente, no los reconoce.

Las quejas motivaron al NIDT a llevar a cabo una investigación sobre el funcionamiento de los sistemas de reconocimiento facial.

El estudio, dirigido por Patrick Grother, cuantificó la precisión de los algoritmos para grupos demográficos divididos por sexo, edad y raza o país de nacimiento.

Grother y sus compañeros analizaron 189 algoritmos de 99 desarrolladores distintos, utilizando 18.27 millones de imágenes de 8.49 millones de personas.

De acuerdo con el estudio, las fotografías fueron tomadas de bases de datos del Gobierno de Estados Unidos como el Departamento de Estado, el Departamento de Seguridad Nacional y el FBI.

Para evaluar los sistemas de reconocimiento facial se utilizaron dos parámetros: falsos positivos y falsos negativos.

Los falsos positivos son cuando el sistema no distingue entre dos personas. Es decir, le muestran una foto donde aparecen diferentes personas y el algoritmo los reconoce como una sola. El falso negativo se produce cuando el sistema no reconoce a la misma persona en dos fotos distintas.

reconocimiento facial chino

foto: vix

Los resultados de la investigación arrojaron que las tasas de falsos positivos son más altas en las personas de África y de Asia oriental, y las más bajas en las personas de Europa del Este. Es decir, los algoritmos tienen problemas para distinguir personas de raza afroamericana y asiática, principalmente.

El problema persiste en su mayoría en algoritmos desarrollados en Estados Unidos. Los sistemas asiáticos presentaron un margen de error más bajo. Sin embargo, en todos los sistemas, los falsos positivos son más altos en mujeres que en hombres.

Los falsos negativos son más comunes de ocurrir en cualquier sistema y se pueden remediar haciendo un segundo intento, por lo que no causan tanto problema.

De acuerdo con los investigadores, además del problema racial, la falla en los sistemas podría ocasionar problemas de seguridad.

«Los falsos positivos pueden presentar un problema de seguridad para el propietario del sistema, ya que pueden permitir el acceso a impostores. Los resultados son particularmente importantes porque las consecuencias podrían incluir acusaciones falsas», dice el estudio.

La investigación no analizó la causa y efecto de los algoritmos, lo cual está estrechamente relacionado con su entrenamiento.

Sin embargo, el estudio concluye que los sistemas más equitativos son los más precisos. Esto significa que los algoritmos deben ser entrenados con una mayor variedad de imágenes y no sesgarlos, consciente o inconscientemente, con determinados tipos de raza o género.

(fuente: vix.com)


Redacción Digital

 
Redacción Digital