Los investigadores del ente, liderados por Joy Buolamwini, llegaron a esta conclusión después de someter el software Rekognition a una serie de pruebas. En particular, descubrieron que el software no cometió errores a la hora de identificar a los hombres con piel más clara. Sin embargo, confundió mujeres con hombres el 19% de las veces, mientras que su margen de error alcanzó el 31% a la hora de identificar a mujeres de piel más oscura, informa el portal The Verge.
La empresa Amazon negó que el estudio pudiera sugerir algo sobre la precisión de la tecnología. De acuerdo con la compañía, los investigadores no probaron la última versión de Rekognition. Además, en la empresa consideran que la prueba de identificación fue realmente un análisis facial (que detecta expresiones y características como vello) y no una identificación (que hace coincidir caras escaneadas con las fotografías), reporta el medio.
También: Gobierno de México denuncia actos de racismo en EEUU
Joy Buolamwini busca concienciar a la sociedad sobre el sesgo que hay en el software de reconocimiento facial y obligar a las compañías alrededor del mundo a producir programas más precisos que utilicen sus capacidades éticamente. La investigadora vincula el problema con la así llamada "mirada codificada", informa el portal Business Insider.
"[La mirada codificada] Es la reflexión de prioridades, preferencias y a veces prejuicios de aquellas personas que tienen capacidad para desarrollar las tecnologías", declaró Buolamwini ante el público del Foro Económico Mundial de 2019 en Davos.
Esta investigación no es la única que ha detectado el mal desempeño del software de reconocimiento de Amazon.
En 2018 la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) condujo una prueba en cuyo transcurso escaneó imágenes de miembros del Congreso. Posteriormente Rekognition hizo coincidir erróneamente estas imágenes con las de los criminales.