edición general
346 meneos
2559 clics
Amazon retira la herramienta basada en IA para el reclutamiento porque mostró sesgos contra las mujeres

Amazon retira la herramienta basada en IA para el reclutamiento porque mostró sesgos contra las mujeres

En efecto, el sistema de Amazon aprendió que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán del club de ajedrez para mujeres". Y degradó a los graduados de dos universidades femeninas, según personas relacionadas con el tema. No especificaron los nombres de las universidades. Amazon cambió los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos...

| etiquetas: amazon , genero , sesgo , recruiting , contratacion , ia , robots

menéame