Los especialistas de machine-learning de Amazon descubrieron que a su nueva Inteligencia Artificial encargada de controlar el reclutamiento de personal no le gustaban las mujeres.
Esto es porque los modelos informáticos de Amazon estaban entrenados observando patrones en currículums entregados a la compañía en un período de 10 años. La mayoría eran hombres, un reflejo del dominio masculino en la industria tecnológica. La Inteligencia Artificial pensó que la razón de esto debía significar que las mujeres eran inferiores en ese campo.
De esta forma, el sistema de Amazon se auto-enseñó que los candidatos hombres eran preferibles. Penalizaba currículums que incluían la palabra «mujeres», como en «capitana del club de ajedrez de mujeres», y le bajaba el puntaje a las graduadas de universidades exclusivas de mujeres.
Amazon editó los programas para hacerlos neutrales en estos términos particulares, pero no hay garantía que las máquinas no encuentren otra forma de clasificar candidatos que pueda ser discriminatorio.
El equipo estuvo desarrollando software para reclutamiento desde 2014, el cual se encargaba de controlar los curriculums de los candidatos a puestos de trabajo, con la idea de mecanizar la búsqueda de los mejores talentos.
La automatización fue la clave para el dominio del e-commerce de Amazon, tanto dentro de los almacenes como manejando decisiones de precios. La herramienta de reclutamiento experimental de la compañía usaba inteligencia artifical para darle un puntaje a los candidatos desde 1 a 5 estrellas, similar a los productos de Amazon.
El equipo dijo a la prensa que Amazon quería la mejor IA, un motor donde le darías 100 currículums, y te devolvería los cinco mejores.
¿Qué opinan de esta Inteligencia Artifical de Amazon?
Fuente: Fudzilla