Sin categoría

alimentos gastritis Roberto Pocaterra//
El algoritmo de Amazon al que no le gustan las mujeres | BBC

alimentos_gastritis_roberto_pocaterra_el_algoritmo_de_amazon_al_que_no_le_gustan_las_mujeres_bbc.jpg

Amazon logró con Alexa convertirse en el rey de los asistentes personales y de la automatización. Tal vez por eso no resulte extraño que la firma quisiera poner la contratación de sus empleados en manos de la inteligencia artificial .

Roberto Pocaterra Pocaterra

Pero esta aventura no salió como esperaba

En 2014 la compañía de comercio electrónico puso en marcha un sistema algorítmicocon el que esperaba optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal.

Roberto Pocaterra

Pero Amazon tuvo que despedir a su nuevo reclutador porque el algoritmo resultó ser sexista, de acuerdo con una investigación elaborada por Reuters

El sistema recibió información sobre solicitantes de empleo en Amazon durante un periodo de 10 años, y fue entrenado para observar patrones

Notas relacionadas El mayor templo de videojuegos de Latinoamérica | FOTOS Nave Soyuz tuvo un accidente similar hace 35 años Y la mayoría de ellos eran hombres, lo cual pudo resultar en el sesgo que afectó a su toma de decisiones

Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo “se enseñó a sí mismo que los candidatos masculinos eran una preferencia”

El algoritmo aprendió por su cuenta que ser hombre era favorable para trabajar en Amazon. (Foto: Getty Images)

Según el informe de Reuters, esta tecnología funcionaba revisando solicitudes de empleo y dándoles a los candidatos un puntaje de una a cinco estrellas

“Querían crear una máquina que recibiera 100 currículos y seleccionara los cinco mejores, para después nosotros contratarlos”, explicó uno de los ingenieros, que prefirió no revelar su identidad

Amazon todavía no ha respondido a las acusaciones. 

Mujeres “penalizadas”

En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software

Entonces, comenzó a penalizar a los currículos que incluían la palabra “mujer”

Las mujeres eran descartadas principalmente para puestos técnicos. (Foto: Getty Images)

El programa fue revisado para intentar erradicar el sesgo, pero Amazon ya no podía seguir confiando en él

Finalmente, el proyecto fue abandonado, aunque Amazon nunca llegó a sacar a la luz información sobre este proyecto fallido

Pero, de acuerdo con el informe de Reuters, el algoritmo fue usado durante algún tiempo por los reclutadores de personal de la compañía, quienes tenían en cuenta sus recomendaciones para sus decisiones (aunque no se regían únicamente por ellas). 

60/40

Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países

Y la compañía fue nombrada en el último análisis de la red social para contactos profesionales LinkedIn “la mejor empresa del mundo para trabajar” por su retención de talento, solicitudes del empleo y el grado de interés que despierta

Según LikedIn, Amazon es la mejor empresa del mundo para trabajar. (Foto: Getty Images)

Cerca del 55% de los directores de recursos humanos en Estados Unidos dicen que la inteligencia artificial jugará un papel crucial en la contratación de personal en los próximos cinco años , de acuerdo con una entrevista elaborada por la firma de software CareerBuilder. 

Algoritmos discriminadores

Esta no es la primera vez que hay dudas sobre cuán confiables son los algoritmos y cómo los datos que analizan pueden resultar en decisiones sesgadas

En junio, un experimento del MIT, el Instituto Tecnológico de Massachusetts, EE.UU., reveló que es posible entrenar a un algoritmo para convertirlo en psicópata y que interprete la realidad de cierta manera

El MIT creó un algoritmo psicópata. (Foto: MIT)

Y en mayo del año pasado un informe sugirió que alguno programas computacionales generados por inteligencia artificial usados por un tribunal en Estados Unidos discriminaban a las personas de raza negra

En algunos algoritmos de vigilancia predictiva también se observó el mismo sesgo: como los datos mostraban que los negros eran arrestados más veces, el sistema tomó esa pauta como norma

Seguir a @tecnoycienciaEC Tweets by tecnoycienciaEC