Please enable JavaScript.
Coggle requires JavaScript to display documents.
Sesgo de genero Amazon - Coggle Diagram
Sesgo de genero Amazon
Concepto original
Algoritmo
Su algoritmo consistía en que de 100 trabajadores se escogerían a los mejores 5 ingenieros para algún puesto en Amazon
Pero este algoritmo tiene una función que se llama "patrón de aprendizaje" cuyo patrón causó un alboroto en su concepto original.
-
-
Más éxito.
La opción de trabajos se iba a reducir a raíz de los expedientes con más experiencia y sería menos papeleo por parte de la empresa.
-
Aprendizaje de la IA
Patron de aprendizaje
En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software.
Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países.
Históricamente, los hombres han sido contratados en mayor proporción que las mujeres en este sector, lo que significa que los datos utilizados para entrenar la IA ya estaban sesgados.
Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo "se enseñó a sí mismo que los candidatos masculinos eran una preferencia".
preferencia de genero
Cuando la IA analizaba los currículums, penalizaba a las candidatas que mencionaban haberse graduado de universidades femeninas o que habían participado en actividades relacionadas con mujeres. Por ejemplo, si una candidata mencionaba ser "capitana de un club de ajedrez de mujeres", la IA daba una puntuación más baja a su currículum.
Amazon decidió deshacerse de esta herramienta de IA debido a estos sesgos. Este caso es un ejemplo de cómo los sistemas de IA pueden reflejar y amplificar los sesgos existentes en los datos con los que fueron entrenados
-
-
Sesgos de genero
La inteligencia artificial (IA) aprende a través de datos históricos y algoritmos que se entrenan con esos datos. Sin embargo, estos datos pueden contener sesgos humanos preexistentes, lo que lleva a que la IA perpetúe y amplifique esos sesgos
Si los datos no son representativos de la población real, la IA puede desarrollar sesgos
Las normas y valores de la sociedad pueden influir en cómo se diseñan y utilizan los sistemas de IA.
Cuando la IA analizaba los currículums, penalizaba a las candidatas que mencionaban actividades o instituciones relacionadas con mujeres. Esto es un reflejo del machismo, ya que la IA aprendió a valorar menos las experiencias y logros de las mujeres simplemente porque los datos históricos mostraban una preferencia por los hombres.
LENGUAJE MASCULINO
Capacite y ejecute.
Rebaja de calificaciones a graduadas en universidades femeninas: Las graduadas de universidades exclusivas de mujeres recibieron calificaciones más bajas que sus homólogos masculinos, lo que refleja la perpetuación de estereotipos y sesgos.
No inclusión de términos femeninos: El lenguaje masculino dominante en el algoritmo excluyó términos femeninos, lo que limitó la representación de mujeres en puestos de liderazgo y roles profesionales.
-
asistentes
Razones
Percepción cultural
Voces femeninas son percibidas como calidas , agradables y serviciales
Estudios psicológicos afirman que el público tiene una preferencia a las femeninas en interraciones tecnológicas
-
Impacto
Refuerza el estereotipo
La relación entre el asistente y los roles de genero históriamente se le asocia a ma mujer con los roles de servicio y trabajo domésticos
-
Casos
-
ALEXA
Nombre y voz femenina , reforzando los roles domésticos
-
Google Assistant
Tenia la posibilidad de elegir género desde su lanzamiento , pero con predominio inicial opciones femeninas
-
Cortana
Nombrada y diseñada como mujer , basada en una figura femenina en la ciencia dicción
-
-
DESVIO DE PROPOSITO
Intento de sostener conversaciones fuera del propósito de la IA como la creación de vínculos entre la persona y la IA de manera amorosa incluso sexual
Provocaba que el algortimo aprendiera sobre un tema fuera de su razon impidiendo su desarrollo y ejecucucion correcta
Impidió la correcta evaluación de currículums dejando sin posible oportunidad de empleo a el genero contrario
La IA seleccionaba aleatoriamente a candidatos lo que provocaba que candidatos no cualificados fueran seleccionados para todo tipo de puestos en la empresa
-