Tecnologías emergentes: La IA puede convertirse en la mejor arma contra la discriminación

¿Cómo evitar sesgos históricos y desarrollar mejores algoritmos que puedan aprender a tomar decisiones justas a partir de datos injustos? Cuando se hayan elaborado las pautas éticas, la inteligencia artificial (IA) se convertirá en un revolucionario cambio de juego, dice Blue Yonder.

La «equidad» es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la inteligencia artificial (IA) constituye un arma afilada que podría usarse para lograr niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminación.


Banner_frasco-suscripcion-800x250

Pero retrocedamos un poco: Al mirar los datos, rápidamente se descubre que las decisiones humanas son intrínsecamente injustas. Eso no quiere decir que sean correctas o incorrectas, porque a menudo son subjetivas, sino que literalmente pueden ser injustas. Esto se debe a que el mundo en el que vivimos está desequilibrado, y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza. ¿Deberían los ricos pagar impuestos más altos? Muchos dirían que “sí”, que es justo. ¿Le cobrarías más a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en sí mismo.

Ahora aplique esa noción a la IA, un sistema en el que los datos se introducen en una máquina para que ese algoritmo derive las decisiones resultantes para que los humanos actúen con mayor precisión de la que podrían lograr ellos mismos. Si los datos que se alimentan están contaminados por sesgos históricos, eso es lo que se utilizará para tomar decisiones futuras. El ciclo no solo continuará, sino que se exacerbará hasta un grado sin precedentes.

Tomemos los patrones de contratación, por ejemplo. El género y la raza son los parámetros clásicos que la mayoría de las empresas buscan equilibrar y hacer «justos». Pero los datos y sesgos históricos desvían el objetivo previsto de la IA, por lo que se debe tomar una decisión humana sobre qué información introducir en el algoritmo.

Sin orientación hacia la equidad, el aprendizaje automático (machine learning o ML) aún puede descubrir a los mejores candidatos, pero no hay garantía de que se adhiera a una cuota o aborde la discriminación si solo se basa en pruebas discriminatorias para tomar sus decisiones.

Algunos ejemplos en donde la IA se dejó a sus propios dispositivos enfatizan la batalla ética de la que hablamos:

– Se ha descubierto que la tecnología de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se probó y se entrenó principalmente en estadounidenses blancos. En China, con los productos locales, sucede lo contrario: los rostros europeos son más difíciles de identificar.

– En el lado de género, Amazon fue desafiada por sus procesos de selección, que se encontraron más basados en los hombres como consecuencia de confiar en datos históricos con decisiones injustas.

Estos resultados fueron inicialmente sorprendentes e identificaron el problema. La comunidad de IA tomó esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender a tomar decisiones justas a partir de datos injustos. Muchas empresas ahora se preocupan por utilizar datos de formación más equilibrados. Es un paso en la dirección correcta, aunque aún queda trabajo por hacer.

Conoce más aquí

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉