Los peligrosos puntos ciegos de los algoritmos

Los peligrosos puntos ciegos de los algoritmos, cuando Apple lanzó su tarjeta de crédito en 2019, surgieron inquietudes sobre la asignación desigual de líneas de crédito basadas en género, revelando un sesgo sistémico en la evaluación financiera. Esta problemática no se limita a Apple, ya que diversos servicios financieros emplean algoritmos para decisiones crediticias, préstamos y financiamientos, generando un preocupante sesgo algorítmico.

Vea: La herramienta de IA generativa PlaiDay crea videos personalizados con una ‘selfie’


Banner_frasco-suscripcion-800x250

Tradicionalmente, los bancos utilizan sistemas de puntaje basados en historiales de pago y deuda para evaluar la solvencia crediticia. Con la digitalización, la Inteligencia Artificial (IA) ha asumido un papel crucial al calcular puntajes electrónicos, aunque la opacidad en los criterios de evaluación ha resultado en sesgos alarmantes. Factores como código postal, patrones de navegación y hábitos de compra en línea pueden influir en la calificación crediticia, perpetuando estereotipos y discriminación.

La IA, alimentada por conjuntos de datos sesgados, refleja y amplifica los prejuicios presentes en la sociedad. Este sesgo no solo afecta al género, sino también a la seguridad y justicia, como se evidencia en sistemas de reconocimiento facial con mayores errores en personas de color. El sesgo algorítmico incluso se extiende a vehículos autónomos, poniendo en riesgo a peatones de piel oscura.

Aunque la IA tiene el potencial de beneficiar la productividad y resolver problemas sociales, su aprovechamiento ético depende de datos confiables y transparentes. La inclusión de diversos grupos en la recopilación y entrenamiento de algoritmos es esencial, evitando visiones con puntos ciegos que puedan resultar en discriminación y exclusión social.

Las empresas tecnológicas desempeñan un papel clave en abordar estos sesgos. La negación de Apple respecto al sesgo de género en su tarjeta de crédito destaca la necesidad de una visión más consciente y proactiva. Identificar contextos de riesgo, establecer prácticas de prueba, participar en discusiones sobre sesgos y fomentar la diversificación del campo de la IA son medidas cruciales.

La Unesco propone recomendaciones para un uso ético de la IA, subrayando la importancia de abordar los riesgos de sesgos algorítmicos en todas las etapas de desarrollo. Con la IA cada vez más presente en aspectos cotidianos, es imperativo un escrutinio riguroso sobre sus implicaciones éticas y la responsabilidad de las empresas en la implementación de algoritmos. Según publicó: Dplnews

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉