Tecnologías emergentes: Europa está mal protegida frente a la inteligencia artificial

sectores

Los Estados europeos deben reforzar sus legislaciones para proteger los derechos fundamentales frente a la inteligencia artificial, que puede ser fuente de errores y discriminación, según un informe publicado este lunes.

«Gran parte del interés (ndlr: en la inteligencia artificial) se centra en su potencial para apoyar el crecimiento económico. Se ha prestado menos atención a la forma en la que puede afectar los derechos fundamentales», escribe la Agencia Europea de Derechos Fundamentales (FRA), con sede en Viena, en un documento de un centenar de páginas.


Banner_frasco-suscripcion-800x250

La inteligencia artificial (IA) designa las tecnologías que permiten a las máquinas imitar alguna forma de inteligencia real, «aprender» analizando su entorno en lugar de aplicar las instrucciones dictadas por un desarrollador humano.

Estos softwares, con muchas aplicaciones (asistentes de voz, sistemas de reconocimiento de voz y facial, robots avanzados, coches autónomos) están siendo utilizados por las autoridades públicas, el personal médico, el sector privado y la enseñanza, entre otros.

De promedio, el 42% de las compañías europeas la utiliza. La República Checa (61% de las empresas), Bulgaria (54%) y Lituania (54%) son los países donde está más extendida.

Los anunciantes recurren a la inteligencia artificial para seleccionar a los consumidores en línea a través de algoritmos y «la epidemia de coronavirus ha acelerado su adopción», según el informe.

«Uno de los riesgos es que la gente adopte a ciegas las nuevas tecnologías, sin evaluar el impacto antes de usarlas», explicó a la AFP David Reichel, uno de los autores del texto.

La inteligencia artificial puede violar la privacidad. También puede dar lugar a discriminación en el empleo, si determinados criterios excluyen a categorías de la población.

Cuando reciben un diagnóstico médico incorrecto o se les niega una prestación social, los ciudadanos europeos no siempre saben que la decisión fue tomada automáticamente por un ordenador.

Por eso no están en condiciones de poder impugnarla o presentar una denuncia. La inteligencia artificial, creada por personas, no es infalible.

Por ejemplo, la Corte de Apelaciones británica dictaminó que el programa de reconocimiento facial utilizado por la policía de Cardiff puede desembocar en prejuicios raciales o de género.

«La tecnología evoluciona más rápido que la ley. Ahora debemos asegurarnos de que el futuro marco regulador de la UE para la inteligencia artificial se base inequívocamente en el respeto de los derechos humanos y los derechos fundamentales», recalca Michael O’Flaherty, director de la FRA.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉