Inteligencia artificial: estado actual, ética y legislación

inteligencia artificial IA

Según pública el portal dirigentesdigital.com

En los últimos años, la inteligencia artificial (IA) ha logrado importantes avances en casi todas sus subáreas, incluida la visión, el reconocimiento y la generación de voz, el procesamiento del lenguaje natural (comprensión y generación), la generación de imágenes y vídeos, los sistemas multiagente, la planificación y toma de decisiones y la integración de visión y control motor para robótica. Además, sus usos y aplicaciones se han ido extendiendo a través de una variedad de áreas, incluyendo juegos, diagnósticos médicos, sistemas logísticos, conducción autónoma, traducción de idiomas y asistencia personal interactiva.


Banner_frasco-suscripcion-800x250

Otro de los cambios de los últimos años es el impulso de la iniciativa privada, que se ejemplifica muy bien en los modelos de aprendizaje automatizado. Si bien hasta 2014, los modelos más importantes de esta subárea de la IA se desarrollaban en el ámbito académico, destacando las propuestas de universidades estadounidenses, a partir de ese año la industria tomó el relevo. En 2022, había 32 modelos importantes de aprendizaje automático producidos por la industria, en comparación con solo tres producidos en entornos universitarios. Entre otras razones, esto se debe a que la construcción de sistemas de inteligencia artificial de última generación requieren cada vez de mayor cantidad de datos, potencia informática y dinero, recursos que los actores privados poseen inherentemente en mayores cantidades en comparación con las organizaciones sin fines de lucro y el mundo académico. Esta expansión de los nuevos modelos patentados han tenido aplicaciones de lo más diversas: desde la participación en la fusión de hidrógeno, hasta la mejora de la eficiencia de la manipulación de matrices, pasando por la generación de nuevos anticuerpos en el campo de la medicina.

Según el Artificial Intelligence Index Report 2023, un estudio elaborado por la Universidad de Stanford, la inversión privada a nivel mundial en 2022 fue de 91.900 millones de dólares, un 26,7% menos que el año anterior. Asimismo, el número total de eventos de financiación, así como el número de empresas de reciente creación dedicadas a la IA también disminuyeron. Pese al retroceso anual, la inversión es 18 veces mayor que en 2013.

IA: problemas éticos y legislación europea

Uno de los problemas a los que se enfrentan compañías y usuarios son los crecientes conflictos generados a raíz del abuso de aplicaciones basadas en la IA. Según la base de datos AIAAIC (Incidentes y controversias sobre inteligencia artificial, algorítmica y automatización, por sus siglas en inglés), una organización sin ánimo de lucro que rastrea usos indebidos de la IA, el número de incidentes y controversias se ha multiplicado por 26 veces en la última década.

Estas violaciones éticas incluyen la fabricación de deep fakes (vídeos manipulados mediante inteligencia artificial) con fines propagandísticos, como el vídeo mostrando la rendición del presidente ucraniano Volodymyr Zelenskyy en plena guerra; o el monitoreo de llamadas de reclusos en cárceles estadounidenses. Pero la democratización de esta tecnología también ha extendido su uso indebido a toda la población. A mediados de septiembre, un grupo de decenas de madres de Almendralejo (Badajoz) denunciaba la publicación y difusión de imágenes generadas con inteligencia artificial de sus hijas en las que se simulaban sus cuerpos desnudos. Este tipo de incidentes han provocado el aumento de las iniciativas legislativas para regular este campo. El mismo informe de la Universidad de Stanford ha analizado los registros parlamentarios de 127 países, que han pasado de tan solo uno en 2016 a 37 en 2022.

Este junio, el Parlamento Europeo adoptó su posición de negociación sobre la Directiva de IA antes del inicio de las conversaciones con los Estados miembros de la Unión Europea (UE). Esta legislación busca garantizar que esta tecnología dentro de las fronteras comunitarias no viole los derechos y valores de la UE, incluida la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y ambiental. Así, a la espera de las negociaciones entre los Estados miembros, el Parlamento Europeo opta por establecer obligaciones para los proveedores y quienes implementan sistemas de IA estableciendo una serie de niveles de riesgos dependiendo de la tecnología aplicada en cada situación.

De esta manera, se prohibirían los sistemas con un nivel inaceptable de riesgo para la seguridad de las personas, como los utilizados para la puntuación social, que clasifican a las personas en función de su comportamiento social o determinadas características personales. También se busca prohibir los usos intrusivos y discriminatorios, como los sistemas de identificación biométrica en determinadas circunstancias, como en espacios de acceso público (con la excepción de las fuerzas del orden para el procesamiento de delitos graves y solo con previa autorización judicial) y de aquellos que usen características sensibles (género, raza, etnia, estatus de ciudadanía, religión, orientación política). En este sentido, el Parlamento Europeo también busca vetar los sistemas predictivos (basados en perfiles, ubicación o comportamiento delictivo pasado) o de reconocimiento de emociones por parte de las fuerzas del orden, en la gestión de fronteras, el lugar de trabajo o las instituciones educativas.

La UE, además de las iniciativas legislativas, dirige parte de sus esfuerzos al testeo de los productos y servicios que usan IA. Para garantizar que la expansión de esta tecnología no entre en conflicto con los valores europeos y sus 450 millones de ciudadanos, la Comisión Europea, más de la mitad de los Estados miembros y 128 socios externos han asignado 220 millones de euros para establecer cuatro instalaciones experimentales y de prueba de primer nivel denominados TEF. Estos centros actuarán como filtros y salvaguardias entre los proveedores de tecnología y la sociedad. El 27 de junio se inauguraron en Copenhague, Dinamarca, los cuatro primeros proyectos centrados en agroalimentación (AgrifoodTEF), asistencia sanitaria (FTE-Salud), fabricación (AI-MATTERS) y ciudades y comunidades inteligentes (Citcom.AI).

Vea también:  Principales desafíos de las empresas españolas para adoptar soluciones de IA

Escepticismo de la opinión pública

De la misma manera, la opinión pública también ha ido variando en relación con esta tecnología. La encuesta Global Views on AI 2023 elaborada por IPSOS en 31 países, incluido España, refleja que solo la mitad de los encuestados ven de manera positiva las aportaciones de la IA. En este sentido, solo un 54% está de acuerdo con que “los productos y servicios que utilizan inteligencia artificial tienen más beneficios que inconvenientes”. En el caso de España, el porcentaje es inferior (50%). Asimismo, los países occidentales, donde la implementación de esta tecnología es mayor, son los más escépticos: en el caso de Francia y Estados Unidos, solo un 37% de los participantes están de acuerdo con esta afirmación.

Otro de los datos preocupantes extraídos de esta encuesta es la falta de confianza que tiene la opinión pública en esta tecnología. Así, solo un 56% confía en que la IA es inmune a la discriminación hacia cualquier grupo de personas y solo la mitad cree que las empresas que utilizan inteligencia artificial protegen sus datos personales. Otra vez, en el caso de España estos porcentajes son más bajos (51% y 49%, respectivamente).

Pese al escepticismo de buena parte de la población, casi la mitad (49%) afirma que la IA ha afectado de manera significativa a su vida diaria, y casi dos tercios (66%) cree que este impacto será mayor en el próximo lustro. En España estos porcentajes vuelven a ser más bajos (41% y 61%, respectivamente).