Lo ético y responsable de la inteligencia artificial

Inteligencia Artificial compliance

Algunos principios que guían el uso responsable de la Inteligencia Artificial (IA) tienen que ver con la transparencia, equidad, la privacidad, seguridad; el consentimiento informado y el beneficio social. Estas reglas éticas son establecidas por organizaciones gubernamentales, expertos en ética, empresas y comunidades.

La Inteligencia Artificial (IA) es la emulación de la humana, a partir de sistemas lógicos o algoritmos, y sistemas informáticos que permiten realizar tareas específicas.


Banner_frasco-suscripcion-800x250

Especialistas en ética afirman que hay bots conversacionales, robots y asistentes digitales que a menudo no pueden distinguirse de los humanos. Según los científicos y expertos en IA, estamos en una carrera contra el tiempo, hay que encontrar pautas éticas antes que la tecnología nos alcance.

Mientras el profesor de IA, Jürgen Schmidhuber, vaticina un contexto con fábricas de robots en el espacio, el físico sueco-estadounidense, Max Tegmark, alerta sobre un estado de control totalitario; y el filósofo Thomas Metzinger refiere de una carrera armamentista, mortal, basada en la IA. La discusión de los creadores de IA se basa en lo que es y representa el futuro. En tanto, el análisis de los pensadores éticos se basa en desarrollar criterios y principios que den un uso adecuado a todos estos sistemas.

Las inteligencias artificiales deben cumplir con normas relacionadas con la privacidad de datos, seguridad cibernética, discriminación, transparencia y responsabilidad.

En 2021, la Unesco publicó el Primer Acuerdo Internacional de Ética en Inteligencia Artificial, prohibiendo el uso de la tecnología para uso masivo en vigilancia y generando recomendaciones no vinculantes para 193 países. En Europa se creó una Junta Europea de Inteligencia Artificial, dependiente de la Comisión Europea, generando varias normas y protocolos de uso ético de la IA, como la participación de expertos para probar y validar sistemas, multas para empresas desarrolladoras de Inteligencia Artificial, declaradas como de alto riesgo; además de medidas armonizadas de transparencia y previsiones en caso de que usuarios manipulen contenidos.

El BID, con C Minds (Cambios Audaces y Significativos) ha generado una guía, recopilando y explicando cinco principios éticos esenciales para el uso de IA en Latinoamérica: 1)Seguridad y robustez, para que las tecnologías e Inteligencia Artificial sean seguras y con estándares que periódicamente se revisen para evitar y controlar riesgos de ataques cibernéticos. 2) La equidad, inclusión y no discriminación, para que la IA sea pensada, creada e implementada con el fin de reducir al mínimo el riesgo de daño contra los usuarios o grupos vulnerables; y que sean accesibles a todos. 3) Privacidad en el comportamiento responsable del uso de datos. Luego, transparencia y explicabilidad, para generar confianza en la IA y explicar de forma sencilla y hábil su uso. 4) Responsabilidad y rendición de cuentas, para supervisar el correcto funcionamiento de los sistemas y rendir cuentas si se ven afectados derechos fundamentales.

Algunas funciones de la IA incluyen el aprendizaje automático, el procesamiento del lenguaje natural, la visión por sistemas computacionales, la robótica y la generación de información para la toma de decisiones, esta última puede ser generada de forma automática por la propia Inteligencia Artificial.

Por Alberto A. Salamanca Kacic / Docente universitario

Fuente: eldeber.com.bo

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉