Beneficios y amenazas: ¿Es realmente riesgosa la inteligencia artificial?

Tomás Vera

Tomás Vera, Director de innovación de Zenta Group

Razonamiento propio o invasión, son algunas de las acciones que podrían tomar las máquinas en un futuro, así es el planteamiento que nos ha inculcado el cine. Pero, ¿qué tan real puede ser esto?

Banner_frasco-suscripcion-800x250

En la actualidad, estamos constantemente expuestos a la tecnología, hace poco la noticia de la supuesta consciencia propia, capacidad de sentir y una percepción de sí misma como humana de la IA de Google remeció el mundo. Sabemos que esto podría ser real, sino es ahora, pronto, y esto genera miedo en las personas.

La inteligencia artificial es entendida como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a lo que puede realizar la mente humana, como el aprendizaje o el razonamiento lógico (RAE). Tomás Vera, Director de innovación de Zenta Group , afirma que, “el poder de las técnicas de inteligencia artificial radica en la capacidad de procesar altos volúmenes de datos. Esta habilidad es la que permite generar predicciones sobre el comportamiento humano, pero también detectar una imagen o imitar la voz de una persona”.

Según un informe de Accenture, la adopción de inteligencia artificial en empresas chilenas supera el promedio global, ya que el 41% de las firmas declara estar implementando estas tecnologías en sus procesos versus el 31% global. Este hecho posiciona Chile como uno de los países con mayores proyecciones para la incorporación y el desarrollo de la inteligencia artificial.

Al tratarse de una tecnología relativamente nueva, aún no sabemos a qué nos estamos enfrentando, ni cuales son los parámetros que se deben seguir. Sin embargo, ya existen regulaciones en torno a esta tecnología, comenzando por legislar sobre la privacidad de los datos y su aplicación en el uso de los modelos de inteligencia artificial.

Sin embargo, existen límites que no conocemos ¿cuál sería el riesgo de que tu isapre analizara con inteligencia artificial tu riesgo como cliente?, ¿cuál sería el riesgo de que tu seguro de viaje te evalúe en base a tu comportamiento de manejo, accediendo a las velocidades de las rutas? Si tenemos una aspiradora robot esta puede mapear tu casa y saber que lugares están más sucios, cual es la distribución de tus muebles, etc. Qué pasaría si la compañía que tiene esta información decidiera utilizarla para algo que no es ético ¿quién controla ese uso?.

También sabemos que hay sitios de código abierto con modelos de machine learning que podría utilizar cualquier persona, ahora, que nos asegura que estos modelos no estén sesgados, mal utilizados, o hayan sido creados con un mal fin, no hay un control con lo que se puede llegar a hacer con inteligencia artificial, nadie lo controla. Según Vera, “los modelos de machine learning, pertenecen a un subconjunto de técnicas que necesitan de que un humano los apoye en el descubrimiento previo de qué características son fundamentales que aprenda para identificar patrones y elaborar predicciones”.

Finalmente, el llamado de los expertos es a seguir evolucionando, pero que el cuestionamiento y las preguntas siempre estén en el consciente de la personas, es la mejor forma de regulación del desarrollo de la inteligencia artificial.

 


Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉