La educación y el trabajo frente a inteligencia artificial: ¿habrá humanos inservibles?

Según pública infobae:

En tiempos de la Cuarta Revolución Industrial, en la que el poder parece pertenecer a los algoritmos —esa entelequia que a veces parece algo mágico y otras veces algo perverso—, diversas voces buscan abordar las consecuencias e impactos de esta nueva realidad. Una de estas voces es la de Cecilia Danesi, abogada y magíster en Derecho de Daños con estudios en ArgentinaEspañaItalia y Francia. Danesi es investigadora en el Instituto de Estudios Europeos y Derechos Humanos (UPSA) y profesora en la Universidad Pontificia de Salamanca.


Banner_frasco-suscripcion-800x250

Como destacada referente en el área, se ocupa de la inteligencia artificial con un enfoque que no es el de una tecnóloga, sino el de una especialista que plantea la necesidad de un debate ético con una perspectiva más amplia y profunda. En su libro El imperio de los algoritmos: IA inclusiva, ética y al servicio de la humanidad (Ed. Galerna), Danesi aborda esta nueva tecnología que se evoluciona geométricamente y que parece venir a alterar las relaciones en todos los ámbitos —personal, laboral y educativo—.

Danesi parte de tres aspectos fundamentales: la perspectiva de género, la reivindicación de la identidad iberoamericana y el humanismo tecnológico. El resultado es una brillante reflexión que, a través de casos reales y cotidianos, evita caer en simplificaciones y binarismos, alejada tanto de la sensación de apocalipsis como de la pasividad conformista.

“Hace poco hubo esta supuesta carta para frenar la inteligencia artificial”, dice Cecilia Danesi ahora en diálogo con Ticmas, “lo que, en mi opinión, me pareció hipócrita porque justamente muchos de los que firmaban la carta son los primeros desarrolladores de esta tecnología”.

La experta en Derecho e Inteligencia Artificial participó este año en el 3° Seminario de Innovación Educativa de Ticmas (Galerna)La experta en Derecho e Inteligencia Artificial participó este año en el 3° Seminario de Innovación Educativa de Ticmas (Galerna)

¿Pero se puede parar?

—Lo que yo digo en el libro es que la pelota va a seguir girando, pero que hay que sentarse a estudiar y a debatir este fenómeno, porque no es un fenómeno más. No es como el blockchain. Es un cambio de paradigma en la forma que vivimos. Tiene un impacto sideral en la vida de las personas. Hay que abordarlo, estudiarlo, trabajarlo de manera interdisciplinaria. Se necesita una regulación que tiene que construirse también de manera interdisciplinaria. Tratemos de construir una tecnología lo más inclusiva posible y no una herramienta que intensifique las brechas sociales.

En un capítulo decís que quien nunca tuvo contacto con la inteligencia artificial, en realidad lo hizo pero no se dio cuenta. ¿En qué medida esa transparencia nos afecta?

—Esa imperceptibilidad frente a la tecnología es lo que la vuelve más peligrosa, porque la inocencia de creer que no la estamos utilizando hace que no podamos estar alerta de sus peligros. “Por qué me voy a cuidar de algo que yo no sé que existe”. Necesitamos prevenirnos y cuidarnos de lo intangible más que de lo tangible. Con la tecnología y puntualmente con la Inteligencia Artificial pasa eso.

¿Cuál sería el riesgo?

—Manteniéndonos en la línea de la intangibilidad —porque hablamos de un arma autónoma o que te metan un chip en la cabeza, bueno, ya estamos en otra cosa—, los algoritmos de las redes sociales y de las plataformas digitales nos condicionan. El contenido que vemos logra polarizar nuestras posturas. Ese es el daño más peligroso que tenemos, porque es el que no podemos ver pero está. No hay conciencia en la población acerca de esto.

¿Cómo se protege al trabajador frente a las innovaciones de la inteligencia artificial? Cuando, en los años 80, apareció la robótica en la industria automotriz, hubo un gran debate sobre el rol de los robots en el lugar de los obreros. Hoy la inteligencia artificial empieza a ocupar espacios transversales. ¿Cómo se hace para que no haya humanos “descartables”? Creo que ese es el término que usa Harari.

—“Inservibles”. Harari dijo que la inteligencia artificial iba a crear un grupo de humanos inservibles. Bueno, cómo se hace. Primero, a través de la concientización. Y, en segundo lugar, con la educación. Esta revolución industrial implica también nuevos puestos de trabajo. Data ScienceComputer Science, la programación: tienen tanta demanda que la oferta no llega a cubrirla. De hecho, hay gente de disciplinas afines que terminan trabajando en estas justamente porque no dan abasto. ¿Qué podemos hacer? Capacitarlos para que puedan ocupar esos nuevos puestos de trabajo. Yo creo que las personas que van a tener más oportunidades en el futuro son las que logren potenciar sus habilidades con la tecnología. Van a tener lo bueno del humano y lo bueno de la tecnología.

Cecilia Danesi, autora de "El imperio de los algoritmos"Cecilia Danesi, autora de «El imperio de los algoritmos»

Pero ¿cómo hacemos con la gente grande, para que no queden obsoletos?

—Es súper interesante lo que planteás. Y también lo planteo para un joven o un adolescente, porque la mayoría de lo que estudiamos hoy en día en la escuela y en las carreras universitarias mañana va a estar obsoleto. Todavía las currículas están desactualizadas frente a esta nueva realidad. Yo creo que esto nos desafía a todos. Te hablo de mi caso: yo venía teniendo una carrera súper tradicional del mundo jurídico, trabajaba en tribunales, daba clases en la universidad —eso obviamente lo sigo haciendo, pero con una materia que es inteligencia artificial— y, cuando empecé a especializarme en IA, para mí era chino mandarín avanzado. Yo, habiéndome formado en Derecho en la UBA, trataba de ver qué era un algoritmo. Ese desafío, entonces, está presente en todas las generaciones. Obviamente, cuando uno es más grande, tal vez le cuesta más adaptarse a este cambio. Pero, mal o bien, es inevitable.

En el libro, hablás de los vínculos de la inteligencia artificial con la jurisprudencia y la medicina. ¿Cómo afecta a médicos y abogados una inteligencia artificial que resuelve con mayor eficacia litigios y detecta con más certeza posibles enfermedades?

—Es un debate crucial. ¿Queremos, como sociedad, que tareas tan delicadas como impartir justicia o hacer un diagnóstico la haga un algoritmo y no un humano? Yo repreguntaría quién la hace mejor. Si el algoritmo tiene menos margen de error para detectar un cáncer en una radiografía, me quedo con el algoritmo. Volvemos, entonces, al tema de potenciar las habilidades humanas en tareas específicas donde la inteligencia artificial no puede ser más hábil que nosotros. Dejemos que el sistema se ocupe de una declaratoria, de una sucesión, que hasta una persona totalmente inexperta puede hacerla en pocos días. Y dejemos que los jueces y los abogados se aboquen a los problemas que requieren de empatía o de conciencia. No se trata de una sustitución total, sino del reemplazo de ciertas tareas que, en muchos casos, nosotros no queremos realizar.

Antes te hablaba de la robotización en la industria automotriz y de cómo la fuerza de los hombres quedó en manos de los robots. Ahora es la inteligencia lo que queda en manos de la inteligencia artificial. ¿Qué les queda a los humanos?

—El primer punto es decir qué entendemos por inteligencia. No sólo no hay consenso, sino que, de hecho, hay tests sobre las siete inteligencias y distintas aptitudes. ¿Ser inteligente es hacer más rápido un cálculo matemático o ser inteligente es tener aptitudes para lograr una negociación, un mejor acuerdo o solucionar un conflicto? Hay un montón de tareas súper sensibles y delicadas que el humano conserva, por así decirlo. Necesitamos de esa sensibilidad humana, pero también, lo que queda es, como decía antes, potenciarnos con la tecnología.

Antes hablabas de ciertos cambios obligados en el programa educativo. ¿Cómo afecta la inteligencia artificial a la educación?

—Mucho y desde varios aspectos. Primero, ¿qué contenidos enseñamos? Para mí es inconcebible que un abogado se reciba sin estudiar redes socialesplataformas digitalese-commerceinteligencia artificialblockchaincriptomonedassmart contracts. Hoy en día esas materias no son obligatorias. Y, en segundo lugar: ¿cómo enseñamos? En su momento hubo una protesta de los profesores de matemática en contra del uso de la calculadora, y hoy vemos exactamente lo mismo con ChatGPT. A mí, lo que me importa es que, cuando mi alumno esté en un contexto laboral, va a tener que saber usar lo que yo le estoy enseñando. Y va a tener ChatGPT y va a tener la calculadora. Entonces, yo tengo que enseñarle cómo utilizar esas herramientas para que pueda desarrollar sus habilidades de la mejor manera posible. Es un desafío enorme para nosotros, los profesores: qué enseñamos, cómo enseñamos, cómo evaluamos. Hay que aggiornarse a la realidad que tienen nuestros estudiantes y que tiene el mundo.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉