Cómo las empresas de IA planean construir y luego controlar la inteligencia superhumana

IA generativa, inteligencia artificial
En el centro de muchos de los problemas e innovaciones más fascinantes de la humanidad se encuentran paradojas inescrutables. Casi toda las matemáticas avanzadas, por ejemplo, se basan en el concepto de números imaginarios. Sin ellos, el campo colapsaría. Lo mismo ocurre con la física: si no existieran los agujeros negros, casi todas las leyes naturales no podrían ser respaldadas, sin embargo, la ciencia detrás de este fenómeno no se comprende completamente.

La aparición de la inteligencia artificial  viene con sus propias preguntas centrales. Específicamente, si existe la capacidad de construir un sistema de IA superinteligente capaz de «superar» a los humanos, ¿cómo se controlará este sistema hipotético de inteligencia artificial?

Y si dicho sistema no puede ser controlado en beneficio de los usuarios finales, ¿por qué las empresas de tecnología están compitiendo por construir uno?


Banner_frasco-suscripcion-800x250

Es esta pregunta la que dio origen a OpenAI y Anthropic, entre otros.

En este sentido, el lunes (18 de diciembre), OpenAI presentó un nuevo marco de Estrategia de Preparación, que afirma tener un enfoque científico para medir el riesgo catastrófico en sus sistemas de IA de vanguardia más avanzados.

«El estudio de los riesgos de la IA de vanguardia ha quedado muy por debajo de lo que es posible y de donde debemos estar. Para abordar esta brecha y sistematizar nuestro pensamiento sobre seguridad, estamos adoptando la versión inicial de nuestro Marco de Preparación. Describe los procesos de OpenAI para rastrear, evaluar, pronosticar y protegerse contra los riesgos catastróficos planteados por modelos cada vez más poderosos», escribió la compañía.

Pero si bien la «IA superhumana» o la inteligencia artificial general (AGI) ciertamente necesitará supervisión si alguna vez se realiza, el campo de la IA está dividido en dos sobre la hipótesis de que estos sistemas de inteligencia artificial todopoderosos sean posibles, y mucho menos que representen una amenaza existencial incontrolable.

Vea también: ¿Puede la IA predecir la renuncia de un empleado? Consideraciones éticas y prácticas

Superalignment es un concepto en el corazón de los planes del sector de la inteligencia artificial para crear y controlar la IA generalizada (AGI, por sus siglas en inglés).

Representa un enfoque holístico para lograr la alineación en la IA, y va más allá de las especificaciones técnicas para abarcar una comprensión más amplia del impacto social y las consideraciones éticas asociadas con el desarrollo de la IA.

Superalignment extiende la noción tradicional de alineación, que se centra principalmente en alinear los sistemas de IA con los valores humanos durante la fase de entrenamiento. Si bien esto es un aspecto crucial, el superalignment reconoce la necesidad de una alineación continua a lo largo del ciclo de vida de los sistemas de IA, incluyendo la implementación, adaptación y evolución.

La semana pasada (14 de diciembre), OpenAI publicó un artículo de investigación que describe una técnica para alinear modelos futuros hipotéticos que son «mucho más inteligentes» que los humanos. El enfoque propuesto por la empresa de IA es utilizar un modelo de lenguaje grande (LLM) menos potente para supervisar y entrenar a uno más poderoso, tratando al modelo menos potente como una supervisión humana del AI superinteligente más poderoso.

«Creemos que la superinteligencia, una IA mucho más inteligente que los humanos, podría desarrollarse en los próximos diez años», dijo OpenAI en el artículo.

El estudio examinó cómo GPT-2, uno de los sistemas de IA originales que OpenAI lanzó hace cinco años, podría supervisar a GPT-4, el último LLM de la compañía.

AGI es una Carrera de Armas o una Carrera de Hype?

Aún así, muchos observadores y luminarias de la industria creen que centrarse en los escenarios apocalípticos de la IA distrae de los riesgos reales y a corto plazo de los sistemas de IA actuales, que incluyen desinformación, sesgos codificados, infracción de derechos de autor y costos computacionales más altos en comparación con otras opciones alternativas.

Yann LeCun, científico jefe de inteligencia artificial de Meta, ha descrito la conversación sobre los riesgos de la IA como «desquiciada».

«La aparición de una IA superhumana no será un evento… Lucha contra las personas que quieren regular la investigación y desarrollo de la IA argumentando que es demasiado peligrosa para que todos, excepto ellos, tengan acceso a ella», escribió LeCun en una publicación en X, anteriormente conocido como Twitter.
Y no está solo en sus dudas sobre la obsesión de la industria por los escenarios apocalípticos (para prevenir).

«Muchas de las formas hipotéticas de daño, como la ‘toma de control’ de la IA, se basan en hipótesis muy cuestionables sobre lo que la tecnología que no existe actualmente podría hacer. Cada campo debería examinar tanto los problemas futuros como los actuales. Pero, ¿hay alguna otra disciplina de ingeniería en la que se preste tanta atención a problemas hipotéticos en lugar de problemas reales?» Andrew Ng, fundador de DeepLearning.ai, publicó en X.

Hablando con PYMNTS en noviembre, Akli Adjaoute, emprendedor de IA y socio general del fondo de capital de riesgo Exponion, enfatizó que hay una creciente necesidad de una comprensión general y realista de lo que la IA puede lograr para evitar los peligros de las percepciones impulsadas por el hype en torno a la tecnología.

«Cuando le preguntas a la gente, muchos de ellos no saben mucho sobre la IA, solo saben que es una tecnología que lo cambiará todo… Al final del día», dijo Adjaoute, la IA es «meramente probabilística y estadística… Un desentrañamiento detallado de las complejidades de la IA revela que la innovación es realmente solo una secuencia de números ponderados».

Cuando los usuarios finales comprenden esto y se desmitifica la «caja negra» de la IA incontrolable, entonces la tecnología puede ser mejor utilizada.