Las empresas necesitan trazar su propio camino de políticas en torno al uso de la IA

IA, inteligencia artificial

La inteligencia artificial generativa (IA) ha cambiado el juego tan rápido que tanto las empresas como los gobiernos están tratando de ponerse al día. Esto se debe a que la innovación es una de las primeras tecnologías que puede violar casi todas las políticas internas de una organización de una sola vez, mientras que para los gobiernos, la IA generativa tiene un «enorme potencial para el bien y el mal a gran escala» que es «profundamente alarmante».

El líder de la mayoría del Senado de Estados Unidos, Chuck Schumer, al parecer organizará una serie de foros de conocimiento sobre IA con varios líderes tecnológicos, así como grupos de derechos civiles y laborales, y representantes de la comunidad creativa.


Banner_frasco-suscripcion-800x250

La primera reunión, programada para dentro de dos semanas, el 13 de septiembre, incluirá al CEO de Meta Platforms, Mark Zuckerberg, al CEO de Google, Sundar Pichai, al CEO de NVIDIA, Jensen Huang, al CEO de OpenAI, Sam Altman, al propietario de X, Elon Musk, al cofundador de Microsoft, Bill Gates, al CEO de Microsoft, Satya Nadella, y al ex CEO de Google, Eric Schmidt.

Esto ocurre mientras China sigue siendo la primera economía de mercado global importante en establecer un marco normativo que regule el uso de la IA generativa.

En el mundo occidental, la Unión Europea (UE) ha desempeñado tradicionalmente un papel líder en la configuración del debate regulatorio en torno a las mayores innovaciones tecnológicas, incluida la IA generativa.

La regulación de la UE se basa con frecuencia en marcos normativos que se adhieren al enfoque basado en los derechos popularizado por sus políticas de regulación digital centradas en la tecnología existente.

Por su parte, Estados Unidos no ha aprobado ninguna ley nueva a nivel federal dirigida al sector tecnológico en décadas, prefiriendo centrarse en la comercialización y no en la supervisión de innovaciones como la IA generativa.

A medida que las empresas intentan abordar cómo establecer sus propias políticas corporativas de IA generativa, buscarán los detalles de cómo Beijing, Bruselas y Washington están regulando la tecnología en busca de pistas para orientar su propio enfoque.

La proliferación de ecosistemas empresariales impulsados por datos, impulsados por un crecimiento hiper-rápido en las capacidades de la potencia informática y la infraestructura de almacenamiento en la nube de hoy en día, ha ayudado a impulsar la IA generativa al frente de los planes de crecimiento de ambas organizaciones, así como a los memorandos internos de sus departamentos legales.

La investigación de PYMNTS ha encontrado que muchas empresas no están seguras de dónde se encuentran en relación con la IA generativa, pero aún sienten la necesidad apremiante de adoptarla.

Vea también: Encuesta revela cómo los minoristas ven la inteligencia artificial y sus planes futuros de implementación

El 62% de los ejecutivos encuestados no cree que sus empresas tengan la experiencia para utilizar la tecnología de manera efectiva, según «Understanding the Future of Generative AI», una colaboración entre PYMNTS y AI-ID.

Parte de esa incertidumbre se debe al hecho de que, como resultado del amplio potencial de la IA generativa, no existe una solución única para gobernar el uso de la tecnología y no hay una decisión fácil sobre qué departamento o equipo debería liderar el desarrollo e implementación de decisiones de cumplimiento.

No creo que podamos esperar que una sola institución tenga el tipo de conocimiento y capacidad para abordar los diversos problemas [de la regulación de la IA], dijo Cary Coglianese, director fundador del Programa de Regulación de Penn, a PYMNTS. «Si hubiera un equivalente a un cinturón de seguridad que pudiéramos exigir que se instale con cada herramienta de IA, genial. Pero no hay una acción única que se pueda aplicar [para regular la IA]».

«La supervisión de la IA se basa en estándares técnicos que deberán desarrollarse para implementarla», dijo el Dr. Johann Laux a PYMNTS en una conversación separada esta semana. «Si quieres auditar sistemas de IA, necesitamos que surja una industria de auditoría».

Tomando un enfoque dinámico para una tecnología dinámica
En la lista de preocupaciones empresariales sobre la integración de la IA generativa en flujos de trabajo empresariales sensibles y críticos, se encuentra la capacidad de proteger datos confidenciales de negocios, clientes e incluso usuarios personales.

Esto se debe a que la información ingresada en una plataforma de IA generativa, o modelo LLM (modelo de lenguaje grande) fundamental, podría incorporarse posteriormente en los datos utilizados para entrenar más iteraciones de ese mismo modelo de IA generativa y hacerse pública involuntariamente.

Es por eso que OpenAI, proveedor de IA, presentó ChatGPT Enterprise, una nueva herramienta de IA generativa diseñada específicamente para abordar estas preocupaciones al proporcionar seguridad y privacidad de nivel empresarial.

Como informó PYMNTS, una característica destacada de ChatGPT Enterprise es su compromiso con la propiedad y el control de los datos, ya que el producto está diseñado para garantizar que las empresas conserven la plena propiedad de sus datos y no se utilicen datos de clientes con fines de entrenamiento. Además, ChatGPT Enterprise cumple con SOC 2, con los más altos estándares de seguridad.

Sin embargo, la inexactitud y la alucinación del modelo siguen siendo preocupaciones importantes y, hasta la fecha, son problemas no resueltos en la integración de modelos de IA generativa en procesos corporativos.

Las empresas que crean políticas de IA deberán abordar este riesgo inherente de la tecnología al sopesar los riesgos y beneficios y garantizar que siempre haya un humano involucrado para fines de verificación y verificación de hechos.