Riesgos al usar ChatGPT y GPT-4 para las empresas

Francisco Kemeny - La inteligencia artificial

Por Francisco Kemeny

Riesgos al usar ChatGPT y GPT-4 para las Empresas: Desde el 1 de marzo de 2023, OpenAI no utiliza los datos de los clientes enviados a través de la API para entrenar o mejorar ChatGTP. Esta ha sido una de las principales preocupaciones que me han comentado las empresas con la que me he reunido para conversar y explorar el uso de IA en sus operaciones. Y no deja de ser un tema fundamental para la adopción de modelo LLM, que permiten ahorrar tiempo, liberar recursos y desbloquar innovación dentro de las organizaciones.


Banner_frasco-suscripcion-800x250

Un Modelo de Lenguaje Grande (LLM, por sus siglas en inglés) es una red neuronal basada en un componente específico llamado «transformer». «Grande» en el caso de LLM significa muy, muy, muy grande, como en la escala de millones y miles de millones. «Lenguaje» se refiere al hecho de que las palabras, oraciones, párrafos, los componentes básicos del lenguaje, viven en el centro de cómo funciona este tipo de IA «semántica». Los «modelos» son representaciones matemáticas de una gran cantidad de información escrita.

Es importante destacar que cuando se les hace una pregunta, los LLM no están «buscando» una respuesta. En cambio, producen una cadena de palabras prediciendo cuál palabra sería la más adecuada para seguir a la anterior, teniendo en cuenta el contexto más amplio de las palabras que la preceden. En esencia, proporcionan una respuesta de «sentido común» a una pregunta.

Si bien los LLM más potentes han demostrado su capacidad para producir respuestas en gran medida precisas en una amplia gama de tareas, la precisión de esas respuestas no puede garantizarse. Además, existe la posibilidad que dado los datos ingresados a ChatGPT por usuarios empresariales, que contengan información sensible y de caracter privado, se utilizen para el entrenamiento del modelo. Esto supone posteriormente que otros usuarios podrian ser capaces de generar como respuesta información critica de una organización. Un ejmplo simple de esto es preguntarle a ChatGPT sobre el ingrediente secreto de Coca-Cola, o la receta de la salsa McDonalds.

Llevemos está idea a prueba

Como se puede observar, la conclusión hipotetica de ChatGPT suena bastante razonable, y queda la duda si la respuesta generada realmente «la inventó» o tomó alguna conversación de usuario pasada para determinar su respuesta. La teoria dice que no, que el IA «inventó» esto usando la mejor o más probable palabra y frase para completar la instrucción del usuario. Pero por un segundo asumamos que justo Unilever se encuentra en la evaluación de la adquisición de una de estas compañias, podriamos asumir que el hecho de que ChatGPT fue capaz de predecir correctamente, supone esto una brecha de seguridad de información de la estartegai de M&A de la compañia? Tal vez si. Y esto es algo que las organizaciones deben tener en cuenta. No solo por la privacidad y valor de la información, si no también por el hecho de que cualquira de nuestros competidores podria acceder a ella y si ellos tienen esta capacidad, ¿porque no la utilizamos nosotros también?

¿Cúal es la respusta de OpenAI a este problema?

Como ya mencioné desde comienzos del mes de marzo, OpenAI dejó de utilizar de manera predeterminada los datos utilizado atravéz del API para entrenar sus modelos. Esto siginifica que las empresas que utilizen las version no publicas (es decir ChatGPT) tendrán el resguardo de que su información potencialmente no será filtrada en un Prompt Hack.

Con DILL implementamos un LegalAI que me ayudó a procesar y hacer un poco de sentido a las policitas de OpenAI. Lo he utilizado para resumir y encontrar posible brechas y resguardos de privacidad, le he pedido a este AI que me definia las potenciales que las corporaciones podrían tener al usar ChatGPT.

  1. Privacidad y Seguridad de Datos: Las empresas pueden correr el riesgo de exponer datos sensibles compartidos a través de la API. OpenAI aborda esto al retener los datos de la API durante un máximo de 30 días para monitorear abusos y luego eliminarlos. OpenAI implementó una serie de medidas para proteger la información personal y cumple con SOC 2 Tipo 2, garantizando un manejo seguro de los datos.
  2. Regulaciones: Las empresas deben cumplir con diversas regulaciones, como GDPR, HIPAA o CCPA. OpenAI proporciona un Anexo de Procesamiento de Datos (DPA) y puede firmar Acuerdos de Asociado Comercial para el cumplimiento de HIPAA con clientes que cumplan los requisitos.
  3. Resguardos de Contenido: Las empresas pueden preocuparse por el contenido generado que podría violar sus directrices de marca, requisitos legales o estándares éticos. Las políticas de uso de OpenAI describen los tipos de contenido no permitido, y las empresas deben asegurarse de que su contenido cumpla con estas políticas.
  4. Propiedad Intelectual: Las empresas pueden preocuparse por la propiedad del contenido generado. OpenAI asigna a los usuarios los derechos sobre el resultado, lo que les permite controlar el uso de su contenido.
  5. Responsabilidad y Garantías: Las empresas pueden tener inquietudes sobre la fiabilidad y precisión del contenido generado por IA. Los servicios de OpenAI se proporcionan «tal cual» sin garantías, y la responsabilidad se limita en la medida permitida por la ley. Las empresas deben revisar el contenido generado y utilizarlo de manera responsable.
  6. Riesgos de licencias de terceros: Al utilizar funciones de generación de código, como OpenAI Codex, podrían surgir preocupaciones sobre las licencias de terceros, incluidas las licencias de código abierto. Las empresas deben estar al tanto de los requisitos adicionales de licencias para el código generado.
  7. Disponibilidad de API: Las empresas pueden requerir capacidad dedicada para sus casos de uso. OpenAI ofrece opciones de capacidad dedicada que se pueden adquirir a través de su equipo de ventas.

Todo esto la verdad me parece bastante estandard respecto al uso de cualquier API. Pero la discussión debe ir más allá, involucrar a toda la organización.

Leer también: INTELIGENCIA ARTIFICIAL (Generaciones X, Y, Z, T)

¿Ya estás teniendo estas conversaciones dentro de tu empresa? No basta con que algunos early adopters estén usando ChatGPT. Como menciono se deben involucrar a todas las partes, desde las areas de negocio y clientes, hasta tecnología, seguridad y legal. Si necesitas apoyo no dudes en contactarme, te puedo asesorar en la adopción de inteligencia artificial generativa en tu compañia.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉