¿Cuáles son los riesgos de privacidad de la IA Generativa?

inteligencia artificial IA, GenAI

Las empresas deben aplicar controles para que las herramientas de IA no pongan en peligro la información personal de los usuarios, y estos deben tener cuidado de no compartir inadvertidamente datos privados.

Las tecnologías innovadoras pueden ofrecer nuevas capacidades asombrosas, pero también pueden estar plagadas de retos imprevistos. Con el reciente auge de la inteligencia artificial generativa, el poder y el potencial para cambiar nuestra forma de hacer negocios parecen haber aparecido de la noche a la mañana. Sin embargo, algo que no ha cambiado es la importancia de proteger la privacidad y confidencialidad de los datos de los usuarios cuando se utiliza esta tecnología única.


Banner_frasco-suscripcion-800x250

Según el estudio Cisco 2024 Data Privacy Benchmark, el 79% de las empresas ya están obteniendo un valor significativo de la IA generativa. Organizaciones y particulares se han apresurado a utilizar herramientas de IA generativa para tareas como la generación de documentos, la creación y revisión de código y el impulso de la productividad en general. Pero, al hacerlo, muchos están introduciendo datos sobre sus clientes, empleados y procesos internos.

Los consumidores que utilizan IA generativa actúan de forma similar. Según otro estudio, el Cisco 2023 Consumer Privacy Survey, el 39% ha introducido información laboral, y más del 25% ha introducido información personal, números de cuenta e incluso información sobre salud y etnia. Al mismo tiempo, el 88% de estos mismos consumidores afirmaron que les preocupa que los datos que introdujeron puedan ser compartidos con otros.

Las aplicaciones de IA generativa necesitan controles de privacidad y seguridad
Introducir información personal o confidencial en las aplicaciones de IA generativa sin comprender plenamente el impacto potencial suscita serias preocupaciones. Es posible que quienes producen o ponen a disposición estas aplicaciones no apliquen controles adecuados de privacidad y seguridad de los datos, y es probable que la mayoría de los usuarios finales desconozcan lo que ocurrirá con su información. Los datos personales pueden compartirse con otros usuarios o hacerse públicos, lo que podría dar lugar a robos de identidad o violaciones de la privacidad, y los datos confidenciales de las empresas podrían filtrarse a terceros o a la competencia.

Aún así, sólo el 50% de los encuestados en el estudio 2023 de Cisco afirma haberse abstenido de introducir información personal o confidencial en las herramientas. Esto significa que el otro 50% probablemente ha introducido información que no querría compartir. Independientemente de la aplicación, es fundamental que la información personal o confidencial esté protegida y no se comparta con nadie que no debería tener acceso a ella. Se pueden utilizar herramientas de inteligencia artificial generativa, pero es necesario contar con las barreras adecuadas para evitar que se filtren o se utilicen indebidamente determinados datos.

Algunas de las principales prácticas -y requisitos en algunas jurisdicciones- para las organizaciones que utilizan aplicaciones de IA generativa incluyen limitar las herramientas disponibles o los tipos de información que los usuarios pueden introducir para que otros no puedan acceder a los datos confidenciales; optar por no hacer negocios con empresas de IA generativa que no protejan adecuadamente la privacidad o confidencialidad de sus usuarios, o no utilizar sus herramientas; y poner a disposición del público sus políticas de privacidad, seguridad y condiciones de uso para que la gente pueda evitar el uso de herramientas que no cuenten con las salvaguardias adecuadas.

Vea también: “El 2024 será un año transformador, impulsado en gran medida por los avances en inteligencia artificial y la colaboración entre empresas”

Por qué la confianza es fundamental en la IA generativa

La confianza siempre ha sido fundamental en las relaciones sociales y empresariales, más aún hoy en día, cuando la tecnología puede hacer que una cosa parezca otra; tomemos por ejemplo los deepfakes, en los que se falsifican copias, fotos, vídeos y otros datos. ¿Quién es responsable de mantener la seguridad de nuestra información personal y la privacidad de nuestra vida privada? Tanto los gobiernos como las empresas y los consumidores tienen un papel que desempeñar.

Nuestra investigación muestra que el 91% de las organizaciones dicen que necesitan hacer más para tranquilizar a sus clientes sobre cómo se utilizan sus datos. Y el estudio 2023 de Cisco señala que el 60% de los consumidores afirma haber perdido la confianza en los proveedores por el uso de la IA. Si los clientes no pueden confiar en las políticas y prácticas de IA generativa de las empresas, puede ser necesaria una normativa más estricta. Sin embargo, como la IA generativa es todavía tan nueva, los gobiernos tardarán en adoptar y promulgar nuevas normativas, y los regulados tardarán aún más en aplicar los requisitos.

Con tantas organizaciones que ya están obteniendo un valor significativo de la IA generativa, está claro que la tecnología ha llegado para quedarse. Hoy en día, los consumidores introducen datos en estas herramientas, a pesar de sus preocupaciones sobre cómo podrían utilizarse o compartirse los datos. Esto hace que recaiga en las empresas la responsabilidad de adoptar fuertes barreras que protejan la seguridad, la imparcialidad y la privacidad de los datos, ayudándolas a preservar la confianza de sus clientes, ganada con tanto esfuerzo.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉