Seis formas de utilizar ChatGPT con fines maliciosos

malware NanoCore Lokibot AgentTesla phishing la entrada ciber

Explicamos qué es ChatGPT y cuáles son las seis formas en que puede ser utilizada esta tecnología para fines maliciosos.

Esta entrada salió primero en We Live Security


Banner_frasco-suscripcion-800x250

ChatGPT es un chatbot o sistema de chat desarrollado por OpenAI. Se trata de un modelo  basado en Inteligencia Artificial (GPT-3) que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto. Fue entrenado con grandes cantidades de texto para responder preguntas o proporcionar información. Y si bien presenta errores, a través del proceso de entrenamiento va mejorando su capacidad para interactuar de forma automática ante las consultas de las personas. Sin embargo, como toda tecnología, también presenta ciertos riesgos en términos de ciberseguridad, y es precisamente esto lo que vamos a analizar a continuación.

Seis formas de utilizar ChatGPT con fines maliciosos

Para entender mejor qué es ChatGPT le preguntamos al propio sistema y esto es lo que nos respondió:

ChatGPT

Respuesta de ChatGPT cuando preguntamos qué es.

Hasta incluso le podríamos preguntar cómo es que funciona su algoritmo:

ChatGPT

Respuesta sobre el alrogitmo que utiliza ChatGPT 

En las imágenes anteriores se puede apreciar que ChatGPT se comunica de una amanera no solo amigable, sino que emplea un lenguaje accesible. Esto es lo que hace tan disruptiva a esta tecnología. En otras palabras, el gran cambio que introduce es cómo los usuarios interactúan con esta tecnología, ya que permite que sea accesible para cualquier tipo de usuario. Además, ChatGPT permite infinidades de uso. Por ejemplo, para la automatización de procesos en diversas industrias, como educación, finanzas, salud, atención al cliente, etc.

Vea también: Tramitadores, nueva modalidad de estafa cibernética

Sin embargo, es importante tener presente lo que dijimos anteriormente, que al igual que toda tecnología, también presenta sus riesgos de seguridad. Haciendo una analogía, así como el modelo de Ransomware as a Service (RaaS) permite que actores con menos conocimientos tengan acceso a un malware y solo deban preocuparse por diseñar el correo de phishing con el cual tratar de engañar a las víctimas, ChatGPT también es un servicio disponible para cualquiera que puede ser utilizado para facilitar ciertas tareas a cibercriminales.

Más en We Live Security.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉