Cibercriminales se refugian en la IA para sus ataques

ciberamenazas maliciosos

Uno de los primeros grupos en darse cuenta de la variedad de usos que se puede dar a ChatGPT fueron los cibercriminales.

Esta entrada salió primero en ITware Latam


Banner_frasco-suscripcion-800x250

La IA que ha causado furor durante los últimos meses, gracias a que permite realizar tareas humanas sin mayores complicaciones, esconde un peligro: Puede ser fácilmente utilizada por ciberdelincuentes para enviar emails fraudulentos sin las clásicas faltas de ortografía, que hasta ahora los delataban, o mantener una conversación con la víctima con argumentos convincentes basados en IA. Y es solo el comienzo. comienza esta nota Juan Alejandro Aguirre, Senior Manager Sales Engineering LATAM de Sophos.

Cibercriminales se refugian en la IA para sus ataques

A estas alturas, debido a su sofisticación, detectar amenazas impulsadas por IA es cada vez más difícil, incluso para los más expertos. Debido a esto, es necesario actualizar las medidas de seguridad existentes ya que, básicamente, están quedando obsoletas.

De hecho, nos encontramos en un punto donde el ransomware ha alcanzado un peak y las notificaciones de violación de datos son pan de cada día.

Hasta hace poco, una manera fácil de detectar estafas era mediante errores gramaticales y ortográficos en correos electrónicos sospechosos. Pero, con la llegada de ChatGPT, una inteligencia artificial de OpenAI que permite interactuar a través de preguntas y peticiones, que utiliza un modelo de entrenamiento llamado GPT-3.5, con el que puede dar respuestas increíblemente buenas y creíbles, sobre todo en textos cortos y en inglés, esta barrera de defensa parece haberse roto finalmente.

Vea también: Mall Aventura, primer centro comercial de San Juan de Lurigancho

Por supuesto, uno de los primeros grupos en darse cuenta de la variedad de usos que se puede dar a ChatGPT fueron los cibercriminales. Gracias a esta herramienta, es posible que se haya eliminado el último elemento detectable de muchas de las estafas, spams y phishing.

Juan Alejandro Aguirre, Senior Manager Sales Engineering LATAM de Sophos

Gracias a esta IA se ha llegado a un punto en que se ha logrado engañar a un humano y convencerlo que estaba hablando con otra persona un 100% de las veces.

¿Qué podemos hacer entonces para protegernos, tanto a nosotros mismos como nuestros datos?

Las aguas de internet hoy son posiblemente las más peligrosas en las que hemos navegado, porque sus horizontes y hasta donde se puede llegar con las IA que se están desarrollando actualmente a un paso trepidante, son completamente desconocidos.

Afortunadamente, junto a estas se están creando contrapartes que puedan detectar texto generado por ChatGPT. ¿Qué tan efectivas puedan ser como medida de defensa? Está por verse.

Vea también: 18 centros comerciales se inaugurarán en Perú hasta el 2025

Lo que podemos hacer para defendernos hoy mismo es, primero que todo, verificar las comunicaciones que impliquen acceso a información o tengan movimientos de dinero. Al mismo tiempo, ser inquisitivo y preguntar hasta estar seguros. Pedir ayuda y cerciorarnos de cada elemento posible si hay dudas.

En un mundo donde las IA están haciendo sus primeras apariciones, y no podemos estar seguros de efectivamente estar interactuando con otra persona, más vale prevenir que curar.

También es importante ser muy desconfiado con comunicaciones que lleguen por mensaje de texto o correo electrónico de entidades financieras, proveedores de telecomunicaciones y demás servicios públicos que soliciten ingresar el usuario y password.

Este tipo de entidades tienen líneas de servicio al cliente donde se puede validar la autenticidad de estas comunicaciones y denunciar los números o correos electrónicos desde los que se estén recibiendo los intentos de fraude.

Por otra parte, si pretendemos usar ChatGPT y aprovechar sus bondades, es importante tener en cuenta los permisos que el usuario concede a aplicaciones de este tipo.