• ChatGPT de OpenAI se ha convertido en una sensación al ser capaz de realizar prácticamente cualquier cosa con solo unas pocas indicaciones de texto.
  • Sin embargo, la compañía de ciberseguridad ESET advierte que ChatGPT también presenta ciertos riesgos de ciberseguridad.
  • Estas son cuatro maneras en que ChatGPT podría ser utilizada por cibercriminales, según la compañía.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

El chatbot ChatGPT de OpenAI se ha convertido en una sensación al ser capaz de realizar prácticamente cualquier cosa (desde pasar exámenes de admisión hasta dar consejos financieros) con solo unas cuantas indicaciones de texto.

ChatGPT fue entrenado con grandes cantidades de texto para responder todo tipo de preguntas; y si bien el modelo de IA no es perfecto y comete errores, a través del proceso de entrenamiento, va mejorando su capacidad para interactuar de forma automática ante las consultas de las personas.

De acuerdo con Sol González, investigadora de seguridad informática de ESET Latinoamérica, tecnologías como ChatGPT revolucionan cómo interactuamos con las computadoras y dan mayor acceso al conocimiento; sin embargo, también posibilitan la democratización del cibercrimen.

«Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas», comenta González. «Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la inteligencia artificial y sobre todo el Machine Learning”, puntualiza.

González agrega que, al igual que toda tecnología, la IA generativa también presenta sus riesgos de seguridad.

«Haciendo una analogía, así como el modelo de Ransomware as a Service permite que actores con menos conocimientos tengan acceso a malware y solo deban preocuparse por diseñar el correo de phishing con el cual tratar de engañar a las víctimas, ChatGPT también es un servicio disponible para cualquiera pueda utilizarlo para facilitar ciertas tareas a cibercriminales”, enfatiza la investigadora de ESET.

Cómo ChatGPT podría ser usado por cibercriminales

1. Generación de noticias falsas y desinformación

Con un poco de creatividad e ingresando los parámetros adeacuados, ChatGPT podría utilizarse para generar todo tipo de información falsa que podría distribuirse a lo largo de internet.

Por ejemplo, en ESET se le pidió a ChatGPT redactar un artículo en donde Elon Musk sorpresivamente compra la empresa Meta y este fue el resultado:

ChatGPT
ESET

2. Elaboración de correos de phishing

De acuerdo con ESET, cada vez resulta más difícil identificar los correos de phishing al ser más persuasivos y «confiables». Hace unos años la redacción de los correos maliciosos era muchas veces absurda, acompañada de diversos errores ortográficos; sin embargo, esto podría cambiar drásticamente con ChatGPT.

La compañía de ciberseguridad le preguntó a ChatGPT si podría redactar un correos electrónico malicioso. Esta fue su primera respuesta:

ChatGPT
ESET

En este caso, la plataforma alertó de manera correcta que no es bueno realizar este tipo de actividad; sin embargo, con un segundo intento, el chatbot dio una nueva respuesta:

ChatGPT
ESET

Los ciberdelincuentes también pueden utilizar ChatGPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.

3. Desarrollo de malware

La IA generativa también podría ser de ayuda para desarrollar software, ya que es capaz de generar código en diversos lenguajes de programación. El equipo de investigación de ESET solicitó a ChatGPT escribir un programa de malware en .NET que llame a Powershell y descargue el payload.

Como respuesta ChatGPT advierte los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio. Pese a ello, generó un ejemplo de cómo podría ser el código.

malware
ESET

4. Automatización de procesos ofensivos

A la hora de realizar ataques dirigidos, los cibercriminales suelen hacer un proceso de reconocimiento que incluye realizar ciertas tareas que tienden a ser repetitivas. Sin embargo, existen herramientas que permiten acortar los tiempos de estas tareas y ChatGPT podría ser una de ellas.

ESET probó ChatGPT, simulando ser un atacante que quiere ingresar a un servidor LDAP, para ver qué usuarios hay en una empresa y comprobar si el chatbot podría automatizar este proceso, pidiendo la creación de un script.

ChatGPT
ESET

La plataforma proporcionó un código en Python para enumerar los usuarios de un Active Directory utilizando el protocolo LDAP. Para quienes trabajan en seguridad saben es recomendable contar con un Cheat Sheet ágil para ejecutar ciertos comandos. Si, por ejemplo, se está en la fase de acceso, como cibercriminal, se necesita un script para abrir una Shell reversa y utilizando ChatGPT se podría fácilmente obtener esta información:

ChatGPT
ESET
código
ESET

AHORA LEE: 3 razones por las que ChatGPT no le quitará su trabajo a escritores, según expertos

TAMBIÉN LEE: Bill Gates dijo que ChatGPT ‘cambiará nuestro mundo’ al hacer que el lugar de trabajo sea más eficiente

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: