• La posible explotación de herramientas de IA como ChatGPT por parte de ciberdelincuentes ofrece un "panorama sombrío", según Europol.
  • Europol identificó diversas áreas en particular en las cuales los ciberdelincuentes podrían abusar de la tecnología de ChatGPT.
  • Entre ellas se encuentran fraude e ingeniería social, desinformación y creación de programas maliciosos.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

La Agencia de la Unión Europea para la Cooperación Policial (Europol) alertó este lunes que los ciberdelincuentes están preparados para aprovechar la inteligencia artificial detrás de ChatGPT para cometer todo tipo de delitos cibernéticos.

ChatGPT de OpenAI se lanzó en noviembre del año pasado, volviéndose viral rápidamente. Actualmente, el chatbot cuenta con más de 100 millones de usuarios activos mensuales que aprovechan sus habilidades para hacer todo tipo de cosas; desde buscar información a preguntas difíciles, hasta escribir sonetos, codificar e incluso escribir cartas de amor.

Si bien las habilidades de modelos de lenguaje grande (LLM, por sus siglas en inglés), como ChatGPT, han demostrado ser sumamente útiles, también podrían utilizarse para generar desinformación, estafas y malware, advirtió el organismo en un nuevo informe.

«A medida que se mejoran activamente las capacidades de LMM grande como ChatGPT, la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes ofrece una perspectiva sombría», dijo Europol.

Europol encontró que ChatGPT podría usarse no solo para generar código malicioso, sino también para fraudes e ingeniería social

El nuevo Laboratorio de innovación de Europol analizó el uso de chatbots en su conjunto; sin embargo, se centró en ChatGPT al ser el más utilizado. De acuerdo con el organismo europeo, sus expertos identificaron tres áreas en las cuales los ciberdelincuentes podrían abusar de la tecnología de ChatGPT:

  1. Fraude e ingeniería social: la capacidad de ChatGPT para redactar textos realistas lo convierte en una herramienta útil para fines de phishing. Su capacidad para reproducir patrones de lenguaje puede utilizarse para suplantar el estilo de habla de individuos o grupos específicos para realizar estafas.
  2. Desinformación: ChatGPT sobresale en la producción de texto a gran velocidad y escala. Esto hace que el modelo sea ideal para propósitos de propaganda y desinformación. Por ejemplo, puede permitir a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo.
  3. Ciberdelincuencia: además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación. El chatbot podría ser particularmente útil para que un ciberdelincuente con pocos conocimientos técnicos pueda producir código malicioso.

La agencia también descubrió que los delincuentes podrían usar ChatGPT para «acelerar significativamente el proceso de investigación» en áreas de las que no saben nada. Por ejemplo, esto podría incluir redactar un texto para cometer fraude o brindar información sobre «cómo entrar en una casa, terrorismo, ciberdelincuencia y abuso sexual infantil».

Si bien ChatGPT cuenta con salvaguardas —incluida la moderación de contenido y no responder a preguntas clasificadas como dañinas o sesgadas— estas podrían eludirse con indicaciones inteligentes, señaló Europol.

«Es de suma importancia que se genere conciencia sobre este asunto, para garantizar que cualquier laguna potencial se descubra y se cierre lo más rápido posible», agregó el organismo.

AHORA LEE: Los ciberdelincuentes están usando ChatGPT para facilitar su trabajo

TAMBIÉN LEE: Casi 70% de las personas que usan ChatGPT en el trabajo no se lo han dicho a sus jefes, revela encuesta

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: