• La IA generativa representa un punto de inflexión para las empresas en temas de su ciberseguridad.
  • Esta tecnología tiene el potencial de ser usada por cibercriminales para mejorar sus campañas de ataque.
  • Sin embargo, según el jefe de ciberseguridad para Microsoft Latam, la IA generativa también puede fortalecer las ciberdefensas de las empresas.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

La inteligencia artificial ha dado mucho de qué hablar en los últimos meses, en especial los modelos de lenguaje como ChatGPT de OpenAI. Más allá de lo atractivo de la tecnología para eficientizar desde la búsqueda de información hasta procesos creativos como la escritura, la inteligencia artificial también representa un punto de inflexión para las empresas en temas de su ciberseguridad.

La semana pasada, Europol presentó un reporte que habla sobre cómo la posible explotación de herramientas de inteligencia artificial generativa como ChatGPT por parte de ciberdelincuentes ofrece un «panorama sombrío» en temas de ciberseguridad. A su vez, una carta abierta firmada por más de 1,000 personas —entre ellas expertos en IA, el CEO de Twitter, Elon Musk, y el cofundador de Apple, Steve Wozniak— piden pausar su desarrollo por al menos seis meses, frente a posibles riesgos que presenta para la sociedad.

Sobre si la inteligencia artificial es más una aliada que un riesgo para las empresas, Marcelo Felman, director de ciberseguridad de Microsoft Latinoamérica, se inclina más por la primera; sin embargo, asegura que el panorama es más complejo.

«Tenemos que ver esto (la inteligencia artificial) ciertamente desde los dos lugares. Esta tecnología puede usarse tanto para el bien como para otras cosas y eso tenemos que tenerlo muy presente», dice Felman en entrevista con Business Insider México.

«Particularmente en la ciberseguridad, los equipos de ciberdefensa pueden usarla para describir consultas de detección (de ciberataques) mucho más rápido; para identificar comportamientos que antes no podíamos ver o para hacer ingeniería reversa. Sin embargo, de igual manera un cibercriminal podría mejorar su campaña de ingeniería social; podría hacer más rápido el desarrollo de su ransomware, por ejemplo», explica.

Felman dice que Microsoft se rige bajo pilares clave sobre cómo llevar a cabo un desarrollo de inteligencia artificial responsable. Incluso cuenta con un comité de ética que analiza la viabilidad de estos sistemas. Por ejemplo, asegurarse que está libre de sesgos, si puede explicar claramente de dónde consigue su información, si rinde cuentas de las decisiones que toma, etc.

«Tenemos que seguir avanzando (en el desarrollo de la inteligencia artificial) porque las ventajas son enormes; pero tenemos que hacerlo de manera responsable», enfatiza.

Esto es particularmente importante, tomando en cuenta que Microsoft se ha posicionado como una de las principales empresas tecnológicas en invertir mucho dinero en tecnología de inteligencia artificial generativa (tan solo a principios de año invirtió miles de millones de dólares en OpenaAI, la empresa que creó ChatGPT). A su vez, es de las primeras empresas en implementar esta tecnología en varios de sus productos; desde su buscador Bing, hasta los programas de Office y más.

La inteligencia artificial generativa puede ayudar a fortalecer las ciberdefensas de las empresas

Si bien la tecnología detrás de la IA generativa puede usarse tanto para el bien como el mal, compañías como Microsoft están ideando maneras de implementarla para fortalecer la ciberdefensa de las empresas.

Específicamente, la empresa se ha enfocado en usar la tecnología detrás de ChatGPT en productos especializados para la ciberseguridad. Tal es el caso del recientemente anunciado Security Copilot.

Esta herramienta permite detectar y responder de manera rápida a las ciberamenazas y comprender mejor su paisaje en general. Security Copilot brinda acceso continuo a los modelos OpenAI más avanzados para admitir tareas y aplicaciones de seguridad exigentes. Su visibilidad de las amenazas se basa tanto en los datos de seguridad de la organización del cliente como en la huella de análisis de amenazas de Microsoft.

La herramienta fue diseñada para funcionar de manera fluida con los equipos de ciberseguridad de las empresas. Esto permite a los usuarios ver lo que sucede en su entorno, aprender de la inteligencia existente, correlacionar la actividad de amenazas y tomar decisiones más informadas y eficientes a la velocidad de la máquina, según la empresa.

Este es el primer producto de IA generativa «enfocado 100% en ciberdefensa» y permite, por ejemplo, hacer ingeniería inversa de prácticamente cualquier tipo de malware.

También ayudará a los equipos de seguridad a detectar amenazas que podrían pasarse por alto al correlacionar y resumir datos sobre ataques, priorizar incidentes y recomendar el mejor curso de acción para remediar con rapidez diversas ciberamenazas.

¿Qué tan preparada está la región de Latinoamérica para enfrentar posibles amenazas de ciberseguridad derivadas de la IA?

Sobre si las empresas de Latinoamérica están preparadas para hacer frente a las posibles ciberamenzas que trae consigo la inteligencia artificial, Felman es optimista.

«La región efectivamente tiene varias peculiaridades que nos hacen diferentes a otros lugares del mundo. Para empezar, no estamos en ciberguerra con nadie, y eso es importante. Nuestra principal amenaza es el cibercrimen, que es un negocio de mucho más volúmen; sin embargo, lo que vemos en la región es un mayor volumen de incidentes de quizás menor sofisticación», dice.

A su vez, Felman asegura que, en caso de que los cibercriminales de la región decidan hacer uso de herramientas como la IA generativa para mejorar sus campañas de ataque, esto solo derivará en que las víctimas adopten más rápidamente contramedidas; inclusive las pymes, que son unas de las más afectadas por ciberataques en la región.

«El cibercriminal busca extraer el máximo valor posible de un ataque. Si los cibercriminales optaran por usar las herramientas que les permitirían causar mayor daño, solamente agregaría más velocidad al juego; es decir, si bien el cibercriminial va ser más rápido, también lo serán sus objetivos», señala.

«Yo me siento optimista —no necesariamente tranquilo, porque nadie en ciberseguridad puede estar 100% tranquilo; pero me siento optimista sobre las grandes corporaciones que pueden adoptar tecnologías como Copilot. La incertidumbre que todos tenemos es cómo hacemos para seguir apoyando a las pymes, y en Microsoft estamos comprometidos a darles este tipo de herramientas», agrega.

Felman también dice que otro pilar para vencer esta potencial amenaza en la región es la colaboración entre empresas y gobiernos; tanto locales como globales.

«Nosotros somos muy insistentes en hacer iniciativas locales, regionales, globales para poder compartir información, mecanismos de ataque y comportamientos. [Empujamos que] si un gran banco en Suiza está siendo infiltrado, cómo puede aplicar el conocimiento de este ataque una empresa de manufactura en México, por ejemplo. No hay ningún actor individual que pueda vencer a un ecosistema ofensivo. Lo que tenemos que hacer nosotros es crear nuestro propio ecosistema defensivo, y eso también lo podemos hacer a través de la inteligencia artificial», puntualiza.

De acuerdo con Felman, la propia inteligencia artificial puede ayudar a democratizar el conocimiento. «Si todos estamos retroalimentando estos modelos, podemos compartir la información», comenta. «Hay que ocuparnos, no preocuparnos».

AHORA LEE: Así es GPT-4, el nuevo modelo de inteligencia artificial de Open AI

TAMBIÉN LEE: La persona detrás de la foto falsa viral del Papa pide una mayor regulación de la IA

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: