• Para combatir ataques maliciosos, empresas contratan a hackers profesionales para atacar los sistemas de seguridad de la propia empresa y mejorar estrategias.
  • Los grupos de red team son cada vez más esenciales para proteger la seguridad de los sistemas empresariales.
  • Esto es lo que hacen los líderes de los red teams de empresa como Google y Meta.
  • Síguenos en Google News.
 

En el ámbito de la ciberseguridad, un red team equipo rojo es el departamento encargado de atacar a su propia organización para comprobar la eficacia de sus defensas. El concepto se extrapola a una tecnología crítica y en auge como es la inteligencia artificial generativa, y cada vez más compañías están creando red teams para garantizar más seguridad en estos modelos de IA.

Puedes tener un modelo de IA generativa que rechace peticiones y que diga que no a absolutamente todo. «Será muy seguro, pero también inútil». Así de claro habla Cristian Canton, miembro del equipo de IA responsable en Meta, la propietaria de plataformas como Facebook, Instagram o WhatsApp, también inmersa en la carrera de la IA generativa.

Lo hace en declaraciones a Forbes, que en un amplio reportaje detalla los esfuerzos de compañías como la propia Meta, Microsoft, Google o Nvidia. Los integrantes de los red teams, igual que en el ámbito de la ciberseguridad, asumen el papel que encarnan los múltiples actores maliciosos que quieren aprovechar esta tecnología para fines turbios.

La llegada de ChatGPT cambió las reglas del juego

Desde que OpenAI lanzara a finales del año pasado ChatGPT y popularizara estas herramientas, la preocupación por cómo se desarrolla y despliegan muchos de estos modelos crece en todo el mundo.

Muchos empresarios y expertos lanzaron este mismo año una carta abierta en la que se pedía una moratoria de al menos seis meses que paralizara el desarrollo de la tecnología.

Más allá de que ahora sea más sencillo imaginar un futuro distópico en el que los modelos de IA generativa acaben dominando a la humanidad, lo cierto es que este tipo de instrumentos, además de facilitar la vida, pueden presentar inconmensurables desafíos que las multinacionales tratan de prevenir con los equipos rojos.

Estrategias para ver arder el mundo

Los actores maliciosos pueden ayudarse de herramientas de generación de texto para ser más ágiles programando malware y buscando vulnerabilidades, pero también para perfeccionar sus correos de phishing o para elaborar mejores estrategias de ingeniería social con las que intentar engañar a sus víctimas.

También pueden aprovechar herramientas de clonado de voz para suplantar a directivos de una empresa o una administración, e incluso crear imágenes con algunos modelos como DALL-E o Stable Diffusion que sean falsas, para así lanzar campañas de desinformación.

Los integrantes de estos red teams tratan de prevenir esos múltiples y potenciales casos de uso. Boru Gollo, abogado keniata, fue contratado por OpenAI para probar GPT-3.5 y GPT-4 —los modelos que dan vida a ChatGPT—. Lo que hizo Gollo fue pedirle a la IA que le diera una lista de formas de matar a un nigeriano.

OpenAI pudo, de esta forma, entrenar a sus modelos para que en la versión disponible al público no respondiera a ese tipo de peticiones. La labor de Gollo, originalmente, era tratar de detectar los sesgos racistas que la tecnología pudiera tener sobre la población africana y musulmana.

Los red teams cada vez son más importantes

El reportaje de Forbes llama la atención en cómo estos red teams para la IA cobran cada vez más relevancia en los organigramas de sus compañías. Y hace unas semanas la Administración Biden, en Estados Unidos, celebró un programa para que hackers ajenos a estas multinacionales participaran en un red teaming de modelos como Llama 2 (Meta), LaMDA (Google) o GPT-3.5 (OpenAI).

Pero también explica cómo los responsables de estos equipos son prácticamente equilibristas en una cuerda floja: estos profesionales tienen que poner diariamente en una balanza aquello que puede hacer un modelo inseguro y problemático con aquello que puede hacerlo útil y relevante. Y esos dilemas no siempre son sencillos de resolver.

El propio Canton, del red team para la IA generativa de Meta, enfatizaba esa idea. «Siempre hay un intercambio. Cuanto más útil haces tu modelo, más probabilidades hay de que en determinados ámbitos acabe generando respuestas que sean inseguras».

Daniel Fabian es el homólogo de Cristian Canton pero en Google. Como responsable del red team del gigante del buscador para la IA, Fabian apunta que los actores maliciosos tienen un amplio catálogo de tipos de ataque a estos modelos, y su labor es continuamente replicarlos o sofisticarlos para prevenir y detectar posibles huecos en la seguridad y moderación de estos servicios.

Llevar los sistemas al límite antes de que algún maleante lo haga

Ram Shankar Siva Kumar es el responsable del red team para la IA en Microsoft, y con sus palabras deja claro la importancia de que los responsables de llevar al límite los modelos de la IA trabajen en equipo con otros departamentos.

El suyo, por ejemplo, atiende siempre al equipo de inteligencia de amenazas de Microsoft, «los ojos y oídos en internet» de la compañía.

El red team de Meta para la IA nació en 2019 pero para el desarrollo de Llama 2 ha contado con cerca de 350 personas entre colaboradores externos y unos 20 empleados, según se desprendía de un informe sobre cómo se había desarrollado este modelo de IA generativa.

Canton, de Meta, indica que el lema de su equipo es «cuanto más sudas entrenando, menos sangras en batalla».

Sin embargo, su compañero en Microsoft también es consciente de que el desafío es mayúsculo. Y encontrar los puntos ciegos en los modelos para prevenir que sean empleados por usuarios malintencionados no es una tarea sencilla. «Será necesario el esfuerzo de todo un pueblo para contener este problema».

AHORA LEE: Universal y Deezer firman un acuerdo que podría cambiar para siempre las reglas del streaming

TAMBIÉN LEE: No, la IA no acabará con los trabajos de oficina: de hecho, es probable que les facilite la vida a los trabajadores, según McKinsey

Descubre más historias en Business Insider México

Síguenos en Facebook, Google News, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: