• Stability AI, la startup que fabrica la popular herramienta de arte de inteligencia artificial Stable Diffusion, enfrenta dos demandas.
  • Estas alegan que la empresa infringe los derechos de autor al buscar la web para entrenar sus algoritmos artísticos.
  • Los expertos en tecnología dicen que cualquier pérdida influiría en la capacidad de las nuevas empresas de IA para obtener los datos que necesitan.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Una empresa de inteligencia artificial (IA) enfrenta dos demandas que pueden cambiar la manera en que las nuevas empresas de IA generativa obtienen material para entrenarse y hacer arte.

Stability AI, una startup londinense fundada en 2019 por el CEO Emad Mostaque y que usa el eslogan «IA por la gente, para la gente», produce herramientas de software gratuitas y de código abierto que pueden usarse para crear arte, música o prácticamente cualquier otra cosa que solía ser producto exclusivo de la humanidad.

El producto más conocido de la empresa es el controvertido Stable Diffusion (también conocido como DreamStudio por los usuarios). Puedes ingresar texto en una barra de búsqueda y Stable Diffusion «dibujará» una imagen para que coincida con lo que escribiste. Pide una mujer sosteniendo un cachorro en la selva, y la IA producirá imágenes exactamente de eso. Aunque las personas que genera son casi siempre blancas; pero ese es un tema para otro día.

El problema aquí es que Stable Diffusion entrena su sistema de IA extrayendo imágenes y obras de arte de la web; esencialmente copiando y pegando imágenes hechas por artistas humanos en sus vastas bases de datos de material de entrenamiento. Es una herramienta genial; sin embargo, ha provocado varias críticas, especialmente de artistas que dicen que no se les pidió ni se les compensó por los derechos de usar sus obras.

Ahora, un grupo de expertos en tecnología dice que las dos demandas contra Stability AI —una de un grupo de artistas y otra del gigante de licencias fotográficas Getty Images— podrían dañar no solo a la empresa sino también a la IA generativa en general.

En resumen, una pérdida de Stability AI influiría negativamente en la recopilación de material de capacitación para la empresa y sus pares. Si ganara, subrayaría el nuevo y salvaje mundo de los derechos de autor en la era de la IA.

Los expertos en tecnología que hablaron con Insider dijeron que Stability AI tendría que demostrar ante los tribunales que su IA no estaba generando trabajo copiado —aunque existe una gran posibilidad de que sí— sino que había transformado las imágenes en algo nuevo y que su tecnología de búsqueda web recopiló legítimamente esas imágenes.

Lo viejo es nuevo otra vez

Stability Diffusion lanzó Stability AI en agosto, un momento en que el mercado de la IA generativa comenzaba a calentarse. Dos meses después, la empresa recaudó 101 millones de dólares (mdd) en una ronda inicial liderada por Coatue Management, Lightspeed Venture Partners y O’Shaughnessy Ventures con una valoración de 1,000 mdd.

La demanda de Getty alega que Stability AI eligió una puerta trasera para hacerse con las imágenes que alojaba en lugar de pagar por el acceso como todos los demás.

Del mismo modo, el grupo de artistas dice que Stability AI, junto con Midjourney —otro generador de imágenes de IA— y DeviantArt, una comunidad de arte en línea, no buscaron ningún tipo de acuerdo contractual con los creadores antes de usar obras de arte con derechos de autor para obtener ganancias comerciales.

Google enfrentó problemas similares en sus inicios

Los problemas legales de Stability AI recuerdan los primeros días de Google Search, dijo Kieran McCarthy, abogado de tecnología de McCarthy Law Group.

Cuando Google se hizo público en 2004, fue atacada con demandas de derechos de autor por las imágenes en miniatura en sus resultados de búsqueda. Los tribunales dictaminaron que las imágenes en miniatura de Google eran de uso justo porque eran «suficientemente transformadoras», dijo McCarthy.

«Google obviamente está copiando imágenes de obras de arte famosas y las publica en los resultados de búsqueda», dijo.

Pero la forma en que se produce la imagen en los resultados de búsqueda se consideró «transformadora» y, por lo tanto, de uso justo.

McCarthy anticipa que Stability AI recurrirá al mismo argumento.

«Si eres uno de los abogados de los acusados en este caso —y probablemente en otros casos que probablemente surgirán de otras tecnologías de inteligencia artificial en el futuro —creo que se apoyarán en ese argumento transformador», dijo a Insider. «Vas a decir: ‘Lo que estamos haciendo es un trabajo diferente'».

Otras herramientas de IA generativa tendrán cosas similares que probar. En noviembre, Matthew Butterick, el abogado que representa al grupo de artistas en el caso contra Stability AI, inició una demanda colectiva contra GitHub y su empresa matriz, Microsoft. En esta, alega que la compañía usó el código escondido en la plataforma para entrenar a un asistente de programación de IA conocido como Copilot sin atribuir a los autores originales del código.

Es cuestión de cómo las herramientas de IA consiguen el arte para entrenarse

Para hacer que Stable Diffusion funcione, Stability AI extrae datos de internet para obtener una biblioteca de imágenes para entrenar sus sistemas de IA. Si bien nunca ha revelado públicamente cuáles son exactamente esas fuentes, muchos artistas y creativos se muestran escépticos sobre sus métodos de recopilación.

Michael B. Johnson, un exejecutivo de Pixar, tuiteó a Mostaque en enero: «Ciertamente me gustaría ver un presente en el que el corpus de imágenes utilizadas para la capacitación tuviera una fuente ética». Agregó: «¿Tienen una política establecida sobre esto? Sería genial verla».

Mostaque respondió diciendo que creía que las imágenes eran «de origen y uso éticos, morales y legales»; pero que «algunas personas difieren».

La reacción ha llevado a la startup a los tribunales. Un juez en California y otro en Reino Unido examinarán los términos y condiciones utilizados para obtener el contenido protegido por derechos de autor.

¿Qué obstáculos enfrenta un sistema de IA para buscar arte para entrenarse?

La analogía favorita del abogado de Snell & Wilmer, Tony Caldwell, para usar en este caso es que si hay una reja cerrada y la cruzas, generalmente es un contacto prohibido. Lo que el tribunal ve favorablemente es que no haya una «reja» cuando ocurre la búsqueda en la web. Cuando se observa la situación de Getty, la empresa tenía un inicio de sesión; una estructura de licencia y términos de servicio que creaban una especie de «reja» alrededor del contenido de su plataforma.

“Ese mecanismo de reja, por así decirlo, realmente determina si el tribunal considera o no la actividad de búsqueda como una conducta en la que debe o no participar”, dijo.

El tuit de Mostaque agregó que Stability AI ofrecería «exclusión voluntaria». También dijo que usaría conjuntos de datos y modelos alternativos con contenido con licencia bajo el proceso de derechos de autor de creative-commons más permisivo.

A eso, Mark Beccue, analista de IA de Omdia, dijo: «Stability debería preguntarles a los propietarios de una propiedad intelectual si pueden usarla. Esto está al revés. ¿Por qué un propietario de propiedad intelectual tendría que hacer eso proactivamente?»

AHORA LEE: La IA generativa explota en popularidad, pese a riesgos éticos y de seguridad

TAMBIÉN LEE: Amazon advierte a los empleados que no compartan información confidencial con ChatGPT

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: