• Elon Musk, Steve Wozniak y más de 1,000 personas más firmaron una carta pidiendo una pausa en los nuevos modelos de IA.
  • El rápido aumento de ChatGPT y de los gustos tecnológicos muestra cómo tiene un potencial increíble para bien y para mal.
  • Tomarse un descanso del desarrollo de la inteligencia artificial ayuda a asegurarnos de que se esté haciendo de manera responsable.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Hay pocas cosas en las que el cofundador de Apple, Steve Wozniak, y Elon Musk están de acuerdo en estos días, con una notable excepción: la inteligencia artificial debe desacelerar su avance.

Wozniak, Musk y más de 1,000 líderes empresariales firmaron una carta en la que solicitaban medidas de protección y una pausa en el entrenamiento de modelos de inteligencia artificial a medida que la tecnología se vuelve más poderosa. La carta argumenta que los modelos poderosos de IA como GPT-4 de OpenAI «solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables».

Por supuesto, esta no es la primera vez que las personas piden medidas de seguridad para la inteligencia artificial. Sin embargo, a medida que la IA se ha vuelto más sofisticada, los llamados a la cautela crecen.

«Es una muy buena idea ralentizar el desarrollo de nuevos modelos porque si la inteligencia artificial termina siendo buena para nosotros, entonces no pasa nada por esperar meses o años, llegaremos al punto final de todos modos», dijo James Grimmelmann, profesor de tecnología digital y derecho de la información en la Universidad de Cornell. «Si es dañino, simplemente nos compramos tiempo extra para diseñar estrategias sobre las mejores maneras de responder y comprender cómo combatirlo».

Es decir, Wozniak y los demás líderes tecnológicos tienen razón. La inteligencia artificial ha sido arrojada a la naturaleza, dejada para crecer desatendida y cada día más fuerte. Pero ahora, tenemos la oportunidad de ralentizarla, brindando el potencial para cultivar mejor la tecnología por el bien de la sociedad.

El auge de ChatGPT muestra los peligros potenciales de moverse demasiado rápido

Cuando ChatGPT de OpenAI salió a prueba pública en noviembre del año pasado, causó un gran revuelo. Comprensiblemente, la gente comenzó a impulsar las capacidades de ChatGPT. Pronto se hizo evidente lo disruptivo que podría ser para la sociedad. Comenzó a aprobar los exámenes de licencia médica. Dio instrucciones sobre cómo hacer bombas (después de un poco de ayuda adicional). Creó un alter ego para sí mismo.

Cuanto más usamos la inteligencia artificial —en particular las llamadas herramientas de IA generativa como ChatGPT o la herramienta de texto a imagen Stable Diffusion— más vemos sus fallas, su potencial para crear sesgos y cuán poco preparados estamos los humanos para ejercer su poder.

Hasan Chowdhury de Insider escribió que la inteligencia artificial tiene el potencial de «ser un turbocompresor que acelera la propagación de nuestras fallas». Al igual que las redes sociales, puede aprovechar lo mejor y lo peor de la humanidad. Pero a diferencia de las redes sociales, la IA estará mucho más integrada en la vida de las personas.

ChatGPT y otros productos de IA similares ya tienden a tergiversar la información y cometer errores, algo de lo que Wozniak ha hablado públicamente. Es propenso a los errores, e incluso el CEO de OpenAI, Sam Altman, admitió que el modelo de su empresa podría arrojar respuestas racistas, sexistas y sesgadas. Stable Diffusion se topó con problemas de derechos de autor y ha sido acusado de robar obras de artistas digitales.

A medida que la inteligencia artificial se incorpora a la tecnología más cotidiana, corremos el riesgo de traer más información errónea al mundo, a mayor escala. Incluso las tareas aparentemente benignas para la IA, como ayudar a planificar unas vacaciones, pueden no producir resultados confiables.

Es difícil desarrollarse responsablemente cuando el libre mercado exige moverse rápidamente

Para ser claros, la inteligencia artificial, particularmente la IA generativa como ChatGPT, es una tecnología increíblemente transformadora. No hay nada intrínsecamente malo en desarrollar máquinas que hagan gran parte del trabajo tedioso que la gente detesta.

Por mucho que la tecnología haya creado una crisis existencial en la fuerza laboral, también se ha celebrado como una herramienta igualadora para la industria tecnológica. Tampoco hay evidencia de que ChatGPT esté listo para liderar una rebelión de robots en los próximos años.

Y muchas empresas de inteligencia artificial tienen especialistas en ética preocupados por desarrollar la tecnología de manera responsable. Pero un equipo dedicado centrado en crear IA de forma segura no puede hacer su trabajo si la prisa por sacar productos es más alta que su impacto social.

La velocidad también parece ser clave en el juego. OpenAI descubrió que si se mueve lo suficientemente rápido, puede evitar la competencia y convertirse en el líder en el espacio de IA generativa. Eso empujó a Microsoft, Google y casi todos los demás a hacer lo mismo.

Lanzar modelos de inteligencia artificial poderosos para que el público juegue con ellos antes de que estén listo no está mejorando la tecnología. Las personas no pueden encontrar los mejores casos de uso para la IA porque los desarrolladores tienen que apagar los incendios creados por su tecnología y los usuarios se distraen con el ruido.

No todo el mundo quiere una pausa en la inteligencia artificial

La carta tiene sus detractores, quienes dicen que no da en el blanco.

La profesora de la Universidad de Washington, Emily M. Bender, dijo en un hilo de Twitter que Musk y los otros líderes tecnológicos se entregan al ciclo de exageraciones al centrarse en cuán poderosa puede ser la IA y no en el daño real que puede causar.

Grimmelman agrega que los líderes tecnológicos que firmaron la carta «llegaron tarde a la fiesta» y abrieron una caja de Pandora de posibles complicaciones para ellos mismos.

“Ahora que han firmado la carta, no pueden darse la vuelta y decir que no se pueden hacer las mismas políticas para otras tecnologías como los autos sin conductor”, dijo.

Una moratoria o más regulación puede o no llegar a buen puerto. Pero la conversación ahora ha cambiado.

La IA existe desde hace décadas; puede esperar unos años más.

AHORA LEE: Europol advierte sobre los riesgos que presenta ChatGPT para la ciberseguridad

TAMBIÉN LEE: La persona detrás de la foto falsa viral del Papa pide una mayor regulación de la IA

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: