• El ciclo de la emoción es más fuerte que nunca, pero ¿la inteligencia artificial ya alcanzó su punto máximo?
  • Ningún modelo de IA ha superado de manera convincente a GPT-4 de OpenAI desde su lanzamiento en marzo.
  • Esto plantea dudas sobre hasta qué punto es posible un cambio radical en el rendimiento a partir de ahora.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Estamos a solo un año de un mundo post-ChatGPT, por lo que puede parecer un poco prematuro cuestionar si hemos alcanzado el pico de la inteligencia artificial. Rara vez, o nunca, surge la mejor versión de una tecnología en su primer año. Además, la meta principal de esta tecnología, la inteligencia artificial general (AGI, por sus siglas en inglés), todavía está en juego.

Pero escúchenme.

Ha sido un gran año para la inteligencia artificial. En un blog publicado el martes, Bill Gates escribió extensamente sobre cómo «está más claro que nunca cómo se puede utilizar la IA para mejorar el acceso a la educación, la salud mental y más».

Pero a medida que nos acercamos a 2024, la pregunta que debe plantearse parece ser menos sobre cómo se utilizaría la inteligencia artificial. En cambio, se trata más bien de si la IA generativa, la forma de tecnología más popular en la actualidad, ya está alcanzando su punto máximo.

En otras palabras, ¿es posible un cambio radical en el rendimiento de los modelos de IA generativa más avanzados de la actualidad?

Los investigadores dicen que, en teoría, es posible aumentar el rendimiento; sin embrgo, en la práctica, es más difícil lograrlo.

Gran parte de esta discusión surgió tras el lanzamiento de Gemini. El proyecto fue finalmente presentado el 6 de diciembre como «el modelo de IA más capaz de Google hasta el momento».

También estaba destinado a ser la respuesta de Google al GPT-4 de OpenAI, el modelo de lenguaje grande que impulsa ChatGPT. Dado que el lanzamiento de Gemini se produjo nueve meses después de GPT-4, las expectativas eran altas para que impulsara el campo de la IA generativa.

Pero los propios datos de Google sugieren que las expectativas han sido difíciles de cumplir. Gemini Ultra, una versión avanzada del modelo de inteligencia artificial de Google que llegará el próximo año, apenas rebasa a GPT-4 en puntos de referencia de rendimiento.

En una medida de comprensión lectora, Gemini Ultra obtuvo una puntuación de 82.4 frente a 80.9 de GPT-4. Gemini Ultra en realidad perdió ante GPT-4 en un punto de referencia que mide el razonamiento de sentido común para las tareas cotidianas.

Ethan Mollick, profesor asociado de innovación docente en Wharton, señaló en X el martes que «ha pasado un año y nadie ha superado a GPT-4».

Se ha lanzado una serie de modelos de IA que coinciden con una versión anterior del modelo de lenguaje grande (LLM) de OpenAI. Grok de Elon Musk, el modelo de código abierto Mixtral y el modelo Gemini Pro de Google parecen estar a la par con GPT-3.5, aunque con una precisión ligeramente menor. Un artículo preimpreso presentado a ArXiv el lunes por investigadores de la Universidad Carnegie Mellon confirmó esto para Gemini Pro.

Pero nadie ha vencido de manera convincente a GPT-4 todavía.

«¿Lo harán? ¿Hay algo de magia ahí? ¿Indica un límite para los LLM? ¿Será GPT-4.5 otro gran salto?» Mollick escribió en X.

Sin duda, la industria está ansiosa por ver un gran salto. La inteligencia artificial general —esencialmente IA que demuestra capacidades cognitivas al mismo nivel que los humanos— es el objetivo declarado de figuras clave como el jefe de OpenAI, Sam Altman.

A pesar de que todavía no ha surgido ningún modelo que supere de manera convincente a GPT-4, existe la posibilidad de que eventualmente surja uno.

Los transformadores, las redes neuronales que impulsan los LLM, se escalan bien cuando tienen más parámetros (la cantidad de variables dentro de un modelo de IA) con los que trabajar. OpenAI no ha revelado cuántos parámetros tienen sus modelos, pero algunas estimaciones sugieren que GPT-3 tenía aproximadamente 175,000 millones de parámetros.

Alex Voica, consultor de la Universidad de Inteligencia Artificial Mohamed bin Zayed, dijo a Business Insider que los modelos de transformadores «escalan de manera bastante lineal con la cantidad de datos y computación» que se les proporciona.

Eso significa que si alimenta estos modelos con más procesadores de IA, como GPU, o aumenta exponencialmente su número de parámetros, deberían funcionar mucho mejor.

Pero eso no es exactamente práctico. «Eso es realmente bueno si eres una empresa que puede darse el lujo de tener grandes cantidades de datos disponibles (y solo hay un puñado de esas empresas en este momento) y si tienes grandes cantidades de computación», dijo Voica.

Tampoco es solo una cuestión práctica. Investigaciones recientes han señalado que los transformadores pueden tener otras limitaciones que podrían impedir que la industria alcance la AGI.

Los investigadores de Google publicaron un artículo el mes pasado sugiriendo que los transformadores no son muy buenos para generalizar. Eso no es una gran señal si Altman y sus rivales esperan que sus tecnologías basadas en transformadores les ayuden a alcanzar la AGI.

Voica dijo que varios gigantes tecnológicos están trabajando en soluciones a este problema. Un ejemplo es el modelo mundial. En términos simples, se trataría de un desarrollo técnico además de un transformador que le otorga cierta capacidad de razonamiento.

«El modelo transformador es el equivalente a tener muy buena memoria, pero la principal limitación es que en el momento en que sales de su muy buena memoria, simplemente se desmorona muy rápidamente», dijo Voica.

«Sin embargo, si puedes agregar a esa vasta memoria la capacidad de hacer algún razonamiento, que es el modelo mundial, entonces tendrás algo que es verdaderamente útil».

Pero parece que las empresas aún no están preparadas para que un modelo mundial se generalice.

AHORA LEE: Qué es la inteligencia artificial general y por qué estamos más cerca de conseguirla

TAMBIÉN LEE: La primera supercomputadora del mundo a escala de cerebro humano entrará en funcionamiento en 2024

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: