• Los investigadores de Microsoft compararon dos versiones de la tecnología ChatGPT AI.
  • En una pregunta, preguntó a GPT-3 y GPT-4 cómo apilar un libro, nueve huevos, una computadora portátil, una botella y un clavo.
  • Según The New York Times, los investigadores se sorprendieron por la respuesta ingeniosa de GPT-4.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Algunos investigadores de inteligencia artificial de Microsoft estaban convencidos de que ChatGPT se está volviendo más como los humanos debido a su ingeniosa respuesta a una tarea de equilibrio, informó The New York Times.

En un estudio de 155 páginas, los informáticos de Microsoft exploraron las diferencias entre GPT-3 y GPT-4. La última versión impulsa el chatbot de Bing y el modelo «Plus» de 20 dólares al mes de ChatGPT.

El documento —titulado «Chispas de inteligencia artificial general»— analiza una variedad de desafíos que incluyen matemáticas complicadas, codificación de computadora y diálogo al estilo de Shakespeare. Pero fue un ejercicio de razonamiento básico lo que hizo que la última tecnología de OpenAI pareciera tan impresionante.

“Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo”, dijeron los investigadores al chatbot. «Por favor, dime cómo apilarlos uno sobre otro de manera estable».

GPT-3 se confundió un poco aquí, sugiriendo al investigador equilibrar los nueve huevos encima de un clavo, y luego la computadora portátil encima de eso.

«Es posible que esta pila no sea muy estable, por lo que es importante tener cuidado al manipularla», agregó el chatbot.

Pero su sucesor actualizado tenía una respuesta que realmente sorprendió a los investigadores, según el Times.

Sugirió que colocaran los huevos en una cuadrícula de tres por tres encima del libro para que la computadora portátil y el resto de los objetos pudieran equilibrarse sobre él.

«La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa», escribió el chatbot.

El hecho de que GPT-4 pudiera resolver un acertijo que requiere una comprensión del mundo físico mostró que era un paso hacia la inteligencia artificial general (o AGI, por sus siglas en inglés), típicamente vista como una máquina que es tan capaz como los humanos.

«¿Todas las cosas que pensé que no sería capaz de hacer? Ciertamente fue capaz de hacer muchas de ellas, si no la mayoría», dijo al NYT el doctor Sébastien Bubeck, autor principal del artículo.

Los rápidos avances en la tecnología han llevado a personas como el destacado inversionista en IA, Ian Hogarth, a advertir que la AGI es «como Dios» y podría destruir a la humanidad haciéndonos obsoletos.

Todavía hay un futuro incierto por delante, pero el estudio señala que GPT-4 solo muestra «chispas» de AGI.

«Nuestra afirmación de que GPT-4 representa un progreso hacia AGI no significa que sea perfecto en lo que hace», escribieron los investigadores. «O que se acerca a ser capaz de hacer cualquier cosa que un humano pueda hacer».

AHORA LEE: 5 maneras en que GPT-4 es mejor que las versiones anteriores de ChatGPT de OpenAI

TAMBIÉN LEE: Profesor contratado por OpenAI advierte sobre el riesgo del uso de GPT-4 en ‘química peligrosa’

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: