• Los robot actuales son capaces de aprender comandos básicos para ejecutar tareas sencillas.
  • Sin embargo, un nuevo modelo de aprendizaje desarrollado por Google permite que los robots puedan interpretar comandos más complejos.
  • El modelo, desarrollado por Google Research en colaboración con Everyday Robots, permite a los robots comprender su entorno y entender mejor los comandos.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos.

Los robots son usados continuamente para labores cada vez más complejas — desde trabajar en fábricas, hasta servir como meseros. A su vez, la unión de la ingeniería con el aprendizaje automático está provocando que mejoren su «percepción» del mundo; algo que justo sucede con un robot desarrollado por Google.

El gigante tecnológico tiene una sección completa dedicada a la robótica y, en una de sus últimas investigaciones, probó darle órdenes a un robot para realizar tareas cotidianas, como preparar una hamburguesa. Sin embargo, la compañía aún tiene algunos puntos que mejorar.

Los robots actuales pueden ejecutar tareas sencillas, dependiendo de su programación; sin embargo, los científicos investigadores de Google Research, en colaboración con Everyday Robots, quieren llevarlos un paso más allá.

En un nuevo estudio, los científicos aprovecharon el conocimiento avanzado del modelo de lenguaje para permitir al robot de Google seguir instrucciones textuales de alto nivel. El método, denominado PaLM-SayCan, ha puesto a los robots en cocinas.

Los robots interpretan los comandos hablados de forma natural, sopesan las posibles acciones frente a sus capacidades y planifican pasos más pequeños para lograr la petición.

Esto es posible al infundir a los robots con tecnología de lenguaje que extrae la comprensión de Wikipedia, las redes sociales y otras páginas web. Una IA similar subyace en los chatbots o asistentes virtuales; sin embargo, no se ha aplicado a los robots de manera tan amplia antes, según Google.

Este modelo se basa en algo así como un diálogo entre el usuario y el robot, de tal manera que la máquina filtra el comando de voz basado en una situación específica de la realidad o el entorno. Esto, según los investigadores, reduce los errores en la acción hasta la mitad.

El robot de Google ahora puede ejecutar diversas acciones a través de comandos más complejos

El robot de Google es capaz de realizar tareas simples como llevar una bebida o ayudar a limpiar a través de comandos más complejos. Por ejemplo, en lugar de que el usuario presenta al robot con una orden directa, se le consulta con frases como: «derrame mi bebida, ¿me puedes ayudar?».

En este escenario, el robot de Google reconoce que tomar una esponja es una respuesta factible y más sensata que disculparse por la bebida derramada.

Con el modelo PaLM-SayCan, el robot entendía el comando 84% de las veces y lo ejecutaba exitosamente 74% del tiempo.

En total, los investigadores realizaron 68,000 demostraciones con 10 robots en 11 meses.

Sin embargo, los robots de Google no están listos para la venta. Realizan solo unas pocas docenas de acciones simples, y la compañía aún no las ha integrado con la conocida función «OK, Google».

«Tomará un tiempo antes de que podamos tener una idea firme del impacto comercial directo», dijo a Reuters Vincent Vanhoucke, director senior de investigación de robótica de Google.

A su vez, este desarrollo tecnológico de Google contrasta con las polémicas que la tecnológica ha enfrentado recientemente en torno a su inteligencia artificial; específicamente, que un ingeniero aseguró que un chatbot de la compañía se volvió consciente.

AHORA LEE: Un robot de ajedrez le rompió el dedo a un niño de 7 años en un torneo ruso

TAMBIÉN LEE: Walmart prueba máquinas expendedoras móviles en sus estacionamientos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedIn, TikTok y YouTube

AHORA VE: