• Al inicio de la robótica, se buscaba hacer robots a imagen del ser humano y conforme pasa el tiempo se descubren nuevas maneras de usar la tecnología
  • Hoy en día, la Inteligencia Artificial imita los sentidos de los seres humanos gracias a varios investigadores.
  • Esta es una recopilación de proyectos capaces de replicar los sentidos y que van mucho más allá del reconocimiento de voz de Alexa.

Desde los inicios de la robótica, siempre se ha intentado crear una máquina a imagen y semejanza del ser humano; una que se mueva, imite los sentidos y piense tal y como lo hacen las personas.

Aunque esto parecía inalcanzable en el pasado, poco a poco aparecen robots con sistemas que pueden diferenciar entre miles de sabores, olores o texturas como cualquier humano.

Algunos ejemplos de esto son los proyectos desarrollados por el Instituto Tecnológico de Massachussets (MIT por sus siglas en inglés); que están inmersos en investigaciones para lograr que los robots tengan sentido del tacto.

O la compañía francesa Aryballe que cuenta con un sistema de inteligencia artificial (IA) capaz de diferenciar miles de sabores diferentes.

Algunos software, como el de reconocimiento de voz de Alexa son ya conocidos y forman parte de muchos hogares. Por lo que te dejamos algunos ejemplos de IA que puede asemejar los cinco sentidos del ser humano; y que incluso, van mucho más allá.

1. Robots que pueden ver

Los robots no tienen un sentido de la vista como tal; sin embargo, hay algunos cuyo sistema de rayos infrarrojos les permite determinar la forma de los objetos de manera muy ajustada a la realidad

Los robots no son buenos cuando se encuentran frente a un objeto transparente, como una botella de cristal o un vaso de plástico. Esto se debe a que sus sensores de profundidad, reflejan en estos objetos y solo son capaces captar algunas sombras.

Sin embargo, un equipo de investigadores de la Universidad Carnegie Mellon en Estados Unidos, recientemente logró crear un sistema para que los robots puedan completar con información adicional, esas sombras que captan con sus sensores. De esta manera, pueden dar forma a objetos transparentes, como recoge el diario The Wall Street Journal.

En su proyecto, los investigadores combinaron un sensor de profundidad junto con una cámara estándar que capta los tonos rojos, verdes y azules de los bordes de esos objetos transparentes.

Después, mejoraron el sistema para que los robots reconozcan las señales visuales de colores registrados por la cámara. De esta manera un brazo robótico automáticamente puede ajustar el agarre para tomar objetos.

2. El poder de escuchar

Los investigadores de Carnegie Mellon crearon también una base de datos de sonidos e imágenes digitalizados utilizando todo tipo de objetos domésticos. Esto, con la finalidad de que un sistema de IA con entrenamiento automático, pueda identificar correctamente cada sonido.

De esta manera, según los investigadores, el robot era capaz de identificar en hasta 750% de las veces, objetos que no podía ver, pero si escuchar.

También se está desarrollando la tecnología que permite aislar sonidos unos de otros, y diferenciar por ejemplo entre voces y ruido.

Un ejemplo de esto es Oticon Inc, una compañía fabricante de audífonos, que está investigando la creación de implantes cocleares con redes neuronales.

Esos implantes tienen unos algoritmos, alimentados con millones de muestras de habla con y sin ruido de fondo, que automáticamente aísla las voces del ruido de fondo. Lo que permite a personas con algún tipo de pérdida auditiva, recuperar sus facultades.

3. El sentido del olfato

¿Te imaginas un sistema de IA capaz de oler un perfume? Pues está más cerca de lo que crees. Aryballe es una empresa de software que mediante unos biosensores y un sistema de aprendizaje automático, imita el funcionamiento del sistema olfativo humano.

El sensor capta las moléculas de olor en el aire y las codifica en datos. El sistema de IA los recoge y los combina con una base de datos que cuenta con miles de olores diferentes. Después de cruzar los datos recogidos con los de su base, puede determinar de qué tipo de olor se trata.

Esta tecnología tiene varias aplicaciones, como poder apagar un horno antes de que se quemen los alimentos o detectar una fuga de gas.

4. Saborear miles de alimentos

Existe un sistema de IA que permite predecir qué alimentos funcionarán mejor o peor en un mercado concreto, basándose en los gustos de los consumidores. Gastrograph AI, es una plataforma creada por Analytical Flavor Systems Inc. que predice cómo reaccionará la gente ante nuevos productos alimenticios.

Este sistema cruza los datos de miles de consumidores que primero han valorado miles de productos a través de una aplicación para celular, puntualizando diferentes parámetros y categorías.

Gracias al sistema de autoaprendizaje de la IA, es capaz de determinar qué patrones de sabores y preferencias funcionan mejor en cada lugar.

«Hasta la fecha, tenemos mas de 1,000 firmas de sabores ¿Tiene un sabor portugués poco común? Encuentre otros grupos de consumidores importantes para él basándose en los datos de percepción. ¿Tiene un sabor que aún no es registrado? Cree una nueva firma y la IA de Gastrograph la optimizará para su público”, establece en su página web.

5. La complejidad del tacto

GelSight, es una tecnología desarrollada por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Permite a los robots, mediante un sensor táctil, determinar la forma, el tamaño y el material de una superficie.

Esto supone poder digitalizar el sentido del tacto con una precisión muy alta.

En relación con esta tecnología, Yunzhu Li, investigador del MIT, está trabajando en un sistema de IA capaz de establecer relación entre una imagen y el tacto de una superficie.

A través de la recopilación de datos de más de 200 objetos tocados miles de veces con un sensor GelSight, Li creó una base de datos para el sistema que desarrolló. Este es capaz de hacer modelos coincidentes entre datos visuales y datos sobre el tacto.

«Los humanos desarrollamos capacidades a partir de la experiencia a lo largo de nuestra vida, las redes neuronales pueden aprender mucho más rápido” afirma Li en una entrevista a TWSJ.

AHORA LEE: Estas son las razones por las que los niños y jóvenes deberían aprender sobre programación de computadoras

TAMBIÉN LEE: El uso de la Inteligencia Artificial podría ayudar a evitar la ceguera diabética en 4 millones de mexicanos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter