• Investigan quién es más eficaz en explicar a su jefe humano si ha fallado en el trabajo: un robot con apariencia humana o un brazo robótico.
  • En un estudio, las máquinas (simuladas) adoptaron distintas estrategias para justificarse ante sus superiores: desde la negación, al perdón o a la promesa.
  • La investigación programó a estos robots simulados para que fallasen intencionalmente al realizar su trabajo.

La automatización de determinados puestos de trabajo parece irreversible. La llegada de robots con forma humana a diversos sectores e industrias lleva años produciéndose.

Por esa razón, la confianza que los trabajadores humanos puedan depositar en estas nuevas máquinas se torna esencial para que las nuevas cadenas de valor tengan éxito.

Por eso no es extraño ver cómo desde las ciencias sociales se abunde en nuevos estudios que buscan determinar cómo serán las relaciones profesionales entre humanos y máquinas en un futuro inmediato.

Es el caso de una investigación elaborada en la Facultad de Información de la Universidad de Michigan, donde el investigador posdoctoral Connor Esterwood, y el profesor asociado del centro, Lionel Robert, llegaron a una peculiar conclusión.

Los trabajadores humanos son más propensos a empatizar y perdonar con una máquina que ha fallado en su trabajo si estas tienen una apariencia que se asemeje, aunque sea de forma remota, a un ser humano.

Así fue el estudio sobre las relaciones con robots

El estudio ha aparecido en Ars Technica, en un artículo donde se recuerda que también los humanos se equivocan, y aun así «pueden seguir trabajando juntos».

Esterwood y Roberts contaron con 164 participantes que respondieron a una serie de encuestas, a través de una plataforma en línea.

Para encontrarlos recurrieron a una plataforma llamada Amazon Mechanical Turk, con la que el gigante del comercio electrónico pone en contacto a freelances con grandes empresas que requieren de la supervisión humana para tareas muy específicas.

La idea del estudio era realizarlo en un entorno controlado, con estos trabajadores y mediante dispositivos de realidad virtual. Sin embargo, la pandemia lo ha impedido.

Aunque las primeras conclusiones ya están sobre la mesa, se espera ampliar su investigación en los próximos meses, tal y como explica Ars Technica.

A través de la plataforma en línea, los investigadores crearon un entorno simulado parecido a un videojuego.

El objetivo de los participantes de la muestra era determinar si el robot era capaz de apilar una serie de cajas de forma correcta. Unos usuarios supervisaron un robot con apariencia humana; otros un brazo robótico, una máquina sin rostro.

Los robots con forma humana, más eficaces al explicarse

La investigación programó a estos robots simulados para que fallasen intencionalmente al realizar su trabajo.

Después, las máquinas simuladas emitirían unos comunicados de disculpas. Esos comunicados constaban de distintas categorías: disculpa, negación, explicación y promesa. 

Los supervisores humanos que formaban parte de la muestra tendrían que resolver unos cuestionarios.

Esos cuestionarios buscaban medir la eficacia de la máquina a la hora de pedir disculpas e intentar volver a ganarse la confianza de sus supervisores humanos.

Por esa razón, los cuestionarios constaban de las siguientes métricas: capacidad (del robot para desempeñar su tarea), integridad (será capaz de hacerlas), y benevolencia (las hará correctamente).

Las primeras conclusiones ya están sobre la mesa.

Los robots con forma humana tuvieron mayor éxito al explicar por qué habían fallado: los supervisores humanos empatizaron algo más con ellos. 

También consiguieron restaurar la confianza de sus superiores más rápido que los brazos robóticos cuando optaban por estrategias como la de disculpa, negación y explicación.

Sorprendentemente, el brazo robótico consiguió recobrar la confianza de sus supervisores de una manera más rápida cuando optó por la estrategia de «promesa», prometiendo que no volvería a fallar.

Según Esterwood, un robot con apariencia humana puede ser más eficaz a la hora de explicar cuál ha sido su fallo porque elimina muchas de las ambigüedades y barreras que genera un robot sin cara ni expresión.

¿Qué pasa cuando los robots son los ‘jefes’?

El estudio esboza lo que es una corriente de investigaciones en la que se trata de determinar la capacidad de los seres humanos a la hora de tratar e incluso empatizar con máquinas.

De la misma manera, las máquinas también tendrán que ser capaces de «empatizar» con los seres humanos, aunque sea por imperativo legal.

Y en ocasiones, muchos empleadores los eligen como supervisores de los trabajadores humanos.

Centrales sindicales quieren evitar que se generen situaciones como la que sucedió en una aerolínea portuguesa hace no mucho, en la que una IA despedía a trabajadores al no ser capaz de diferenciar eficazmente una baja médica de un caso de absentismo laboral.

AHORA LEE: Qualcomm quiere ayudar a hacer más fácil el desarrollo de robots y esto es en lo que trabaja

TAMBIÉN LEE: Un hospital en Boston usa a los famosos robots de Boston Dynamics para tratar a pacientes con coronavirus

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter