• Un ingeniero que aseguraba que una inteligencia artificial (IA) de Google tenía sentimientos.
  • La compañía despidió al ingeniero por violar su política de confidencialidad.
  • 7 expertos aseguraron a Business Insider que esta herramienta probablemente no sea sensible.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos

Es poco probable, por no decir imposible, que la herramienta de chat por inteligencia artificial (IA) de Google haya cobrado vida. Esto lo aseguraron una serie de expertos a Business Insider después de que uno de los ingenieros del gigante tecnológico fue suspendido por defenderlo.

El ingeniero, Blake Lemoine, contó a The Washington Post que al chatear con el algoritmo LaMDA de Google (siglas de modelo de lenguaje para aplicaciones de diálogo) comenzó a pensar que la IA desarrolló sentimientos y podía percibir y sentir como un ser humano. Lemoine trabajó en la organización de Google encargada crear mecanismos de IA.

Pero este ingeniero, que no proporcionó comentarios a Business Insider, parece ser el único que hace estas afirmaciones sobre el chatbot de Google. De hecho, un portavoz de la compañía aseguró que un equipo de expertos en ética y tecnología revisaron las denuncias de Lemoine. Concluyeron que no había pruebas que las sustentaran.

«Cientos de investigadores e ingenieros han conversado con LaMDA; y no tenemos constancia de que nadie más haya hecho este tipo de afirmaciones o que haya antropomorfizado a LaMDA», afirmó el portavoz.

Business Insider contactó a siete expertos que se mostraron de acuerdo con Google. Aseguran que la IA probablemente no tiene sentimientos; tampoco hay una forma clara de determinar si un robot está vivo.

«La idea de robots capaces de sentir ha inspirado grandes novelas y películas de ciencia ficción», dijo a Business Insider Sandra Wachter. Ella es profesora de la Universidad de Oxford centrada en ética e Inteligencia Artificial. «Sin embargo, aún estamos a mucha distancia de crear una máquina comparable a los humanos y a su capacidad de pensamiento», añadió.

La inteligencia artificial de Google es un sistema simple

Otro ingeniero de Google que trabajó con LaMDA contó a este medio que el chatbot —aunque es capaz de realizar múltiples conversaciones— hace procesos relativamente simples.

«Lo que el código hace es modelar secuencias de lenguaje que se han recopilado de Internet», según el ingeniero. Este prefiere permanecer anónimo debido a las políticas de Google. En otras palabras, la IA puede aprender de materiales procedentes de la web.

El ingeniero aseguró que en un sentido físico resultaría extremadamente improbable que LaMDA pudiera sentir dolor o experimentar cualquier emoción; a pesar de las conversaciones en las que la herramienta parece expresar miedo. En una conversación publicada por Lemoine, el chatbot afirma sentirse «a veces feliz y otras triste».

Es difícil distinguir la capacidad de sentir de una inteligencia artificial

El ingeniero de Google y varios expertos explicaron que no hay una forma clara de determinar la capacidad de sentir de un robot.

«No sería posible distinguir entre qué IA siente y cuál no basándose en las secuencias de palabras que producen porque estas son solo patrones que han aprendido», afirmó el ingeniero de Google a Business Insider. «No hay una pregunta con la que poder desenmascararlas», ha añadido.

Laura Edelson, investigadora postdoctoral en la Universidad de Nueva York, aseguraó a Business Insider que la conversación entre Lemoine y LaMDA no logra suponer una prueba de vida. Y el hecho de que la conversación haya sido editada la hace aún menos fiable, dijo.

«Incluso si existiera un chatbot que pueda tener una conversación superficial sobre filosofía; eso no sería muy distinto de uno capaz de tener conversaciones sobre cine», explicó Edelson.

Por su parte, Giada Pistilli, investigadora especializada en ética de la IA, contó que es parte de la naturaleza humana adscribir emociones a objetos; un fenómeno que se conoce como antropomorfización. 

Y Thomas Diettrich, profesor emérito de ciencias informáticas en la Universidad Estatal de Oregón, dijo que es relativamente fácil para una IA usar lenguaje para expresar emociones internas.

«Se puede entrenar a una IA con grandes cantidades de textos escritos; incluyendo historias con emociones y dolor, para que la acabe de una forma que parezca original», explicó. «No es porque entienda estos sentimientos sino porque sabe combinar frases antiguas para crear otras nuevas», añadió.

Además, Diettrich aseveró que el papel de la Inteligencia Artificial es la sociedad afrontará sin lugar a dudas mayor escrutinio en el futuro.

«La ciencia ficción ha convertido la capacidad de sentir en algo mágico; pero los filósofos ha tenido dificultades con esto durante siglos», dijo Diettrich. «Creo que nuestras definiciones de qué está vivo cambiarán a medida que desarrollemos nuevos sistemas en los próximos 10 o 100 años», concluyó.

AHORA LEE: La Haus aprovecha el machine learning y la inteligencia artificial para adquirir bienes raíces de forma 100% digital

TAMBIÉN LEE: El SAT descubrió redes de empresarios que evaden impuestos utilizando ‘machine learning’, la base de la inteligencia artificial

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedInTikTok y YouTube

AHORA VE: