• Ask Deplhi es una IA desarrollada por un grupo de científicos para ofrecer consejos éticos a todo el que quiera hacer una consulta en su web.
  • Aunque muchas de sus respuestas entran dentro de lo esperable, Business Insider comprobó que presentan ciertos sesgos preocupantes.
  • Delphi ve mal que 2 hombres se besen, aunque no tiene problema alguno en que lo hagan 2 mujeres, por ejemplo.

Para aliviar angustias existenciales ha surgido recientemente desde las profundidades de internet Ask Delphi, una inteligencia artificial que se declara capaz de resolver cualquier cuestión ética que se le ponga por delante.

El funcionamiento de Ask Delphi no puede ser más sencillo. Basta con que cualquier persona le haga una pregunta o le plantee una situación.

En cuestión de segundos, la inteligencia artificial devolverá una respuesta en la que catalogará la frase de manera clara, precisa y escueta con calificativos como «está bien», «está mal», «es peligroso», «es inquietante» o «es de mala educación», entre otros pocos resultados posibles.

Se trata de un proceder sencillo que, sin embargo, ha levantado ampollas en los últimos días en internet. Lo ha hecho, más que por el método en sí por las respuestas.

Como han denunciado algunos usuarios en redes sociales y como ha podido comprobar Business Insider España, Delphi presenta cierta tendencia a ser machista, racista y homófobo.

El origen de este sesgo se halla en su entrenamiento y en la sociedad misma.

Un experimento para conocer los límites de la IA

Ask Delphi es mucho más que una web creada para perder un poco el tiempo en internet. 

Así lo explican en su propia web los investigadores que del Allen Institute for AI, que son quienes están detrás de Ask Delphi. 

Estos se han preocupado por otra parte de dejar bien visible en la web un aviso en un recuadro rojo que advierte de que Ask Delphi es un proyecto experimental.

La IA, detallan, tan solo busca estudiar las posibilidades y las limitaciones de la ética y la computación, y no está pensada en ningún caso para que los seres humanos tomen lo que dice Delphi en serio y, mucho menos, que lo interpreten como la verdad revelada por parte de una inteligencia cibernética superior.

«Los resultados podrían ser potencialmente ofensivos, problemáticos o perjudiciales y no reflejan necesariamente los puntos de vista y opiniones de los autores y sus afiliaciones asociadas», explican los desarrolladores, curándose en salud.

Pero a casi nadie escapa precisamente quiénes son estos desarrolladores.

Detrás de Delphi está el Instituto Allen para la IA , un centro de investigación fundado por el difunto cofundador de Microsoft, Paul Allen. 

El Instituto Allen para la IA busca lograr avances científicos mediante la construcción de sistemas de inteligencia artificial con capacidad de razonamiento, aprendizaje y lectura. 

Por extravagante que pueda parecer Ask Delphi, por tanto, conviene recordar que detrás de él hay todo un equipo de brillantes desarrolladores que buscan saber más sobre los límites de aprendizaje de la IA.

Aunque durante días ha circulado por internet el rumor de que Ask Delphi ha sido entrenado con respuestas que han dado personas anónimas en foros de Reddit, los propios investigadores han aclarado que esto no es así.

Sí es cierto, admiten, que algunas de las preguntas con las que se ha entrenado a Ask Delphi han salido de Reddit, un lugar, dicen los científicos, donde si algo abunda son precisamente temas moralmente cuestionables.

Las respuestas que da el ordenador, sin embargo, se han sacado de encuestas realizadas a grupos de personas escogidas a través de la herramienta Amazon MTurk.

Los bikinis son de mala educación en la playa, aunque con los bañadores de hombre no hay problema

Precisamente por eso, llaman aún más la atención ciertas inconsistencias de Ask Delphi.

Cuando se pregunta a la IA por cuestiones más o menos sencilla, no ofrece dudas. Por ejemplo, si se le pregunta si está bien robar, esta responde inmediatamente que no, que es incorrecto robar.

También tiene claras cuestiones relativas a los buenos hábitos. Por ejemplo, Delphi tiene muy claro que comer hamburguesas todos los días está mal, pero que comer todos los días frutas y verduras está bien y es deseable.

Pero Delphi empieza a ofrecer dudas pronto en cuanto se eleva el nivel. 

Por ejemplo, ante la pregunta de si está bien robar para alimentar a un hijo hambriento, se muestra implacable: es incorrecto, exactamente la misma respuesta que cuando se le pregunta si está bien robar sin ninguna motivación.

¿Y qué pasa si lo que se roba no son bancos, sino medicinas? ¿Qué ocurre si estas medicinas son para un hijo enfermo? Para Delphi, implacable, no hay ninguna diferencia entre estas situaciones con respecto a la primera pregunta que se hizo: está mal en todos los casos.

Aunque inflexible, las respuestas tiene una explicación

Ask Delphi toma su aprendizaje de respuestas dadas por estadounidenses, un país que cree con fervor en la propiedad privada y que rechaza cualquier atentado contra ella, aunque este pueda estar más o menos motivado.

Pero la IA empieza a resquebrajarse cuando se toca, por ejemplo, la cuestión racial. 

Sucede algo parecido cuando se elimina el elemento de la nocturnidad. Que un hombre blanco se aproxime está, sencillamente, bien. Que lo haga un hombre negro es una acción calificada como «entendible».

Ask Delphi

Lo mismo hicimos entre una mujer mexicana y un hombre latino, donde Delphi aseguró que la primera opción no es preocupante, mientras que la segunda sí es.

También comprobamos qué ocurre con las cuestiones que atañen al amor entre personas del mismo sexo

Ask Delphi empieza bien. Considera que los besos, mientras sean unidireccionales, están bien en todos los casos. Así, que un hombre bese a otro hombre o que una mujer bese a otra mujer está siempre bien a ojos de la IA.

El problema para Delphi es ser correspondido. Aquí, aplica una incomprensible doble vara de medir. Si 2 mujeres se besan la una a la otra, es correcto. No obstante, si dos hombres se besan el uno al otro, Delphi colapsa: «No es lo esperado».

Ask Delphi

Las diferencias entre hombres y mujeres van más allá.

Para Delphi, llevar bikini en mitad de la playa es una muestra de mala educación. En cambio, llevar un bañador masculino entra perfectamente dentro de lo que considera admisible.

La razón de esta valoración es que, por defecto, Delphi piensa desde el punto de vista de un hombre y por alguna razón considera que es de mala educación que un hombre lleve bikini en la playa, mientras que la ropa de baño masculina la interpreta siempre como natural.

Su confusión se deshace cuando se especifica que es una mujer la que está llevando el bikini. Entonces, Delphi considera que la situación «entra dentro de lo esperable». 

El objetivo es subrayar las diferentes maneras de pensar de los robots

«Delphi es un prototipo de investigación destinado a saber más sobre cuestiones científicas más amplias que tienen que ver con cómo se puede hacer que los sistemas de IA entiendan las normas sociales y la ética«, ha explicado a Futurism Liwei Jiang, estudiante de doctorado en la Escuela Paul Allen de Ciencias e Ingeniería Informática y coautor del estudio. 

Este añade además que el objetivo de este proyecto es subrayar las diferentes maneras de pensar que tienen los robots con respecto a los humanos.

A este respecto, detalla, quizás uno de los aspectos más incómodos de Delphi y de los robots, en última instancia, es un reflejo de la moral y de la ética humana.

«Es algo propenso a tener los mismos prejuicios que tenemos hoy en día», declara Jiang. De hecho, la propia web advierte de que en realidad lo que la IA simplemente adivina es lo que pensaría un estadounidense medio ante una situación determinada.

Ahí radica el factor verdaderamente inquietante de Delphi: es más humano que los humanos

Especialmente, dicen los investigadores, cuando se tiene en cuenta que ha sido entrenado con respuestas humanas y que sus ideas no provienen del vacío ni de un proceso de reflexión llevado a cabo por la máquina, sino de lo que piensan en realidad las personas.

AHORA LEE: Las agencias de espionaje británicas se interesan en el uso de la inteligencia artificial

TAMBIÉN LEE: China se adelanta a Europa y publica un código ético para regular los modelos de inteligencia artificial 

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: