• Richard Benjamins, responsable de IA y Datos de Telefónica, apuesta por un desarrollo ético de la IA y por una estrategia de inversión en nuevas tecnologías responsable.
  • Dijo que la IA en sí no es ni buena ni mala, quienes la llevaremos por un lado u otro son los que están detrás, creándola y alimentándola.
  • Benjamins explica que más allá de cualquier complicado debate, la IA será lo que sus dueños quieran que sea.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos. 

¿Debe una máquina tener voto en la decisión de que un humano invierta en otra máquina? Para Richard Benjamins, jefe de IA y Datos en Telefónica debe imperar la cautela. «La IA puede entrar en casi cualquier cosa, pero con cuidado», dijo. 

Benjamins dio una charla en el South Summit de Madrid, un encuentro emprendedores y startups del mundo.

«Cada vez más inversores se preguntan, como yo, por los principios éticos a la hora de invertir en una empresa. Tenemos un principio de inversión responsable, la declaración de las Naciones Unidas», ha comenzado explicando. 

«La IA nunca es perfecta, por lo que siempre es esencial comprobar la cantidad de daños colaterales que podrían producirse si algo sale mal. Antes de lanzarse, hay que pensar en prevenir esos posibles daños».

Benjamins explica que más allá de cualquier complicado debate, la IA será lo que sus dueños quieran que sea.

Empresas como la OpenAI, de Sam Altman, parecen empeñadas en hablar solo de las bondades de las próximas evoluciones de ChatGPT; sin embargo, hay quien por ahora prefiere centrar la atención, por ejemplo, en los inevitables sesgos que muestran unas máquinas alimentadas muchas veces con lo mejor y lo peor de Internet.

«El uso responsable de la tecnología en general es algo deseable. Por supuesto que es posible hacerlo, pero hay que tener claro que es una cuestión de mentalidad. Las empresas no deberíamos limitarnos a buscar beneficios económicos, sino que deberíamos intentar mejorar la sociedad». 

En ese sentido, Telefónica, ha explicado Benjamins, está utilizando la IA para mejorar su relación con los clientes y optimizar el negocio. Eso no está impidiendo que se esté utilizando en otros ámbitos: «Estamos ayudando con la IA en muchos sectores diferentes», ha apuntado Benjamins.

«La IA no tiene intención, es la gente que hay detrás»

Pero, ¿cuál es la clave del equilibrio en el desarrollo de la IA? ¿Cómo conseguir que una tecnología así se desarrolle y al mismo tiempo mejore la vida de sus usuarios sin contrapartidas, sin efectos secundarios indeseados?

Para Benjamins, todo parte de una pregunta: «¿Qué pasa si esto que estoy haciendo sale mal? ¿Cuál es el daño que hago? Hay que intentar minimizar estos riesgos. Ese es el verdadero desarrollo ético de la IA».

En opinión del experto, de hecho, el desarrollo ético de una nueva tecnología y la gestión de sus potenciales riesgos no es algo ajeno a la humanidad. «Internet trajo riesgos como la adicción a las redes sociales, las páginas que extienden ideas peligrosas por ejemplo en torno a la comida y que fomentan la anorexia… Pero tenemos que tener claro que no es la tecnología, somos las personas», dijo.

Para Benjamins, un límite razonable pueden ser los derechos humanos. 

«Nosotros en 2018 ya fuimos muy claros con respecto a lo positivo que podía traer la IA, pero también éramos conscientes de lo negativo. Hay que explicarlo y ser transparentes cuando sea necesario. La responsabilidad de un producto se debe determinar desde el diseño, no es algo que se pueda decidir a posteriori», ha argumentado Benjamins.

AHORA LEE: Un exejecutivo de Google advirtió que el peligro de la inteligencia artificial es ‘más grande que el cambio climático’

TAMBIÉN LEE: La inteligencia artificial supone un riesgo de «extinción» para la humanidad, señalan expertos

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: