• DeepMind cree que la tecnología de inteligencia artificial no debe ser controlada por una sola corporación, como Google, y debe tener fines éticos.
  • Hassabis, CEO de DeepMind, propuso un "instituto mundial" de inteligencia artificial.
  • Tal organismo podría estar bajo la jurisdicción de la Organización de las Naciones Unidas,

Durante un tiempo, algunos empleados de DeepMind lo llamaron «Sandía»; más tarde, los ejecutivos lo llamaron «Mario». Ambos nombres clave significaban lo mismo: un plan secreto para separarse de la empresa matriz Google.

De hecho, DeepMind temía que Google algún día pudiera hacer un mal uso de su tecnología; y los ejecutivos trabajaron para distanciar a la firma de inteligencia artificial de su propietario durante años. Esto lo dijeron nueve empleados actuales y anteriores que estaban directamente familiarizados con los planes. 

Incluso buscaron un estatus legal independiente que distanciaría su trabajo del de Google, dijeron las fuentes. Estas pidieron no ser identificadas.

Una tensión fundamental en DeepMind fue que vendió el negocio a personas en las que no confiaba, dijo un exempleado. «Todo lo que pasó desde ese momento ha sido que ellos cuestionaron esa decisión», agregó esta persona. 

Los esfuerzos para separar DeepMind de Google terminaron en abril sin un acuerdo, informó The Wall Street Journal. Las negociaciones de un año, junto con las recientes reorganizaciones dentro de la división de inteligencia artificial de Google, plantean dudas sobre si el gigante de las búsquedas puede mantener el control sobre una tecnología tan crucial para su futuro.

«La estrecha asociación de DeepMind con Google y Alphabet desde la adquisición ha sido extraordinariamente exitosa; con su apoyo, hemos logrado avances de investigación que transformaron el campo de la inteligencia artificial. Y ahora están descubriendo algunas de las preguntas más importantes de la ciencia», dijo un portavoz de DeepMind en un declaración. 

«A lo largo de los años, por supuesto, hemos discutido y explorado diferentes estructuras dentro del grupo Alphabet para encontrar la manera óptima de apoyar nuestra misión de investigación a largo plazo. No podríamos estar más orgullosos de cumplir esta increíble misión; sin dejar de tener tanto la autonomía operativa como el apoyo total de Alphabet «.

La «A» significa alfabetización

Cuando Google adquirió DeepMind en 2014, el acuerdo se consideró beneficioso para todos. Google obtuvo una organización líder en investigación de inteligencia artificial (IA); y DeepMind, en Londres, obtuvo respaldo financiero para su búsqueda de construir IA que pueda aprender diferentes tareas como lo hacen los humanos; esta es conocida como inteligencia artificial general (AGI) .

Pero pronto surgieron tensiones. Algunos empleados describieron un conflicto cultural entre investigadores que se veían a sí mismos como académicos y la burocracia a veces inflada de Google. Otros dijeron que el personal estaba inmediatamente preocupado por poner el trabajo de DeepMind bajo el control de un gigante tecnológico. Durante un tiempo, se alentó a algunos empleados a comunicarse utilizando aplicaciones de mensajería encriptada por temor a que Google espiara su trabajo.

En un momento, los ejecutivos de DeepMind descubrieron que el trabajo publicado por el grupo de investigación de inteligencia artificial interna de Google se parecía a parte del código base de DeepMind sin citarlo, dijo una persona familiarizada con la situación. «Eso molestó a Demis», agregó la persona, refiriéndose a Demis Hassabis, CEO de DeepMind. «Esa fue una de las razones por las que DeepMind comenzó a proteger más su código».

Después de que Google se reestructuró como Alphabet en 2015 —para dar mayor libertad a los proyectos más riesgosos—, el liderazgo de DeepMind comenzó a buscar un nuevo estado como una división separada bajo Alphabet, con su propia declaración de pérdidas y ganancias, dijo The Information.

Los empleados de DeepMind no estaban cómodos con el seguimiento de Google a su trabajo

DeepMind ya disfrutaba de un alto nivel de independencia operativa dentro de Alphabet; pero el grupo también quería autonomía legal. Y le preocupaba el mal uso de su tecnología, sobre todo si DeepMind llegaba a lograr AGI alguna vez.

Internamente, la gente comenzó a referirse al plan para ganar más autonomía como «Sandía», dijeron dos ex empleados. Posteriormente, el proyecto fue nombrado formalmente «Mario» entre los líderes de DeepMind.

«Su perspectiva es que su tecnología sería demasiado poderosa para ser propiedad de una empresa privada; por lo que debe estar alojada en alguna otra entidad legal separada del interés de los accionistas», dijo un ex empleado cercano a las negociaciones de Alphabet. «Lo enmarcaron como ‘esto es mejor para la sociedad'».

deepmind google
Demis Hassabis, CEO y cofundador de DeepMind Technologies, en la Conferencia DLD en Munich / Getty Images.

En 2017, durante un retiro de la compañía en Macdonald Aviemore Resort, en Escocia, el liderazgo de DeepMind reveló a los empleados su plan de separarse de Google, dijeron dos personas que estaban presentes.

En ese momento, el liderazgo dijo internamente que la empresa planeaba convertirse en una «empresa de interés global», dijeron tres personas familiarizadas con el asunto. El título, no un estatus legal oficial, reflejaría las ramificaciones mundiales que DeepMind creía que tendría su tecnología.

Posteriormente, en negociaciones con Google, DeepMind buscó un estatus de empresa limitada por garantía; una estructura corporativa sin accionistas que a veces usan las organizaciones sin fines de lucro. El acuerdo era que Alphabet continuaría financiando a la firma. A cambio, obtendría una licencia exclusiva para su tecnología, dijeron dos personas involucradas en las discusiones. 

Había una condición: Alphabet no podía cruzar ciertas líneas rojas éticas, como el uso de la tecnología DeepMind para armas militares o vigilancia. 

En 2019, DeepMind registró una nueva empresa llamada DeepMind Labs Limited, así como una nueva sociedad de cartera, según mostraron los documentos presentados ante la Companies House del Reino Unido. Esto se hizo en previsión de una separación de Google, dijeron dos ex empleados involucrados en esos registros.

Las negociaciones con Google atravesaron altibajos a lo largo de los años, pero ganaron un nuevo impulso en 2020, dijo una fuente. Un equipo senior dentro de DeepMind tuvo reuniones con abogados externos y Google para discutir los detalles de lo que esta nueva formación teórica podría significar para las dos compañías; incluidos detalles como:

  • Si compartirían una base de código
  • Métricas de rendimiento interno y
  • Gastos de software, dijeron dos fuentes.
deepmind google
Sergey Brin (izquierda) y Larry Page han pasado los últimos años alejándose de la vista del público / Getty Images.

El liderazgo de DeepMind y Google entraron en conflicto por la ética en IA

Desde el principio, DeepMind pensó en posibles dilemas éticos derivados de su acuerdo con Google. Antes de que se cerrara la adquisición de 2014, ambas empresas firmaron un «Acuerdo de revisión de ética y seguridad»; este evitaría que Google tomara el control de la tecnología de DeepMind, informó The Economist en 2019. Parte del acuerdo incluía la creación de una junta de ética que supervisaría la investigación. 

A pesar de años de discusiones internas sobre quién debería formar parte de esta junta y de vagas promesas a la prensa, este grupo «nunca existió, nunca se reunió y nunca resolvió ningún problema de ética», dijo un exempleado cercano a esas discusiones. Un portavoz de DeepMind se negó a comentar.

Pero DeepMind persiguió una idea diferente: una junta de revisión independiente en caso de separarse de Google, dijeron tres personas familiarizadas con los planes. El directorio estaría integrado por ejecutivos de Google y DeepMind, así como por terceros. El ex presidente de Estados Unidos, Barack Obama, era alguien a quien DeepMind quería abordar para esta junta, dijo una persona que vio una lista corta de candidatos.

También, DeepMind creó una carta ética que incluía prohibiciones sobre el uso de su tecnología para armas militares o vigilancia; así como una regla de que su tecnología debe usarse de manera que beneficie a la sociedad. En 2017, DeepMind inició una unidad centrada en la investigación ética de la IA compuesta por empleados y becarios de investigación externos. Su objetivo declarado era «allanar el camino para una IA verdaderamente beneficiosa y responsable». 

Unos meses después, se dio a conocer un controvertido contrato entre Google y el Pentágono. Esto provocó un alboroto interno en el que los empleados acusaron a Google de meterse en «el negocio de la guerra». 

El contrato del Pentágono de Google, conocido como Proyecto Maven, «hizo sonar las alarmas» dentro de DeepMind, dijo un exempleado. 

Posteriormente, Google publicó un conjunto de principios para gobernar su trabajo en inteligencia artificial. Las pautas —que eran similares a la carta ética que DeepMind ya había establecido internamente—, irritaron a algunos de los altos directivos de DeepMind, dijeron dos exempleados.

deepmind google
Sundar Pichai, director ejecutivo de Google / Reuters.

¿Quién controlará la IA? Google y DeepMind todavía miden fuerzas

En abril, Hassabis les dijo a los empleados en una reunión general que las negociaciones para separarse de Google habían terminado. DeepMind mantendría su estado actual dentro de Alphabet. El trabajo futuro de DeepMind sería supervisado por el Consejo de Revisión de Tecnología Avanzada de Google, que incluye a dos ejecutivos de DeepMind, el jefe de inteligencia artificial de Google, Jeff Dean, y el vicepresidente senior legal Kent Walker.

Pero la batalla de años del grupo para lograr una mayor independencia plantea interrogantes sobre su futuro dentro de Google.

El compromiso de Google con la investigación de la IA también se ha cuestionado, después de que la empresa expulsó a dos de sus investigadores de ética de IA más importantes. Eso provocó una reacción violenta en la industria y sembró dudas sobre si podría permitir una investigación verdaderamente independiente.

Ali Alkhatib, miembro del Center for Applied Data Ethics, dijo a Insider que se «necesitaba desesperadamente» más responsabilidad pública para regular la búsqueda de IA por parte de las grandes empresas de tecnología. 

Para Google, su inversión en DeepMind puede comenzar a dar sus frutos. A fines del año pasado, DeepMind anunció un gran avance para ayudar a los científicos a comprender mejor el comportamiento de las proteínas microscópicas; estas tienen el potencial de revolucionar el descubrimiento de fármacos.

En cuanto a DeepMind, Hassabis se aferra a la creencia de que la tecnología de IA no debe ser controlada por una sola corporación. Hablando en el Foro de IA Responsable de Tortoise en junio, propuso un «instituto mundial» de IA. Tal organismo podría estar bajo la jurisdicción de la Organización de las Naciones Unidas, teorizó Hassabis; y podría estar lleno de los mejores investigadores en el campo. 

«Es mucho más fuerte si lideras con el ejemplo», le dijo a la audiencia, «y espero que DeepMind pueda ser parte de ese modelo a seguir para la industria».

AHORA LEE: La campaña #AppleToo de empleados de Apple recibió ‘cientos’ de quejas del personal minorista

TAMBIÉN LEE: Apple flexibiliza reglas de la App Store para Netflix, Prime Video, Kindle y otras aplicaciones

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter YouTube

AHORA VE: