• La denunciante de Facebook, Frances Haugen, apareció en un evento con el exmoderador de Facebook, Daniel Motaung.
  • Haugen dijo que aunque Meta habla de la IA como una herramienta de moderación, es un instrumento demasiado contundente.
  • Motaung dijo que la AI no puede tomar las decisiones morales o éticas requeridas en la moderación de contenido.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos.

La inteligencia artificial no es lo suficientemente buena para abordar los problemas que enfrenta la moderación de contenido en Facebook, según la denunciante Frances Haugen.

Haugen apareció en un evento en Londres el martes por la noche con Daniel Motaung, un exmoderador de Facebook que está demandando a la compañía en Kenia acusándola de trata de personas.

Meta ha elogiado la eficacia de sus sistemas de inteligencia artificial en el pasado. Mark Zuckerberg, CEO de la compañía, dijo en una audiencia en el Congreso en marzo de 2021 que Meta confía en la IA para eliminar más del 95% del «contenido de discurso de odio«. En febrero de este año, Zuckerberg dijo que la compañía quiere llevar su IA a un «nivel humano» de inteligencia.

Pero según Haugen y Motaung, esta es una cortina de humo que oscurece el trabajo realizado por miles de moderadores humanos, algunos de los cuales sufren graves problemas de salud mental que, según dicen, se deben a su trabajo.

La IA no es tan inteligente como afirma Silicon Valley

Haugen dijo que la IA en este momento no es lo suficientemente inteligente como para interpretar los matices del habla humana.

Ella dijo que usar AI para la moderación significa que siempre hay una compensación entre tener un algoritmo autoritario que elimina contenido que no viola las políticas de contenido y tener un algoritmo que pierde instancias de dicho contenido.

«Esas IA solo pueden ser tan precisas», dijo. «Las personas que realmente trabajan en él lo llaman aprendizaje automático, porque no es inteligente».

«Es solo aprender inferencias, inferencias estadísticas a partir de los datos que se introducen».

Sus comentarios concuerdan con los de un exempleado de Facebook que dijo en una nota de despedida interna a finales de 2020: «La IA no nos salvará».

El enfoque de Meta en la IA se debe en parte al deseo de reducir costos, afirmó Haugen.

From left to right, TIME journalist Billy Perrigo, Facebook whistleblower Frances Haugen, Foxglove director Cori Crider, and ex-Facebook moderator Daniel Motaung, sit round a table on a stage.
De izquierda a derecha: el periodista de TIME Billy Perrigo, la denunciante de Facebook Frances Haugen, el director de Foxglove Cori Crider y el ex moderador de Facebook Daniel Motaung Sheridan Flynn

«Facebook siempre está tratando de… tener más trabajo, hecho por computadoras, por IA, y menos hecho por personas», dijo Haugen, diciendo que esto se debe a que emplear moderadores humanos es más costoso que usar sistemas automatizados.

Cuando los sistemas de inteligencia artificial de Facebook no pueden emitir un juicio sobre un contenido, depende de los moderadores humanos revisarlo.

Motaung, quien trabajó como moderador de Facebook contratado en Nairobi hasta que fue despedido en 2019, dijo que no cree que los sistemas de inteligencia artificial puedan hacer el mismo trabajo que un ser humano.

“El elemento de lo que es moral, lo que es ético, entra, y la inteligencia artificial no puede hacer eso”, dijo Motaung.

Los moderadores humanos pagan el precio con su salud mental

Para moderadores como Motaung, el trabajo puede afectar gravemente su salud mental.

Motaung dijo en su demanda contra Meta que trabajar como moderador y ver contenido gráfico e inquietante todo el día resultó en que sufriera estrés post traumático.

Motaung dijo el martes que el trabajo lo dejó «quebrado».

Durante el evento del martes, tanto Motaung como Haugen dijeron que Meta podría generar cambios para que el trabajo de sus moderadores de contenido sea más seguro.

«Incluso decir: ‘Oye, estás viendo cosas que te traumatizan todos los días. Te vamos a pagar por una semana completa, pero solo tienes que venir cada dos días… eso es una verdadera intervención». dijo Haugen.

«Eso reduciría radicalmente el daño, y eligen no gastar ni siquiera esa pequeña cantidad de dinero», agregó.

Motaung y Haugen dijeron que Meta subcontrata su trabajo de moderación para limitar la responsabilidad.

Alrededor de 15,000 personas en todo el mundo trabajan como moderadores de Facebook e Instagram, según un informe de 2020 del Centro Stern de Empresas y Derechos Humanos de la Universidad de Nueva York. La mayoría son empleados por contratistas externos.

En un mensaje a Mark Zuckerberg, Motaung dijo que quiere saber si el CEO intervendría para ayudar a los moderadores. «Ve y ocúpate de eso. Haz lo correcto», dijo Motaung.

Meta no respondió de inmediato cuando Insider se puso en contacto para pedir comentarios.

AHORA LEE: El jefe de inteligencia artificial de Meta dejará la empresa en medio de una reorganización

TAMBIÉN LEE: 88% de los CEOs de Latinoamérica reconoce la importancia de una inteligencia artificial ética para su negocio, revela estudio de IBM

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramTwitterLinkedIn, TikTok y YouTube

AHORA VE: