• Las nuevas políticas de Facebook impiden que los usuarios suban videos modificados mediante inteligencia artificial, en un intento de frenar las deepfake. 
  • Sin embargo, estas medidas dejan fuera el contenido satírico, lo que da pie a que actores maliciosos suban material malicioso y lo clasifiquen como entretenimiento.
  • Posiblemente, Facebook probará su política en el proceso electoral 2020 de Estados Unidos, tras lo que hará ajustes. 

Mariel Soto Reyes

Facebook lanzó una nueva política que, en teoría, prohíbe la gran mayoría de contenido deepfake de aparecer en la plataforma, de acuerdo con una publicación en el blog de la compañía.

Bajo esta nueva política, va en contra de las guías de comunidad de Facebook para usuarios el publicar videos que han sido manipulados con técnicas de Inteligencia Artificial (IA) o que han sido alterados de tal manera que pueden engañar a la persona “promedio”. La política provee excepciones para ediciones de claridad y cualidad, así como para una categoría controversial de contenido: parodias y sátiras. Previamente, Facebook no contaba con una política específica para lidiar con contenido deepfake.

La política de Facebook se centra en frenar deepfakes que tienen el potencial de fomentar desinformación, pero su decisión de dejar fuera al contenido satírico y de parodia podría perjudicar ese objetivo. Al crear esta excepción, Facebook deja lugar para que malos actores exploten la política argumentando que cualquier contenido malicioso es una broma.

Por ejemplo, el Washington Post apuntó que la nueva política de Facebook no necesariamente hubiese aplicado al infame deepfake de la congresista estadounidense Nancy Pelosi, que derivó en un escándalo de alto nivel. Si el objetivo de Facebook es prevenir el esparcimiento de la desinformación, esta política podría fallar en la práctica, ya que aún permitiría la difusión de videos realistas que muestran a figuras públicas diciendo cosas que nunca dijeron realmente. Una política más amplia que prohíba por completo deepfakes sobre contenido político sería más efectiva.

En general, este es otro ejemplo de cómo Facebook intenta conservar una línea de permitir la libertad de expresión personal mientras mantiene su plataforma libre de desinformación.

Facebook está marcando líneas más claras en cuanto a la moderación de contenido antes de las elecciones estadounidenses de 2020, pero estas líneas podrían ser más útiles como defensa en contra de escrutinios futuros que cómo verdaderas políticas. De hecho, Monika Bickert, VP del manejo de políticas globales de Facebook— y quien también escribió la publicación del blog — testificó frente a la Cámara de Representantes de Estados Unidos en una audiencia titulada “Estadounidenses en riesgo: manipulación y engaño en la Era Digital.” Como tal, el lanzamiento de esta política es, sin duda, estratégico: la compañía muy probablemente quiere respaldarse en el argumento de que cuenta con políticas que enfrentan la desinformación.

Facebook está aplicando una estrategia similar más allá de los deepfakes, tomando en cuenta la Junta de Supervisión para la moderación de contenido que creó en 2019 y a la que le delegará las decisiones más difíciles — proveyendo así una base “imparcial”. Sin embargo, Facebook se rehúsa a corroborar la veracidad de anuncios políticos en su plataforma, ya que cree que su responsabilidad no es certificar que el contenido en su plataforma sea cierto, sino mantener la libertad de expresión.

Es probable que la compañía está viendo el ciclo de elecciones de 2020 como una oportunidad para probar este enfoque y revisará su estrategia después de la elección para asegurar que esta estrategia haga sentido a largo plazo.

Traducido de Business Insider.