• La IA hace que sea más fácil que nunca difundir información errónea en las redes sociales.
  • Los expertos legales sostienen que un cambio real sólo puede ocurrir a través de nuevas leyes o de las propias empresas de redes sociales.
  • Un experto pidió modificar una ley de internet que protege a las empresas de redes sociales de la responsabilidad civil.
  • ¡Nos vemos en TikTok!

En la era de la inteligencia artificial (IA) generativa, el público es más susceptible que nunca a ser víctima de la desinformación en las redes sociales.

Es en las plataformas de redes sociales donde la desinformación prolifera. Casi se puede apostar a que cada vez que eventos importantes pasan a formar parte de la conversación pública, las falsedades digitales circulan rápidamente. Pensemos en la pandemia de covid-19 y en los ciclos electorales presidenciales de Estados Unidos de 2016 y 2020.

Los deepfakes no hacen más que exacerbar el problema y que sea más fácil que nunca difundir desinformación en las redes sociales.

Los expertos legales dijeron a Business Insider que la única manera real de combatir la desinformación en las redes sociales es mediante la creación de nuevas leyes; o bien, que las empresas de tecnología detrás de las plataformas aumenten voluntariamente su propia autorregulación.

El poder de la regulación

«La IA significa que no serán sólo palabras las que difundan información falsa en las redes sociales, sino videos, fotografías y grabaciones de audio», dijo Barbara McQuade, ex fiscal estadounidense y autora del libro Ataque desde adentro: Cómo la desinformación está saboteando a Estados Unidos.

McQuade, profesora de la facultad de derecho de la Universidad de Michigan, cree que es necesario que haya nuevas leyes para abordar este problema porque «se trata de una tecnología nueva que no existía anteriormente».

«Es posible que estemos alcanzando un punto de conciencia en el que la gente empieza a comprender el riesgo y el peligro que conlleva», dijo McQuade.

Una evaluación federal del Departamento de Seguridad Nacional de EU advirtió sobre las amenazas que representa la IA para las elecciones presidenciales estadounidenses de este año.

«A medida que avanza el ciclo electoral de 2024, las herramientas de inteligencia artificial generativa probablemente brinden a los actores de amenazas nacionales y extranjeros mayores oportunidades de interferencia al agravar eventos emergentes, interrumpir los procesos electorales o atacar la infraestructura electoral», dijo el análisis obtenido por ABC News.

Las empresas de redes sociales están protegidas de la responsabilidad civil según una ley estadounidense

Las redes sociales han estado en gran medida desreguladas desde su nacimiento hace casi tres décadas.

En Estados Unidos, los gigantes tecnológicos como Meta, X y TikTok están protegidos de la responsabilidad civil relacionada con el contenido publicado por sus usuarios y las prácticas de moderación de contenido de las empresas en virtud de la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996.

«Dice que no están sujetos a responsabilidad legal, que son inmunes», explicó McQuade. «Y eso probablemente tenía sentido en 1996, cuando el objetivo era fomentar la innovación y la inversión; sin embargo, aquí estamos casi 30 años después y hemos visto algunas de las consecuencias colaterales de este espacio no regulado».

Entonces, ¿cuál ha sido la lucha del gobierno estadounidense para abordar frontalmente el problema de la desinformación en las redes sociales? Según expertos legales, las preocupaciones sobre la Primera Enmienda, el rechazo de las grandes tecnologías y la voluntad política tienen algo que ver con esto.

Trabas constitucionales

«Es difícil promulgar una legislación; es difícil definir los términos de la desinformación y llegar a un acuerdo sobre cuál sería la intervención adecuada. Creo que es difícil elaborar algo que no tenga un problema con la Primera Enmienda», dijo Gautaum Hans, profesor de derecho y director asociado de la Clínica de la Primera Enmienda de la Universidad de Cornell.

«Cualquier tipo de regulación que apunte a al derecho de expresión tiene una barrera constitucional muy difícil, por lo que el problema es que habría que definir la desinformación o la información errónea de una manera que no esté cubierta por la Primera Enmienda», dijo Hans.

Hans dijo que cree que hay «un nerviosismo generalizado ante cualquier legislador o funcionario gubernamental que proponga algo que pueda considerarse orwelliano en su intento de crear una regulación del discurso protegido».

«Creo que la mayoría de los políticos son conscientes de que sería malo para su reputación ser vistos como represores del discurso», dijo.

Además, señaló Hans, «la existencia de información errónea tiene beneficios para ciertos actores políticos».

Hans dijo que cree que es más probable que los remedios a la desinformación en las redes sociales se encuentren a través de las prácticas privadas de las propias empresas de tecnología en lugar de a través del ámbito de la ley.

«Creo que es más probable que suceda y probablemente más efectivo a largo plazo, dados los problemas constitucionales de intervención legislativa o regulatoria», dijo.

La Sección 230 ha sido objeto de acalorados debates durante años

McQuade argumentó que sería necesario incentivar a las empresas de redes sociales para que refuercen su autorregulación en la lucha contra la desinformación.

«Simplemente creo que es necesario ejercer presión pública sobre ellos a través de los consumidores. Esto para que cambien su comportamiento mediante la legislación federal», dijo McQuade.

McQuade propuso modificar la Sección 230 para responsabilizar a las empresas de redes sociales en determinadas circunstancias.

«El mejor camino para regular las redes sociales y el contenido en línea podría ser comparar los procesos versus el contenido, porque el contenido es muy complicado en términos de las protecciones de la Primera Enmienda», dijo McQuade. «La regulación de algunos de los procesos podría incluir cosas como los algoritmos», agregó.

«Estoy sugiriendo que tal vez la Sección 230 podría modificarse para prever la responsabilidad civil; ya sabes, daños monetarios si las empresas de redes sociales no tomaron ciertas precauciones», dijo.

Esas precauciones, dijo McQuade, podrían estar relacionadas con la divulgación de algoritmos y cómo se utilizan los datos privados. Esto exige a los usuarios etiquetar el material generado por IA y la eliminación de bots, que «están ahí para amplificar información falsa».

«Así que creo que esa sería la forma de utilizar un garrote para lograr el cumplimiento exponiendo a las empresas de redes sociales a responsabilidad legal por el incumplimiento de ciertos términos», dijo McQuade.

La Sección 230 otorga demasiado poder a las compañías de redes sociales

Esto inevitablemente sería impugnado legalmente y «irían a los tribunales para ver si esas leyes se mantendrían; sin embargo, creo que eso es probablemente lo que se requeriría», dijo McQuade.

«La información es un recurso muy importante, especialmente en una democracia», dijo McQuade. «Y parece que todos deberían estar de acuerdo en que cuando hay desinformación, eso es un obstáculo para el buen gobierno».

La Sección 230 ha sido objeto de un intenso escrutinio a lo largo de los años por parte de políticos tanto republicanos como demócratas.

El expresidente Donald Trump y otros republicanos han argumentado que la ley otorga a las grandes tecnológicas demasiado poder para censurar las voces conservadoras. Por su parte, demócratas como el presidente Joe Biden han dicho que no hace lo suficiente para combatir el discurso de odio.

En un artículo de opinión del Wall Street Journal del año pasado, Biden insistió en los llamados a reformar la Sección 230.

«Necesitamos una acción bipartidista del Congreso para responsabilizar a las grandes tecnológicas», escribió Biden. «Hemos oído hablar mucho sobre la creación de comités. Es hora de seguir el ejemplo y hacer algo».

Las grandes tecnológicas, sin embargo, obtuvieron una gran victoria el año pasado cuando la Corte Suprema de EU se puso del lado de Twitter y Google en demandas que alegaban que «ayudaron e instigaron» ataques terroristas.

La decisión, redactada por jueces conservadores, quedó al margen de la lucha por la Sección 230.

Las principales empresas de redes sociales tienen sus propias políticas de desinformación

Muchas empresas importantes de redes sociales —incluidas Meta, TikTok y X— tienen sus propias políticas cuando se trata de abordar la desinformación.

Meta —propietaria de Facebook, Instagram y Threads— dice que elimina información errónea «cuando es probable que contribuya directamente al riesgo de daño físico inminente».

«También eliminamos contenidos que puedan contribuir directamente a interferir con el funcionamiento de los procesos políticos y ciertos medios manipulados altamente engañosos», dice Meta.

Meta dice que se centra en «frenar la propagación de engaños y desinformación viral» y exige a los usuarios que revelen, utilizando su «herramienta de divulgación de inteligencia artificial», cada vez que publiquen contenido con «video fotorrealista o audio que suene realista que haya sido creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen».

«También podemos añadir una etiqueta a determinado contenido creado o alterado digitalmente que crea un riesgo particularmente alto de engañar a las personas sobre un asunto de importancia pública», dice Meta.

En un «informe de amenazas adversas» de mayo de 2024 de Meta, la compañía dijo: «Hasta ahora, no hemos visto tácticas novedosas impulsadas por IA generativa que impidan nuestra capacidad de interrumpir las redes adversarias detrás de ellas».

Las medidas de las empresas de redes sociales no siempre son lo suficiente para frenar la desinformación

TikTok dice que no permite «información errónea dañina» en su plataforma y dice que tiene «políticas sólidas en torno a tipos específicos de información errónea, como información médica, sobre el cambio climático y electoral, así como contenido engañoso generado por inteligencia artificial, teorías de conspiración y información pública». Cuestiones de seguridad como desastres naturales».

X, antes Twitter, dice que los usuarios «no pueden compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y causar daño (‘medios engañosos’)».

«Además, podemos etiquetar publicaciones que contengan medios engañosos para ayudar a las personas a comprender su autenticidad y brindar contexto adicional», dice X.

Sin embargo, estas políticas no siempre son suficientes.

A principios de este año, imágenes gráficas de Taylor Swift generadas por IA se volvieron virales en X. De hecho, una publicación obtuvo 45 millones de visitas antes de que finalmente fuera eliminada 17 horas después.

X, propiedad de Elon Musk, bloqueó las búsquedas de la estrella del pop posteriormente.


AHORA LEE: TikTok etiquetará contenido de inteligencia artificial generado por distintas herramientas

TAMBIÉN LEE: Tuits generados por inteligencia artificial tienen mayor credibilidad que los escritos por humanos, según estudio

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: