• ESET, compañía líder en detección de amenazas, advirtió que, aunque el futuro es prometedor para cada uno de los campos donde la inteligencia artificial puede ser aplicada, existen riesgos vinculados a la adopción de esta tecnología y desafíos que se enfrentan al usarla.
  • Cuidar la moderación de contenidos, poner atención a leyes de derechos de autor y proteger la privacidad de los usuarios son algunos de estos desafíos.
  • Una de las estrategias para abordar estos desafíos es el desarrollo de modelos de filtrado y moderación que pueden eliminar contenido inapropiado, engañosos o sesgos generado por IA.
  • ¡Nos vemos en TikTok!

Aunque la inteligencia artificial ha beneficiado a empresas y otras industrias, se considera que tiene algunos errores que pueden convertirse en un riesgo en cuanto al contenido que genera; para 2024, es necesario abordar estos desafíos al usar inteligencia artificial (IA). 

ESET, compañía dedicada en detectar amenazas cibernéticas, advierte que, aunque el futuro es prometedor para cada uno de los campos donde la IA puede ser aplicada, existen riesgos vinculados a la adopción de esta tecnología.

«Estos riesgos incluyen desde la moderación del contenido que suben los usuarios, hasta aquel engañoso, sesgado o perjudicial para evitar la manipulación de información.”, dice David González Cuautle, Investigador de Seguridad Informática de ESET Latinoamérica.

Desafíos en la inteligencia artificial generativa

1. Cuidar la moderación de contenidos 

Existen violaciones a los derechos de autor, aún cuando las redes sociales, sitios web o aplicaciones cuenten con términos de uso, normas de comunidad y políticas de privacidad.

2. Poner atención a las leyes de derechos de autor e imagen

En mayo de 2023, se reprodujo contenido sin consentimiento de actores y actrices al utilizar su rostro y voz para fines comerciales. Los derechos de autor fueron ignorados por grandes compañías y se generó una enorme molestia; que fue uno de los desencadenantes de la Huelga de Actores y Guionistas.

3. Proteger la privacidad de sus usuarios

La inteligencia artificial se entrena con grandes volúmenes de datos, y puede tomarlos desde cualquier fuente pública, sin el consentimiento del titular. Según ESET, las plataformas, aplicaciones y redes sociales deberían apegarse al marco normativo sobre la privacidad de datos de cada país, en caso de existir; también es necesario seguir el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), que incluye una sección para la IA.

4. Generar soluciones éticas

Usuario pueden aprovechar a la inteligencia artificial para fines antiéticos, como la suplantación de la identidad (en voz, imagen o video), para crear perfiles falsos que se usan para fraudes, extorsiones, phishing o catfishing en plataformas y redes sociales.

5. Impedir la desinformación

Las prácticas de difusión de noticias falsas y la generación de datos y contenido históricamente incoherente es un tema que genera preocupación. Cuando el contenido engañoso se hace viral, llega a perjudicar la imagen de alguna persona, comunidad, país, gobierno o empresa, lo que puede generar confusión y sesgos.

ESET afirma que es necesario promover la educación pública sobre inteligencia artificial, sus riesgos, beneficios y desafíos para comprender cómo funcionan estos modelos.

Además, insta a desarrollar modelos de filtrado y moderación que pueden eliminar contenido inapropiado, engañoso o sesgos generado por la IA.

Otra acción importante es entrenar a los modelos de datos de manera ética, para reducir sesgos y generar contenido más equitativo. Además, asegura que implementar mecanismos de evaluación continua generará mayor contenido ético y de calidad.

AHORA LEE: Cada país necesita sus propios sistemas de inteligencia artificial, dice el CEO de Nvidia

TAMBIÉN LEE: Tres grandes tendencias de la inteligencia artificial para 2024, según Microsoft

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: