• Un hombre ha utilizado la inteligencia artificial para crear un chatbot que imita a su difunta prometida.
  • La innovadora tecnología de IA fue diseñada por el grupo de investigación OpenAI de Elon Musk.
  • OpenAI lleva tiempo advirtiendo de que la tecnología podría utilizarse para campañas masivas de desinformación.

Tras el fallecimiento de la prometida de Joshua Barbeau, este habló con ella durante meses. O, mejor dicho, habló con un chatbot hecho con Inteligencia Artificial (IA) para sonar exactamente como ella.

En un reportaje para el San Francisco Chronicle, Barbeau detalló cómo Project December recreó la experiencia de hablar con su difunta prometida.

Todo lo que tuvo que hacer fue introducir mensajes antiguos y dar algo de información de fondo, de repente el modelo pudo emular a su pareja con una precisión asombrosa.

Puede parecer un milagro (o un episodio de «Black Mirror»), pero los creadores de la inteligencia artificial advirtieron de que esa misma tecnología podría utilizarse para alimentar campañas masivas de desinformación.

Así es como funciona esta inteligencia artificial

Project December funciona con GPT-3, un modelo de IA diseñado por el grupo de investigación OpenAI, respaldado por Elon Musk.

Mediante el consumo de conjuntos de datos masivos de texto creado por humanos —los hilos de Reddit fueron especialmente útiles— GPT-3 puede imitar la escritura humana.

Produce todo, desde documentos académicos hasta cartas de antiguos amantes.

Es una de las programaciones de IA basadas en el lenguaje más sofisticadas y peligrosas hasta la fecha.

Cuando OpenAI publicó GPT-2, el predecesor de GPT-3, el grupo escribió que podía utilizarse de «forma maliciosa». La organización anticipó que los malos actores que utilizaran la tecnología podrían automatizar «contenidos abusivos o falsos en las redes sociales».

Así como «generar artículos de noticias engañosos» o «suplantar la identidad de otros en línea».

La GPT-2 podría utilizarse para «desbloquear nuevas capacidades aún no previstas para estos actores», escribió el grupo.

OpenAI escalonó la publicación de la GPT-2, y aún restringe el acceso a la GPT-3, de mayor calidad, para «dar tiempo» a la gente a conocer las «implicaciones sociales» de esta tecnología.

La desinformación ya es generalizada en las redes sociales, incluso cuando la GPT-3 no está ampliamente disponible. Un nuevo estudio reveló que el algoritmo de YouTube aún fomenta la desinformación.

La organización Center for Countering Digital Hate identificó recientemente a 12 personas responsables de compartir 65% de las teorías conspirativas sobre el Covid-19 en redes sociales.

Apodados la «Docena de la desinformación», tienen millones de seguidores.

A medida que la IA sigue desarrollándose, Oren Etzioni, director general del Allen Institute, un grupo de investigación en biociencia sin ánimo de lucro, declaró anteriormente a Insider que cada vez será más difícil saber qué es real.

La pregunta «¿Es este texto, imagen, vídeo o correo electrónico auténtico?» va a ser cada vez más difícil de responder basándose únicamente en el contenido», dijo.

AHORA LEE: Así funcionará el sistema que Apple empleará para encontrar imágenes de abuso infantil en iCloud

TAMBIÉN LEE: Mark Zuckerberg quiere expandir Facebook al metaverso, pero nadie está realmente seguro de lo que eso significa

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter