• Una pareja en Canadá perdió 21,000 dólares a un estafador que decía ser su hijo.
  • Benjamin Perkin le dijo a The Washington Post que sus padres pensaron que una voz generada por inteligencia artificial era él.
  • El auge de la IA está facilitando que los estafadores hagan creer a las personas que están hablando con sus seres queridos.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Una pareja en Canadá fue estafada y perdió 21,000 dólares después de recibir una llamada de un «abogado» que decía que su hijo estaba en la cárcel por matar a un diplomático en un accidente automovilístico. La estafa fue posible gracias a una herramienta de inteligencia artificial.

Benjamin Perkin le dijo a The Washington Post que el estafador que llamó a sus padrea puso una voz generada por inteligencia artificial que sonaba como él. El presunto abogado volvió a llamar a sus padres después de la llamada inicial y les dijo que Perkin necesitaba 21,000 dólares para los honorarios legales antes de ir a la corte.

Perkin le dijo al Post que la voz era «lo suficientemente parecida como para que mis padres realmente creyeran que hablaron conmigo».

Sus padres recolectaron el efectivo y enviaron dinero al estafador a través de Bitcoin, dijo Perkin; sin embargo, luego admitieron que pensaron que la llamada telefónica sonó extraña. Se dieron cuenta de que habían sido estafados después de que Perkin llamara más tarde esa noche.

Perkin no respondió de inmediato a un contacto de Insider para discutir lo que sucedió.

Perkin le dijo al Post que su familia presentó un informe policial ante las autoridades canadienses; sin embargos, dijo que «el dinero se fue. No hay seguro. No hay forma de recuperarlo».

The Post informó que aunque Perkin no sabe cómo los estafadores encontraron su voz, ha publicado videos sobre motos de nieve en YouTube.

Las herramientas de inteligencia artificial están dando lugar a más impostores

El surgimiento de herramientas de inteligencia artificial más potentes coincide con un aumento de las estafas que involucran a individuos que se hacen pasar por otras personas.

La estafa reportada con más frecuencia el año pasado fue la de impostores, según la Comisión Federal de Comercio (FTC, por sus siglas en inglés). La FTC vio informes de fraude de 2.4 millones de personas en 2022, que fue menor que en 2021. Sin embargo, la cantidad de dinero robado fue mayor, con 8,800 millones de dólares perdidos.

Las estafas que involucran tecnología de IA son anteriores a la aparición de ChatGPT y otros bots de IA que se están volviendo virales en este momento. En 2019, el director de una compañía de energía británica supuestamente transfirió más de 240,000 dólares a una cuenta en Hungría después de pensar que su jefe le pidió que lo hiciera en una llamada telefónica.

En enero, ElevenLabs, un laboratorio de investigación que explora la clonación de voz y las herramientas para el habla sintética, compartió un hilo de Twitter dirigido a las personas que «usan nuestra tecnología con fines maliciosos».

La startup tuiteó que estaba lanzando una herramienta para permitir que las personas verificaran si una muestra de audio se realizó con la tecnología de la empresa, y que su VoiceLab solo sería accesible pagando.

Un día antes de escribir el hilo, ElevenLabs tuiteó que estaba al tanto de «un número creciente de casos de uso indebido de clonación de voz», después de lanzar su plataforma Beta.

Motherboard descubrió que miembros 4chan estaban usando la tecnología de ElevenLabs para generar voces que suenan como celebridades para decir cosas racistas e inapropiadas.

La FTC creó una nueva Oficina de Tecnología para investigar los usos potenciales de la IA que las empresas prometen, y para ver si estas están mitigando los riesgos que pueden causar sus productos.

«También nos preocupa el riesgo de que los deepfakes y otros medios sintéticos basados en IA —que son cada vez más fáciles de crear y difundir— se utilicen para cometer fraude», dijo anteriormente a Insider la portavoz de la FTC, Juliana Gruenwald.

Gruenwald también le dijo a Insider que la FTC «ya ha visto un aumento asombroso en el fraude en las redes sociales».

«Las herramientas de IA que generan videos, fotos, audio y texto que parecen auténticos podrían impulsar esta tendencia, permitiendo a los estafadores un mayor alcance y velocidad», dijo.

AHORA LEE: Un artista japonés lanzará el primer manga creado con inteligencia artificial

TAMBIÉN LEE: La revolución de la inteligencia artificial llega a tu correo electrónico

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: