• Recibió una llamada de su hijo pidiéndole dinero tras tener un accidente de coche pero, por suerte, este padre se dio cuenta a tiempo de que se trataba de una estafa.
  • El avance de la inteligencia artificial ha permitido el desarrollo de herramientas que pueden clonar de forma casi exacta la voz de una persona.
  • Un estafador necesita solo 3 segundos de audio para clonar la voz de una persona, algo que puede obtenerse fácilmente de las redes sociales.
  • Síguenos en Threads.

Eddie Cumberbatch estaba sentado en su departamento en Chicago, en abril, cuando recibió una llamada de su papá, hablando de forma frenética. En cuanto oyó su voz, Eddie, un tiktoker de 19 años, supo que algo pasaba. Su padre le preguntó si estaba en casa y si todo estaba bien.

«Fue una forma muy rara de empezar la llamada», explica Eddie.

Cuando el joven respondió que estaba bien, en su casa, su papá le preguntó si había tenido un accidente de coche. Eddie se quedó perplejo: no solo no había tenido ningún accidente, sino que llevaba 6 meses sin conducir.

Su padre se mostró aliviado, pero Eddie estaba confuso: ¿por qué creía que había tenido un accidente de coche?

Su padre le explicó que alguien había llamado al teléfono de su casa desde un número extranjero.

Cuando su padre contestó, parecía que era la voz de Eddie el que estaba al teléfono.

Este «Eddie» decía que había tenido un accidente de coche y que necesitaba dinero inmediatamente. Afortunadamente para la familia su padre sospechó inmediatamente de la llamada.

Sabía que no era normal y que se trataba de una de las estafas más comunes pero con inteligencia artificial.

Las estafas más comunes involucran a la Inteligencia Artificial

La llamada era una de las estafas tradicionales pero una reproducción artificial de la voz de un conocido generada por inteligencia artificial.

Hacerse pasar por alguien para robar, no es nada nuevo. De hecho, es uno de los tipos de estafa más comunes. Y no solo no están remitiendo, sino que cada vez se reportan más casos.

En marzo, la Comisión Federal de Comercio de Estados Unidos (FTC) dijo que los estafadores estaban empezando a utilizar la IA para mejorar las estafas de «emergencia familiar».

En una encuesta realizada en abril por la empresa de software de seguridad McAfee entre adultos de 7 países, una cuarta parte de los encuestados declararon haber sufrido algún tipo de estafa por voz con inteligencia artificial. Además 1 de cada 10 dijo que fue víctima personalmente, mientras que 15% afirmó que le había ocurrido a algún conocido.

3 segundos de audio para clonar la voz de una persona y hacer las estafas con inteligencia artificial

Con solo un pequeño desembolso, unos minutos y conexión a internet, los delincuentes pueden convertir la IA en un arma para su beneficio personal.

El informe de McAfee descubrió que, en algunos casos, todo lo que un estafador necesitaba eran 3 segundos de audio para clonar la voz de una persona. Y con las redes sociales, es fácil encontrar un fragmento de la voz de alguien que luego se puede convertir en un arma. 

Aunque Eddie y su familia pudieron evitar la estafa, muchas víctimas no tienen tanta suerte.

Estafas supercargadas

Las estafas se presentan de muchas formas, pero suelen funcionar de la misma manera: un estafador se hace pasar por alguien en quien confías para convencerte de que le envíes dinero.

Según la web de la FTC, hay casos en los que se hacen pasar por parejas, funcionarios de Hacienda, técnicos informáticos y familiares.

La mayoría de las estafas se producen por teléfono, pero también pueden tener lugar en las redes sociales, a través de mensajes de texto o por correo electrónico.

En un caso traumático, Richard Mendelstein, ingeniero de software de Google, recibió una llamada de lo que parecía su hija Stella pidiendo ayuda a gritos. Le ordenaron que retirara 4,000 dólares en efectivo como pago del rescate.

Solo después de enviar el dinero a un centro de remesas de Ciudad de México se dio cuenta de que lo habían estafado y de que su hija estuvo a salvo en la escuela todo el tiempo.

El Washington Post publicó en marzo que a una pareja canadiense le habían estafado más de 20,000 dólares tras escuchar una voz generada por IA que se parecía a la de su hijo. En otro caso de este mismo año, unos estafadores clonaron la voz de una chica de 15 años y se hicieron pasar por secuestradores para intentar conseguir un rescate de un millón de dólares. 

Como creador online con más de 100,000 seguidores en TikTok, Eddie sabía que inevitablemente aparecerían cuentas falsas imitándolo. De hecho, el día anterior a la estafa, apareció en Instagram una cuenta falsa que empezó a mandar mensajes a sus familiares y amigos.

La inteligencia artificial está llevando las estafas al siguiente nivel

«Tomar mis fotos y subirlas a un perfil falso de Instagram es una cosa. Pero intentar clonar mi voz es algo realmente espeluznante de pensar, y me asustó», me dice Eddie.

El joven llamó al resto de su familia para advertirles de la estafa e hizo un video en TikTok sobre su experiencia para concienciar a la gente.

Es probable que la mayoría de nosotros pensemos que reconoceríamos las voces de nuestros seres queridos en un abrir y cerrar de ojos.

Pero McAfee descubrió que alrededor del 70% de los adultos encuestados carecían de confianza para distinguir entre voces clonadas y reales.

Otro estudio de 2019 descubrió que el cerebro no registra una diferencia significativa entre las voces reales y las generadas por ordenador. Los sujetos del estudio confundían grabaciones alteradas por software como reales el 58% de las veces, lo que deja mucho margen para el estafador.

Además, cada vez más personas ponen su voz real a disposición de los estafadores: según McAfee, el 53% de los adultos comparte semanalmente sus datos de voz en internet.

45% de los encuestados por McAfee dijeron que responderían a un mensaje de voz o nota de voz que sonara como su amigo o ser querido, especialmente si parecía provenir de su pareja, padre o hijo.

McAfee también descubrió que más de un tercio de las víctimas perdieron más de 1,000 dólares en estafas con IA, y 7% más de 5,000 dólares.

La FTC informó que las víctimas de este tipo de estafas han perdido una media de 750 dólares en el primer trimestre de 2023.

La tecnología que hace posible estas estafas existe desde hace tiempo, cada vez es mejor, más barata y más accesible

«Los ciberdelincuentes son capaces de utilizar IA generativa para voces falsas y deepfakes mucho más sofisticados que antes», añade el director de tecnología de McAfee, Steve Grobman.

Grobman añade que los ciberdelincuentes son similares a los empresarios: buscan las formas más eficientes de hacer dinero.

«En el pasado, estas estafas eran muy lucrativas porque cuando funcionaban, reportaban grandes cantidades de dinero. Ahora, en lugar de tener que mantener un engaño durante 3 meses en una estafa romántica para conseguir 10,000 dólares, pueden crear un audio falso que se ejecuta en 10 minutos y obtener el mismo resultado, lo que resulta mucho más lucrativo», explica Grobman.

Pero ahora la IA se encarga de la mayor parte del trabajo

Las plataformas de audio con IA más conocidas, como Murf, Resemble y ElevenLabs, permiten a los usuarios crear voces realistas utilizando tecnología de texto a voz.

El delincuente carga un archivo de audio con la voz de alguien en una de estas plataformas, y esta construye un modelo de IA de la voz. Con un pequeño fragmento de audio, los estafadores pueden obtener una coincidencia de voz del 95%.

Entonces, el estafador puede teclear lo que quiera y la voz de la IA dirá lo que ha tecleado en tiempo real.

Una vez que han perpetrado su delito, los delincuentes son difíciles de atrapar

Las víctimas suelen disponer de poca información para que la policía se base en ella, y como los estafadores operan desde todo el mundo, los organismos encargados de hacer cumplir la ley se enfrentan a una serie de problemas logísticos y jurisdiccionales.

Con poca información y unos recursos policiales limitados, la mayoría de los casos quedan sin resolver. En el Reino Unido, por ejemplo, solo uno de cada 1,000 casos de fraude acaba en acusación.

¿Qué podemos hacer?

Sin embargo, Grobman cree que si se es consciente de que existen estas estafas, no hay por qué preocuparse especialmente.

Todo lo que tienes que hacer si recibes una de estas llamadas es hacer algunas preguntas que solo el ser querido al otro lado del teléfono sabría responder.

La FTC también ha recomendado que si un familiar dice que necesita dinero, se ponga esa llamada en espera e intente llamar a la persona para confirmar la historia.

Los expertos en seguridad recomiendan incluso establecer una palabra de seguridad con los seres queridos que sirva para distinguir entre una emergencia y una estafa.

AHORA LEE: Los hombres están usando inteligencia artificial para conseguir más citas en línea, revela estudio

TAMBIÉN LEE: Estos son los 3 mayores temores sobre la inteligencia artificial. ¿Realmente podrían pasar?

Descubre más historias en Business Insider México

Síguenos en Facebook, Google News, Instagram, LinkedIn, TikTok, Threads, Twitter y YouTube

AHORA ESCUCHA:

AHORA VE: