La inteligencia artificial (IA) vino para facilitar la vida diaria, pero también para complicarla. Diferentes reportes de analistas de seguridad online están dando cuentas de que crecen los engaños en WhatsApp originados a partir de inteligencia artificial.
Con la nueva tecnología, los delincuentes realizan lo que antes ya podían lograr, pero en mucho menos tiempo, con lo que pueden responder más rápido a los avances y cambios de la ciberseguridad. “Prima la ley del menor esfuerzo y la velocidad para tener una herramienta lista lo más rápido posible”, analiza Martina López, investigadora de la compañía de seguridad digital ESET.
Por su espectacularidad, el más llamativo es el vishing, una técnica que permite imitar la voz de una persona a partir de modelos de IA. De este modo, un delincuente puede enviar un mensaje de voz por WhatsApp haciéndose pasar por un amigo o familiar. Pero además, utilizan inteligencia artificial para crear textos verosímiles sin el menor esfuerzo, para parecer que el mensaje llega desde una entidad bancaria o desde un contacto frecuente.
Hace unas semanas, se viralizó un video de un joven que muestra como a través de WhatsApp su madre le envía audios pidiéndole dinero. Pero en rigor no era su madre. Le habían copiado la voz a la mujer para hacerle creer a su hijo que ella necesitaba dinero.
Ante esta situación, el joven contesta que ya mismo le hacía la transferencia de dinero a la cuenta bancaria de siempre. Sin embargo, desde los audios le insisten que no lo haga porque no tiene la tarjeta para retirar el dinero de esa cuenta y le envían los datos de transferencia para otra persona, que supuestamente es una amiga de ella.
Luego, él comienza a sospechar porque aparecen en la voz errores de articulación en las sílabas de las palabras, con lo cual la estafa se desmorona.
El vishing es similar al phishing, pero con la voz. Es decir, hacerse pasar por otra persona, pero en vez de enviando un mail o chateando, hablando por WhatsApp. Además hay que tener en cuenta que este tipo de engaño hasta ahora no es muy difundido, con lo cual pocos están en alerta, y que los humanos asignamos un valor enorme a la voz, porque el reconocer el habla de una persona transmite confianza.
Encima los delincuentes suelen escudarse en que la comunicación se escucha mal porque están en un lugar con mala señal. Así es más fácil caer en el cuento del tío.
Hay herramientas de inteligencia artificial que pueden clonar una voz a partir de unas pocas frases, y tienen la ductilidad de los chatbots para generar un diálogo fluido si la víctima se escapa del guión.
Es decir: ahora se puede programar un chatbot para que insista siendo ameno, y hasta para mencionar cuestiones o datos que obtuvo previamente el atacante sobre la víctima. Hasta ChatGPT tiene modelos de generación de voces que parecen personas, y una capacidad para charlar entonando la voz que confundirían a cualquiera.
Con esta técnica se espera que el fraude político sea moneda corriente. Es que ya está todo dado para que lleguen mensajes de audio a los millones de argentinos que usan WhatsApp con la voz de un candidato diciendo algo que nunca diría.
Famosos estafados por WhatsApp
Pero esto no es todo. Más allá de la voz, también pueden clonar imágenes en movimiento. Y realizar videos realistas a partir de las instrucciones de un usuario, surgen nuevas modalidades delictivas.
La conductora Nati Jota denunció en sus redes sociales que suplantaron su identidad con inteligencia artificial en un video de Instagram para promocionar una supuesta estafa.
Además, el actor estadounidense Tom Hanks, en octubre de 2023 denunció en su cuenta oficial de Instagram que estaban utilizando una versión de él creada con inteligencia artificial para promocionar un supuesto plan de seguro dental.
Estafas por WhatsApp: lo más peligroso
Menos vistosa, pero quizá mucho más efectiva y terrenal es la estafa iniciada a partir de una inteligencia artificial que anda por la Deep Web que se llama FraudGPT.
En la Web profunda y casi inaccesible para la mayoría de los mortales, comercializan modelos conversacionales para engañar a quien corresponda. “Con esto podés generar un texto que ChatGPT, por obvias políticas de buen uso, no te daría. Le podés pedir que te diseñe un texto para enviar por WhatsApp, haciéndote pasar por una entidad bancaria, o para invertir en algún lado”, explica Martina López.
“Lo que hace con esto -agrega la especialista- es dar el primer paso y generar confianza. Una vez que la víctima creyó que le está hablando un amigo o un banco, a partir de allí suele seguir el diálogo el delincuente y te puede pedir datos personales o hasta convencerte de invertir dinero en un determinado lugar”.
Con todo, si antes todos se habían entrenado para no hacer clic en cualquier link de un mail, y para no creer siempre que el emisor de un correo electrónico no es siempre que dice ser, parece que ahora hay que comenzar a sospechar de lo que llega por WhatsApp, sean textos, audios y hasta videos.
SL