Actualidad

Cuando la tecnología nos engaña

Sobre el uso de la IA en estafas

La inteligencia artificial revoluciona el mundo, pero también potencia el engaño. Desde una mujer francesa que perdió 850.000 dólares creyendo amar a Brad Pitt hasta periodistas paraguayos víctimas de fraudes financieros, te contamos cómo operan estas trampas y de qué manera protegerte en la era digital.

Que tire la primera piedra quien no ha fantaseado con que su artista favorito le escriba un mensaje. Eso le pasó a Anne, una mujer francesa que contó en un programa de televisión que estaba teniendo una relación romántica con nada más y nada menos que Brad Pitt. Como es lógico en caso que Pitt nos escriba, ella se divorció de su esposo y le transfirió 830.000 euros (850.000 dólares), ya que el actor necesitaba dinero para pagar un tratamiento renal, porque sus cuentas bancarias estaban congeladas debido al conflicto legal de divorcio con su exesposa Angelina Jolie.

La relación duró un año y medio, tiempo durante el cual el amor floreció. Lo que Anne no sabía era que se trataba de una estafa y el dinero, lejos de ser destinado a los tratamientos de su amado, fue aprovechado por amigos de lo ajeno duchos en el arte de timar. Ella solo se dio cuenta de que había sido estafada cuando se conoció la noticia de la relación real de Pitt con su novia, Inés de Ramón. Los estafadores utilizaron cuentas falsas en redes sociales y WhatsApp, así como tecnología de creación de imágenes por IA para enviarle a Anne los que parecían ser selfies y mensajes de Pitt.

Anne aseguró que fue contactada por primera vez por una mujer que se hizo pasar por la madre del reconocido actor, que acababa de empezar a usar Instagram mientras estaba de viaje con su fa milia en Francia. “Me pregunto por qué me eligieron para hacerme esto”, le dijo a TF1, el canal de tevé francés, “nunca le hice daño a nadie. Estas personas merecen el infierno”. Las consecuencias fueron devastadoras. Según el medio, en el momento de la transmisión la víctima sufría de depresión severa y estaba hospitalizada para recibir tratamiento.

A 9850 kilómetros, en Paraguay, también fueron noticia las estafas. Uno de los casos más conocidos fue el de Santiago González, conocido como Santula, que denunció que su imagen se utilizó para promocionar un supuesto proyecto de Petropar destinado a resolver los problemas financieros de los paraguayos, que prometía una ganancia de G. 25.000.000 con una inversión de solo G. 2.000.000.

Lo mismo sucedió con periodistas como Menchi Barriocanal y Óscar Acosta, además de colegas como Sara Moreno, Javier Panza y Mabel Rehnfeldt. También fueron víctimas del uso indebido de su imagen para promocionar, a través de videos difundidos en Facebook o TikTok, negocios que prometían grandes sumas.

En marzo del 2024, la Interpol presentó una evaluación sobre estafas a escala mundial que señala que el uso cada vez mayor de la tecnología por parte de grupos de delincuencia organizada les permite seleccionar mejor a sus víctimas en todo el mundo.

El análisis informa que las nuevas tecnologías, combinadas con dinámicas como el phishing y el ransomware, permiten estafas más sofisticadas y profesionales sin necesidad de tener habilidades técnicas avanzadas, a un coste relativamente bajo.

A nivel país, el movimiento que genera este tipo de delincuencia es muy alto. “Desde el 2023-2024 el dinero que se movió producto de las estafas sobrepasa los cuatro mil millones de dólares en Paraguay. Parece mentira”, afi rmó el comisario Diosnel Alarcón, jefe del departamento de Cibercrimen de la Policía Nacional en una entrevista con Monumental en abril de este año. Explicó que muchas de estas transacciones fraudulentas no necesariamente se originaron aquí, pero utilizaron plataformas y cuentas creadas en el país para canalizar los fondos, es decir, Paraguay es un destino propicio para el lavado de activos provenientes de fines ilícitos.

“Nos enfrentamos a una fuerte oleada de estafas en la que cada vez caen más personas, a menudo vulnerables, y empresas, a gran escala y en todos los rincones del mundo”, afi rmó el secretario general de Interpol, Jürgen Stock. “Los avances tecnológicos, unidos al rápido aumento de la proporción y el volumen de la delincuencia organizada, han impulsado la creación de nuevas formas de estafar a personas inocentes, empresas e incluso administraciones. Con el desarrollo de la IA y las criptomonedas, la situación está abocada a empeorar, si no se toman medidas urgentes”, detalló.

El informe de Interpol cita además las tendencias mundiales más frecuentes: las estafas de inversión, las de pago por adelantado, las sentimentales por internet y a empresas por e-mail mediante suplantación de identidad. Los autores suelen conformar redes de codelincuentes muy bien estructuradas o vagamente afiliadas.

Es indudable que la tecnología trae, inevitablemente, aspectos positivos y negativos. En esta nota te contamos cómo reconocer una estafa de este tipo y qué hacer para no caer en estas trampas.

¿Cómo operan los ciberdelincuentes?

El phishing sigue siendo una de las amenazas más comunes en cuanto a ciberdelincuencia con IA. Los ciberdelincuentes se hacen pasar por bancos, empresas o incluso contactos personales para robar datos sensibles. Con la ayuda de la IA, estos mensajes son más convincentes que nunca, pues imitan el tono y estilo de comunicaciones reales. El smishing, su versión por SMS, también crece, aprovechando que muchos usuarios aún confían en los mensajes de texto.

Uno de los desarrollos más preocupantes es el de los deepfakes. Estos videos o audios falsos, pero hiperrealistas, hacen parecer que un político dijo algo que nunca pronunció o que una celebridad promociona un producto fraudulento. Las dos variantes más peligrosas son deepfaces, es decir, manipulación de rostros en videos para suplantar identidades, y deepvoices, clonación de voces para generar declaraciones falsas.

El análisis de la evaluación de Interpol ya citado también destaca la expansión internacional de la trata de personas para la ejecución forzada de actividades ilícitas en centros de llamadas. El propósito es llevar a cabo estafas de tipo sentimental (o una combinación de esta y de inversión mediante las criptomonedas), que son operadas con el uso de tecnologías, pero por personas reales.

Las redes sociales y apps de citas están plagadas de perfiles creados por IA. Muchas veces son chatbots que simulan ser personas reales y engañan a usuarios para extraerles dinero o información. Por otro lado, también están los fraudes de soporte técnico, donde falsos «agentes» piden acceso remoto a computadoras o celulares, y ni hablar de las ofertas laborales falsas.

El peligro no es solo individual, como una estafa donde un “familiar” pide dinero con voz clonada; también puede ser social, colectivo. Imaginemos un audio falso del presidente o algún líder muy influyente que genere caos político.

Por otro lado y siguiendo el tema del peligro social, ahora la IA genera artículos tan bien escritos que incluso los lectores más atentos pueden caer. Sumado a esto, los bots distribuyen masivamente estos contenidos, lo que polariza los debates y siembra desconfianza en medios e instituciones.

¿Cómo identificar contenido falso generado por IA?

El Instituto Nacional de Ciberseguridad español hizo público un documento en donde reveló algunas pistas para detectar posibles contenidos falsos generados con inteligencia artifi cial, que te detallamosa continuación.

Lo primero y principal es verificar la fuente. Antes de tomar un contenido como cierto, bien vale desconfiar, sobre todo si se trata de sitios web o perfiles desconocidos. Además, es una buena idea consultar su reputación y comprobar si otros medios o usuarios confiables se hacen eco de la misma información.

Por otro lado, hay detalles que nos pueden dar pistas de que se trata de un contenido generado artificialmente. En el caso de los textos, hay que verificar si tienen errores gramaticales o incoherencias que no son comunes en artículos escritos por humanos.

Cuando se trata de videos, los deepfakes a menudo presentan un número anormal de parpadeos o movimientos faciales poco naturales, así como a veces hay desajustes entre la expresión facial y los movimientos corporales; por último, el sonido quizá no concuerde con la imagen o muestre desfases o variaciones en el tono que no se corresponden con la escena. En el caso de los videos de contenido falso con la imagen de periodistas paraguayos, el acento del audio era venezolano. Por eso, es clave analizar si el tono y el ritmo del habla son consistentes. Las clonaciones pueden presentar variaciones inusua les. Además, las grabaciones reales suelen tener ruido de fondo.

Con respecto a las imágenes, las generadas por IA pueden tener fallos en ciertos detalles, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También suelen resaltar las incoherencias entre iluminación y sombras.

Una cuestión muy importante a tener en cuenta es la coyuntura. Es sumamente necesario verificar si el contenido del discurso es consistente con lo que la persona normalmente diría o en el contexto en el que suele hablar.

¿Cómo protegerse?

La clave está en la desconfi anza saludable: verificar siempre la fuente de mensajes inesperados, no dar clic a enlaces sospechosos, usar herramientas de autenticación en dos pasos y reportar perfi les y mensajes fraudulentos. La IA llegó para quedarse, y con ella, estos riesgos. La mejor defensa es estar informados y alertas, porque en el mundo digital, no todo es lo que parece.

Recomendados

Sin Comentarios

    Dejar un comentario