Los ciberdelincuentes ya utilizan la inteligencia artificial (IA) para perfeccionar sus campañas fraudulentas y hacerlas más afectivas, como ocurre en las estafas de empleo en línea, los esquemas de extorsión con reseñas negativas y las estafas de recuperación de fondos.
Las estafas se han convertido en una amenaza global, que afecta a todos los grupos demográficos y que tiene por objetivo obtener beneficios económicos de personas vulnerables. Según el informe ‘El estado de las estafas 2025’ de la Alianza Global contra las Estafas, el 57 por ciento de los adultos sufrió una estafa el año pasado, y el 23 % denunció el robo de dinero.
Cuáles son las principales tendencias de estafas en línea
Esta amenaza se ha vuelto más eficaz con la inteligencia artificial, una tecnología que los estafadores usan para llevar a más objetivos y perfeccionar sus esquemas fraudulentos, como advierte Google en el marco de su aviso sobre fraudes y estafas más reciente.
En él, se recogen las principales tendencias en estafas en línea, entre las que se encuentran los esquemas de extorsión mediante reseñas negativas, que aprovechan el miedo de las empresas a tener una mala reputación para solicitar un pago que evite o detenga la publicación de comentarios negativos falsos.
Las estafas de empleo en línea, por su parte, se hacen pasar por plataformas u organismos oficiales de empleo para aprovecharse de personas desempleadas a través de ofertas de empleo falsas. Con ellas, solicitan un pago anticipado para incluirlas en los procesos de selección e incluso les piden rellenar un formulario con el que acceden a datos sensibles, como la cuenta bancaria, la tarjeta de crédito o el documento de identidad.
Este tipo de estafa se difunde normalmente a través de correos fraudulentos, que pueden incluir un enlace con el que, además, se distribuye ‘malware’, como troyanos bancarios o de acceso remoto.
Las estafas de suplantación también alcanzan los servicios más populares, como los de inteligencia artificial, con anuncios que prometen un acceso gratuito o exclusivo. En realidad, lo que consiguen las víctimas son aplicaciones o extensiones de navegador maliciosas, el robo de credenciales, la suscripción en servicios de tarifas desorbitadas.
Asimismo, aprovechan la necesidad de ciertas personas para acceder de manera segura a internet con la promoción de servicios de red privada virtual (VPN) que esconden un programa malicioso que diseñado para robar información, tomar el control del dispositivo o extraer datos como la cuenta bancaria, el historial de navegación o los mensajes privados.
Otra modalidad de estafa promete ayudar a los que ya han sido estafados, con quienes contactan a través de publicidad o listas de víctimas, haciéndose pasar por investigadores de ‘blockchain’, bufetes de abogados, agencias gubernamentales y ‘hackers’ a sueldo. Prometen recuperar el dinero perdido a cambio de un pago por adelantado.
Por último, están las estafas vinculadas a eventos de compras masivas, como el Viernes Negro (Black Friday) o las Navidades. En este caso, las campañas fraudulentas buscan atraer a sus víctimas con ofertas engañosas, incluso suplantando la identidad de marcas conocidas.
¿Qué nos puede hacer pensar que se trata de un contenido falso generado por IA?
Hay ciertos detalles que pueden hacer caer en la cuenta que un contenidos es falso generado por la IA y evitar algunas de estas estafas. Para ello, desde el Instituto Nacional de Ciberdelincuencia (Incibe) se recomienda realizar acciones como verificar la fuente asegurando que el contenido proviene de una fuente confiable o con buena reputación. Hay que desconfiar de noticias de sitios web o perfiles desconocidos, consultar la reputación y comprobar si otros medios o usuarios de confianza se hacen eco de la misma información
Otra acción es analizar la calidad del contenido y prestar atención a ciertos detalles para descubrirlos. Entre los aspectos a observar está el texto, básicamente hay que ver si este contiene incoherencias que no son normales en artículos escritos por humanos o si tiene errores gramaticales.
El vídeo es otro de los aspectos a analizar, centrándose en los parpadeos y movimientos faciales ya que los depfakes a menudo presentan un número anormal de parpadeos o movimientos de cara poco naturales. Pero además es conveniente ver si hay desajustes entre la expresión facial y los movimientos corporales, o si el sonido concuerda con la imagen, mostrando desfases o variaciones en el tono que no corresponden con la escena.
Finalmente, desde el Incibe se recomienda que se observe el audio, analizando si el tono de voz y el ritmo del habla son consistentes ya que las clonaciones de voz “pueden presentar variaciones inusuales”.
El ruido de fondo también es otro aspecto a tener en cuenta, según estas recomendaciones, ya que la falta de ruido o la presencia de sonidos extraños puede indicar manipulación. Además, es fundamental verificar si el contenido del discurso es consistente con lo que la persona normalmente diría o en el contexto en el que suele hablar.
La imagen también puede dar pistas sobre si un contenido es falso generado por la IA, por ejemplo en lo que el Incibe denomina detalles finos, es decir puede haber fallos en ciertos detalles, como en manos con dedos desproporcionados o fondos que no se alinean correctamente. Pero también pueden poner en alerta la iluminación y las sombras, hay que observar si estas son coherentes con la imagen.
Herramientas para detectar contenido falso generado por la IA
Existen algunas herramientas que pueden ayudar en la tarea de detectar estos engaños. Entre estas el Incibe propone en primer lugar detectores de IA para texto como:
Plagiarismdetecto que analiza patrones lingüísticos y estructuras gramaticales para indicar un tanto por ciento de posibilidades de que sea generado artificialmente.
GPTZero: tiene la capacidad de detectar contenido generado por modelos como ChatGPT y GPT-4. Muestra los porcentajes de probabilidad de autoría humana o IA, y resalta las secciones sospechosas.
Copyleaks: proporciona un análisis detallado a nivel de oración para detectar contenido generado por IA con una alta precisión.
También existen herramientas de detección de multimedia muy útiles para detectar deepfakes y otros tipos de contenido multimedia generado por IA como:
VerifAI, una web respaldada por la empresa Telefónica que detecta en pocos segundos si un contenido ha sido generado o alterado con IA.
Resemble Detect detecta audios generados con IA.
Deepware: permite analizar vídeos y detectar deepfakes mediante un análisis exhaustivo que identifica alteraciones y anomalías.
Illuminarty: proporciona análisis avanzado para detectar deepfakes en imágenes, utilizando inteligencia artificial para identificar discrepancias y manipulaciones.
AI or Not: permite a los usuarios cargar imágenes y audios para verificar si han sido manipulados o generados por inteligencia artificial.
VerificAudio: ayuda a verificar, enviando a un equipo especializado, voces sintéticas.
