¿Qué es la IA generativa y cómo la usan los estafadores?

25-02-2025 by Adam Bacia

Ai driven identity theftEn su forma más simple, la IA generativa es cualquier tecnología de inteligencia artificial utilizada para crear nuevo contenido después de haber sido entrenada para reconocer patrones en datos existentes. Muchas formas de IA generativa, como la creación de texto, imágenes, música y vídeo, han alcanzado un alto nivel de popularidad. Existen tres tipos principales de IA generativa que son los más comunes: modelos de lenguaje de gran escala (LLMs), que procesan y generan texto; redes generativas antagónicas (GANs), que crean y manipulan contenido visual; y modelos de difusión, que generan imágenes altamente detalladas refinando progresivamente ruido aleatorio.

Estas tecnologías han demostrado ser muy útiles en entornos empresariales. Las instituciones financieras utilizan los LLMs para mejorar el servicio al cliente con chatbots conversacionales y para optimizar procesos internos. Las GANs pueden analizar imágenes médicas con fines diagnósticos. Los modelos de difusión han transformado el diseño de productos y la creación de contenido digital. A menudo, el contenido generado por estos modelos es tan realista que, sin una etiqueta que lo indique, no se puede diferenciar del creado por humanos.

Sin embargo, no todos los usos de esta tecnología son positivos. Las mismas capacidades que hacen que la IA sea tan valiosa para las empresas también la convierten en una poderosa herramienta para los estafadores. Estos delincuentes han aprendido a utilizar la IA generativa para clonar voces, crear vídeos deepfake que superan controles biométricos básicos y generar identidades sintéticas. A medida que estos modelos se vuelven más sofisticados y accesibles, las empresas se enfrentan a un desafío sin precedentes: mantener la integridad de sus sistemas mientras aprovechan los beneficios de la IA para automatizar y mejorar la eficiencia.

Nuevas tácticas de fraude impulsadas por la IA generativa

Las estafas tradicionales han evolucionado hacia operaciones sofisticadas y automatizadas gracias a la IA generativa. Con esta tecnología, los delincuentes pueden crear vídeos, audios y documentos falsos cada vez más convincentes que ponen a prueba los sistemas de seguridad convencionales. Algunos ejemplos incluyen:

  • Ataques de ingeniería social: antes, los intentos de estafa eran genéricos y más fáciles de detectar. Ahora, la IA permite analizar perfiles en redes sociales y otros contenidos públicos para generar mensajes dirigidos que imitan perfectamente el estilo de escritura, los intereses personales y la trayectoria profesional de la víctima. Esto elimina señales de alerta como errores gramaticales o un tono inusual, haciendo que los ataques sean mucho más creíbles.
  • Fraude de identidad sintética: la creación de identidades ficticias, pero convincentes, ha alcanzado una escala sin precedentes. Estas identidades pueden ser completamente falsas o combinar datos reales de varias personas. Lo que antes requería semanas de trabajo manual, ahora se logra en minutos con IA. Estas identidades pueden incluir historiales de crédito plausibles, registros de empleo y huellas digitales que superan los controles iniciales de verificación.
  • Phishing personalizado: con IA, es más fácil que nunca personalizar campañas de phishing. Se pueden generar miles de correos electrónicos únicos y altamente contextuales dirigidos a organizaciones o intereses específicos. Además, estas campañas pueden ajustarse en tiempo real según su tasa de éxito, mejorando continuamente su efectividad.
  • Clonación de voz y "vishing": bastan unos segundos de audio para replicar la voz de una persona con una precisión sorprendente. Esto permite a los estafadores acceder a cuentas bancarias o suplantar a directivos para solicitar transferencias de dinero.
  • Documentación falsa a gran escala: la IA también se usa para falsificar documentos con un alto nivel de detalle, como extractos bancarios, facturas de servicios públicos e incluso identificaciones gubernamentales con todas las características de seguridad visibles en los sistemas de verificación estándar.

Preocupación de los consumidores sobre el robo de identidad con IA: un estudio reciente indica que el 86% de los consumidores está preocupado por el uso de IA en el robo de identidad, y el 73% teme específicamente a los deepfakes generados con IA. (Fuente: Nationwide, 2024 Cybersecurity Survey Report)

Principales amenazas de seguridad de la IA generativa

Existen tres categorías principales de amenazas planteadas por la IA generativa, cada una de las cuales representa un desafío único para las instituciones financieras. Para una visión más general sobre la IA generativa y sus impactos financieros, lee nuestro artículo sobre cómo abordar los desafíos de verificación de la identidad en la era de la IA generativa.

Ataques de sondeo de modelos: ingeniería inversa de sistemas de seguridad

Los ataques de sondeo de modelos son una de las amenazas más sofisticadas para la seguridad en la IA generativa. En estos ataques, los estafadores examinan los modelos de seguridad para comprender y luego replicar su proceso de toma de decisiones. Tras enviar entradas cuidadosamente diseñadas y analizar las respuestas, pueden revertir eficazmente la ingeniería de los modelos de IA utilizados por las instituciones financieras.

Por ejemplo, los estafadores pueden identificar los parámetros de detección de fraude de un banco enviando cientos o miles de transacciones con ligeras variaciones. A partir de esto, pueden determinar cuáles activan alertas de seguridad y cuáles pasan desapercibidas. Con este conocimiento, pueden estructurar sus futuras actividades de manera que eviten deliberadamente el patrón de detección.

Ataques de inyección: manipulación de sistemas de IA

Los sistemas de seguridad se enfrentan a dos tipos distintos de amenazas de inyección. Es posible que ya te suenen los ataques de inyección biométrica, en los que los estafadores eluden una verificación biométrica o de prueba de vida inyectando vídeos o imágenes en el proceso de verificación. Otra amenaza para la seguridad en la IA generativa es el ataque de inyección de instrucciones (prompt injection). En este tipo de ataque, los estafadores manipulan la forma en que los sistemas de IA procesan la información, explotando vulnerabilidades mediante la inserción de instrucciones o datos que alteran la respuesta de la IA. Recientemente, se han registrado casos en los que atacantes han comprometido con éxito chatbots o sistemas automatizados de atención al cliente para autorizar transacciones fraudulentas o acceder a información sensible.

El envenenamiento de datos (data poisoning), otro tipo de ataque de inyección, ocurre cuando los atacantes introducen gradualmente datos maliciosos en los conjuntos de entrenamiento de la IA. Por ejemplo, una institución financiera descubrió que su sistema de detección de fraude había sido comprometido por atacantes que, durante meses, le proporcionaron datos de traducción engañosos, entrenando efectivamente al sistema para ignorar un tipo específico de comportamiento fraudulento. 

Ataques de deepfake: la evolución del fraude de identidad

Con audio y vídeo realistas que imitan a un cliente o empleado legítimo, los deepfakes actuales pueden eludir muchas de las medidas de seguridad biométricas tradicionales. En un caso reciente, los estafadores utilizaron un vídeo generado por IA para hacerse pasar con éxito por el director financiero de una empresa y solicitar grandes transferencias bancarias.

La falsificación de documentos también ha alcanzado nuevos niveles de sofisticación utilizando la tecnología StyleGAN. Estos sistemas ahora son capaces de generar documentos de identificación que incluyen hologramas, microimpresiones y otros detalles de seguridad, lo que los hace cada vez más difíciles de detectar para los métodos de verificación convencionales.

La detección de deepfakes en tiempo real sigue siendo un reto para la seguridad financiera, ya que los sistemas de verificación tradicionales luchan por mantenerse al ritmo de la calidad y velocidad con la que ahora se pueden generar los deepfakes, lo que crea una vulnerabilidad crítica.

¿Quieres adelantarte a las amenazas emergentes de fraude generadas con IA? Descarga nuestro "Playbook sobre fraude digital" para obtener información y estrategias completas, o explora la suite de soluciones avanzadas de IA de Mitek para descubrir cómo puedes proteger tu negocio de sofisticados ataques sintéticos.

De estos desafíos se encarga Digital Fraud Defender de Mitek, diseñado específicamente para abordarlos con protecciones avanzadas y multi capa que trabajan en tiempo real.

Descarga el Playbook sobre Fraude Digital generado con IA 

Estrategias para mejorar la detección de IA generativa

Las instituciones financieras tendrán que adoptar un sofisticado enfoque por capas para combatir estas amenazas a lo largo de todo el ciclo de vida del cliente. Desde la creación de cuentas hasta el acceso continuo, las transacciones y los cambios de cuenta, cada punto de contacto requiere medidas de seguridad únicas.

Las capacidades avanzadas de las tecnologías de comportamiento también han evolucionado para detectar señales únicas que podrían dejar los contenidos generados por IA, y los modelos de aprendizaje automático se adaptarán continuamente a los nuevos patrones de amenazas. Estas tecnologías trabajan juntas para identificar anomalías en todas las interacciones con los clientes.

Juntas, estas defensas por capas crean un marco integral para detectar y bloquear intentos de fraude generados por IA, conservando a la vez la experiencia del usuario a lo largo del recorrido del cliente, desde el onboarding hasta las transacciones diarias y el mantenimiento de cuentas.

Mejora de la precisión de los modelos de IA

Es necesario un proceso de evolución continua para ir un paso por delante del fraude generado con IA. Los sistemas de seguridad actuales implementan métodos de entrenamiento dinámicos para detectar nuevos patrones de fraude a medida que surgen, de modo que puedan adaptarse a las amenazas casi en tiempo real.

El entrenamiento adversarial, o exponer deliberadamente los modelos de seguridad a ataques simulados, es una de las formas de reforzar sus capacidades de detección y mejorar el nivel de seguridad contra los ataques generados por IA. A cuantas más condiciones se exponga un sistema, mejor preparado estará para afrontar cualquier nueva condición que los estafadores puedan intentar utilizar. Este enfoque puede combinarse con pruebas de validación cruzada a través de múltiples escenarios y tipos de usuarios para garantizar un rendimiento consistente frente a intentos de fraude.

El refinamiento de los modelos a través de una ingeniería de características mejorada se centra en identificar marcadores sutiles que quedan en los contenidos sintéticos, como rastros microscópicos en las imágenes o anomalías en los patrones de comportamiento. Este refinamiento ayuda a mantener unas altas tasas de precisión, mientras minimiza los falsos positivos.

Ir a más velocidad para seguir a la cabeza

La velocidad es tan crucial como la precisión cuando se trata de prevenir fraudes generados con IA. Los sistemas de seguridad actuales deben ser capaces de analizar miles de puntos de datos en milisegundos para detectar contenido sintético. Respaldando estos sistemas de detección en tiempo real, los mecanismos de respuesta automatizados pueden bloquear al instante actividades sospechosas y alertar a los equipos de seguridad.

El análisis predictivo también puede identificar rápidamente los patrones emergentes de fraude antes de que se generalicen. A través del análisis de datos de transacciones e interacciones, los sistemas de seguridad basados en IA son capaces de anticiparse y prepararse para nuevos vectores de ataque. Cuando este enfoque proactivo se combina con un despliegue rápido de actualizaciones de seguridad, las empresas pueden adaptar sus defensas al mismo ritmo que la evolución de los estafadores.

Gobernanza de datos robusta

Para entrenar modelos de IA que puedan distinguir con precisión entre actividades legítimas y fraudulentas se necesitan datos de alta calidad y bien gestionados. Se requieren estrictos estándares de calidad de datos y prácticas rigurosas para la compilación, almacenamiento y uso de los mismos.

Los riesgos relacionados con la IA deben ser abordados específicamente en los marcos de cumplimiento actuales, lo que impulsa a las empresas a mantener auditorías exhaustivas y realizar auditorías de seguridad regulares que incluyan evaluaciones específicas sobre el comportamiento de sus modelos de IA, la integridad de los datos y la capacidad de detectar contenido sintético. También deben implementarse controles anti-sesgo para garantizar que los sistemas no respondan de manera inequitativa a segmentos minoritarios del mercado.

Un enfoque centrado en la gobernanza ayuda a garantizar que los sistemas de seguridad de IA funcionen de manera efectiva, cumpliendo con las normativas y protegiendo la información sensible de los clientes.

El papel de la regulación y los estándares éticos

Aunque los marcos regulatorios aún están en proceso de desarrollo, numerosos organismos reguladores, como la CFPB, el DOJ, la FTC y la FINRA, han emitido declaraciones y órdenes específicas sobre el uso de la IA. También deben tenerse en cuenta las leyes de privacidad y protección de datos a diferentes niveles. La industria financiera ha desarrollado proactivamente una autorregulación con mejores prácticas para la seguridad de la IA, con las principales instituciones colaborando a través de grupos de trabajo del sector para compartir conocimientos y prácticas éticas para la prevención del fraude y la verificación de la identidad.

Estos esfuerzos están creando un marco integral que permite a las instituciones innovar con soluciones de seguridad impulsadas por IA para combatir las amenazas emergentes, manteniendo al mismo tiempo los estándares éticos y la experiencia del cliente.

El futuro de la seguridad de la IA generativa

De cara al futuro, será necesario un alto nivel de colaboración en la industria para crear nuevas tecnologías de defensa, incluidas las asociaciones entre sectores. Las aplicaciones emergentes de la computación cuántica tienen el potencial de revolucionar el proceso de detección de fraudes, y ya se están desarrollando redes neuronales avanzadas específicamente para contrarrestar la generación de contenido sintético. La tecnología blockchain también se está integrando en los sistemas de verificación, asegurando auditorías a prueba de manipulaciones y ayudando a verificar la autenticidad de las credenciales.

Las soluciones de identidad de próxima generación combinarán todos estos avances en un potente sistema con biometría física y conductual. En el futuro, el éxito en este campo requerirá mantenerse ágil, aprovechando el poder de la tecnología emergente de la IA, al tiempo que se comprenden sus riesgos y se genera una fuerte confianza de los clientes, tanto en su utilización como en la defensa contra ella.

Más información en nuestra web de Digital Fraud Defender, herramienta diseñada específicamente para abordarlos con protecciones avanzadas y multi capa que trabajan en tiempo real.

¿Cómo puede mi empresa defenderse de estos ataques con IA?