PARTE 1
¿Qué es un deepfake?
En mayo de 2019, un Youtuber llamado “ctrl-shift-face" subió un vídeo de una entrevista al actor Bill Hader imitando a famosos. A simple vista, parece que Hader está utilizando sus dotes cómicas para imitar a personajes conocidos. Hader incluso adopta la famosa voz de "Arnold Schwarzenegger", imitando el acento europeo de la superestrella austriaca. Aunque un poco anticuado, este ejemplo ayuda a ilustrar cuándo los deepfakes irrumpieron realmente en la cultura popular. Con los años, se han hecho aún más populares.
A diferencia de otras imitaciones de Arnold, lo que es único en este vídeo no es la imitación de Hader, sino lo que ocurre cuando imita su voz. Su rostro se convierte inquietantemente en el del ex gobernador, como si llevara una máscara digital. Es como si Schwarzenegger estuviera sentado en el estudio hablando con el público.
El vídeo es entretenido, pero hay algo desconcertante en el parecido de Hader con Schwarzenegger. Los comentarios debajo del clip dicen cosas como, "Después de que empezó a parecerse a Arnold, me olvidé de cómo realmente es", "Pensé que estaba alucinando", o "Incluso se parece a él".
El término "deepfake" suele referirse a un vídeo trucado -como la imitación de Hader/Schwarzenegger- que utiliza Inteligencia Artificial (IA) y tecnología de reconocimiento facial para imitar la expresión facial y las características de una persona y superponerlas al cuerpo de otra. Y el vídeo no es el único medio de deepfake que existe. También existen deepfakes de voz, imagen e incluso biométricos. La capacidad de crear perfectas imitaciones falsas y convincentes de otras personas tiene serias implicaciones para el mundo real y para los ciclos de vida de la identidad.
Los deepfakes se han convertido en una popular herramienta digital para crear piezas artificiales
Consumidores, empresas y gobiernos por igual están debatiendo las implicaciones de los deepfakes, especialmente después de sus recientes usos con fines nefastos, como noticias falsas y comunicación engañosa que podrían afectar incluso a unas elecciones nacionales. A continuación, nuestro vicepresidente senior de Identidad, Chris Briggs, ofrece una entrevista en la que explica cómo anticiparse a los deepfakes.
Tal y como afirma Briggs, y así como esta serie de posts ayuda a dejar claro, "se necesita una estrategia de múltiples capas para defenderse contra muchos de los vectores de ataque de IA emergentes" como los deepfakes. Las empresas que se toman el tiempo necesario para comprender los deepfakes pueden "construir contramedidas para combatir los nuevos enfoques antes de que se conviertan en agujeros de seguridad en toda regla."
Más información sobre soluciones contra deepfakes
En esta profundización sobre este tecnología, hablamos sobre:
- ¿Qué es un deepfake?
- ¿De dónde viene la tecnología Deepfake?
- ¿Cómo se hace un Deepfake?
- ¿Cómo se detecta un deepfake?
- ¿Pueden utilizarse los deepfakes en fraudes en apertura y robo de cuentas?
- ¿Cómo puede luchar una empresa contra los deepfakes en 2024?
Un deepfake es una tecnología que suele pertenecer a los estafadores. Crean los medios falsos utilizando algoritmos de aprendizaje automático e inteligencia artificial para alterar vídeos, emular falsificaciones de personas haciendo o diciendo cosas maliciosas, crear audio convincente y otras formas de contenido falso en las que hay presencia humana. Los estafadores pueden incluso generarlos a partir de imágenes existentes para crear lugares, personas y cosas que son totalmente artificiales.
La tecnología deepfake suele utilizarse para diversos fines, desde divertidos hasta maliciosos. Por ejemplo:
- Se generan datos biométricos, como expresiones faciales, y se superponen al cuerpo de otra persona en vídeos falsos.
- Voces humanas que imitan el timbre y el tono de famosos, como Jay-Z cantando a Billy Joel en grabaciones de audio falso.
- Políticos diciendo cosas que nunca han dicho.
A medida que mejore la tecnología, es probable que los estafadores sigan utilizando deepfakes maliciosos para ciberdelitos y espionaje corporativo.
¿De dónde procede la tecnología deepfake?
Los primeros deepfakes conocidos fueron probablemente vídeos generados por IA publicados a principios de 2017 por un usuario de Reddit en la plataforma. Hoy, el usuario ha sido acreditado como el creador de los deepfakes, haciendo pública esta práctica.
Se utilizaron bibliotecas de imágenes de código abierto como la búsqueda de imágenes de Google, sitios web de redes sociales, bases de datos de fotos de archivo y vídeos de YouTube, para crear un algoritmo de aprendizaje automático que permitía insertar las caras de las personas en vídeos preexistentes fotograma a fotograma.
Aunque hay fallos y trampas obvias que un usuario puede notar, los vídeos son bastante creíbles y cada vez son más convincentes. En su momento, el creador incluso diseñó y publicó una aplicación llamada "FakeApp", que facilitaba la creación de contenidos falsos, desde vídeos divertidos a otros con fines más maliciosos, incluso para los usuarios con menos conocimientos tecnológicos. Hoy en día, es probable que haya cientos de generadores de deepfakes.
¿Cómo se hace un deepfake?
No se puede decir que lo hace cualquiera, pero tampoco es súper difícil. Especialmente dada la proliferación de herramientas de "DIY". Es probable que los estafadores dispongan de una combinación de un ordenador superpotente, programas de inteligencia artificial y aprendizaje automático, y cientos de miles de imágenes de personas seleccionadas.
Este es el proceso para la elaboración de un video deepfake:
- En primer lugar, el usuario pasa miles de imágenes faciales de dos personas seleccionadas por un codificador, un algoritmo de inteligencia artificial que utiliza una red de aprendizaje automático.
- El codificador compara las imágenes de las dos caras, comprimiéndolas en rasgos comunes compartidos.
- Un segundo algoritmo de IA, denominado descodificador, recupera los rostros a partir de las imágenes comprimidas. Se pueden utilizar varios descodificadores: uno para encontrar y analizar la cara de la persona inicial y otro para hacer lo mismo con la cara de la segunda persona.
- Para realizar el intercambio de caras, se introducen las imágenes codificadas de la cara de la persona A en el descodificador entrenado en la persona B. Después, el descodificador reconstruye la cara de la persona B con las expresiones y la orientación de la cara A y viceversa. Para los contenidos falsos más convincentes (o deepfakes maliciosos), esto se hará en miles de fotogramas.
Otro método para crear deepfakes es el que utiliza una red generativa adversaria (GAN). La diferencia notable es que la GAN crea una imagen o vídeo completamente nuevo que parece increíblemente real, pero es totalmente falso. Así funciona:
- Una GAN enfrenta a dos algoritmos de inteligencia artificial. El primer algoritmo, conocido como generador, recibe una señal y la convierte en una imagen falsa.
- Esta imagen sintética se añade a un discriminador, otro algoritmo que recibe un flujo de imágenes reales.
- Los dos, (generador y discriminador), son funcionalmente adversarios, y desempeñan dos papeles cada uno, como un "falsificador y un detective", descrito por estudiantes que utilizaron un GAN para crear deepfakes en un estudio en la Universidad de California.
- El proceso se repite innumerables veces y tanto el discriminador como el generador mejoran. Al cabo de un tiempo, el generador empezará a producir una imagen realista, o deepfake. Puede tratarse de una persona, un lugar o una cosa.
Para llevar una falsificación profunda al siguiente nivel, la cara falsa de, por ejemplo, Tom Cruise, debe tener una voz falsa de Tom Cruise. La superposición de audio en los deepfakes suele hacerse de tres maneras.
- Los deepfakes basados en repeticiones que utillizan una grabación de micrófono[1] o técnicas de cortar y pegar para improvisar una nueva cadena de audio a partir de fragmentos de voz existentes.
- Síntesis de voz, que suele utilizar un sistema de conversión de texto en voz para crear un sonido real a partir de un guión escrito.[2]
- Imitaciones de voz, que transforman un fragmento de habla real de un sujeto para que suene como si lo estuviera diciendo otro.[3]
¿Pueden utilizarse los deepfakes para cómeter fraude? ¿Cómo?
Los usuarios de Instagram comparten más de 1.000 millones de imágenes al día en la plataforma,[4] y es probable que Google tenga incluso más selfies de personas en los petabytes que almacena. Como resultado, la mayoría de las personas tienen algún tipo de huella digital, ya sea la foto de perfil de una cuenta de LinkedIn o fotos familiares compartidas en redes sociales. Eestos elementos abarcan un perfil biométrico de comportamiento. Todas estas fotos son entradas potenciales para que la IA empiece a crear deepfakes convincentes para comunicar de forma engañosa.
También se han utilizado para cazar famosos, jugar sucio en política, pornografía, extorsión, fraude, modificación de entretenimiento y arte, o para la creación de memes más inocuos en los círculos de las redes sociales. Este ejemplo muestra cómo los estafadores pueden aprovechar la tecnología para chantajear incluso a altos ejecutivos:
El CEO de una empresa energética creía que estaba hablando por teléfono con su jefe y siguiendo órdenes, cuando transfirió inmediatamente 220.000 euros (unos 243.000 dólares) a la cuenta bancaria de un proveedor húngaro. El audio del teléfono era en realidad una falsificación de voz creada por los estafadores.
A medida que la tecnología mejora y se generaliza, puede utilizarse para la usurpación de identidad y otros ciberdelitos, como la apertura fraudulenta y la apropiación de cuentas. Los delincuentes pueden utilizar deepfakes para diversos tipos de fraude, entre ellos:
- Fraude en la apertura de nuevas cuentas: utilizando los métodos para crear un deepfake descritos anteriormente, un estafador podría buscar en una red social y recopilar cientos de imágenes para crear una imagen o audio deepfake y añadirlo a una identidad falsa: una amalgama de información de identidad robada. Si es lo suficientemente buena, el estafador puede utilizar el convincente deepfake para abrir una nueva cuenta en el banco, pedir cientos de miles de euros en préstamos, y salirse sin pagar intereses dejando al banco con pérdidas monetarias. Mala suerte.
- Fraude de apropiación o robo de cuentas: sólo en 2022, cerca de 2.000 brechas de datos afectaron a cientos de millones de personas.[5] Algunas de ellas podrían haber incluido bases de datos biométricos, porque los autores pueden crear falsificaciones que imiten los datos biométricos y engañar a los sistemas que se basan en el reconocimiento de la cara, la voz, las venas o la forma de andar.
- Estafas de phishing: los intentos modernos de phishing han incorporado mensajes de vídeo falsos, que a menudo están personalizados y adaptados al objetivo. Utilizando tecnología deepfake, los estafadores pueden generar videoclips de figuras de confianza, famosos o incluso familiares, pidiendo al destinatario que realice determinadas acciones financieras, lo que hace que el engaño parezca aún más auténtico. Como en el ejemplo del director general involuntario y el falso proveedor húngaro, los estafadores también utilizan técnicas de imitación de voz para simular llamadas de entidades de confianza. Estas llamadas de audio falsas pueden ser lo suficientemente convincentes como para persuadir a las personas y que compartan información sensible o transfieran fondos a cuentas no autorizadas.
- Ataques de suplantación de identidad: de nuevo, el falso proveedor húngaro entra en el punto de mira. Al igual que ese estafador, otros utilizan deepfakes para imitar a ejecutivos de empresas o incluso a altos funcionarios del gobierno. Las falsificaciones exitosas pueden engañar a los empleados para que divulguen información sensible o transfieran dinero. En el caso de los funcionarios públicos, esta información transmitida a los estafadores puede considerarse incluso espionaje.
- Robo de identidad sintética: los delincuentes pueden crear personajes totalmente falsos. Lo hacen generando identidades ficticias completamente nuevas, con fotos, huellas vocales e incluso historias de fondo, recopilando fragmentos de información de identidad legítima y uniéndolos. Estas identidades sintéticas pueden utilizarse para abrir cuentas bancarias, solicitar tarjetas de crédito o cometer fraudes financieros a gran escala, dificultando a las autoridades el rastreo hasta una persona real.
Así, los estafadores utilizarán deepfakes y otras formas de fraude para obtener beneficios económicos, dañar la reputación o sabotear a una empresa de la competencia o incluso a un gobierno.
En la segunda parte de esta entrada del blog examinaremos cómo las organizaciones pueden detectar y contrarrestar los deepfakes y otros tipos de fraude.
PARTE 2
¿Cuáles son las soluciones para detectar deepfakes?
Se trata de un problema difícil. Los mal hechos o demasiado simplistas pueden, por supuesto, detectarse a simple vista. Algunas herramientas de detección pueden incluso detectar características más defectuosas. Pero la inteligencia artificial que genera deepfakes es cada vez mejor, y pronto tendremos que depender de detectores de deepfakes para que nos los señalen.
Pero afortunadamente, existe tecnología para contrarrestar esta amenaza. Es importante que empresas y proveedores utilicen autenticación de dos o múltiples factores. Los métodos de autenticación multifactor superponen varias formas de verificación para crear más obstáculos a los estafadores. Por ejemplo, un software de autenticación facial puede incluir una detección de vida certificada que proporciona una protección adicional contra deepfakes. Y como las falsificaciones sofisticadas pueden imitar movimientos comunes como parpadeos y asentimientos, los procesos de autenticación deben evolucionar para guiar a los usuarios a través de una gama menos predecible de acciones en vivo.
Detección de deepfakes en estafas financieras
En un momento en el que los deepfakes se utilizan cada vez más en las estafas financieras, protegerse contra ellos es cada vez más importante. Por suerte, a medida que avanza la tecnología, también evolucionan los métodos para detectar estas estafas. Las organizaciones pueden emplear las siguientes estrategias para detectar y contrarrestar los deepfakes, que serán especialmente importantes en el ámbito de los servicios financieros.
Análisis visual
Los deepfakes, aunque sofisticados, suelen mostrar rasgos faciales incoherentes. A la IA le cuesta reproducir expresiones faciales minuciosas, movimientos oculares o incluso la forma en que interactúan el pelo y los rasgos faciales. Los algoritmos que generan deepfakes también pueden mostrar luces y sombras poco naturales. El análisis visual puede descubrir esas sombras incoherentes con la fuente de luz o reflejos que no se alinean correctamente.
Verificación
Aunque los deepfakes pueden replicar voces, también pueden contener entonaciones poco naturales, ritmos o distorsiones sutiles que saltan a la vista al escucharlos de cerca. Un software de análisis de voz puede ayudar a identificar anomalías para erradicar las falsificaciones. Implementar procesos de autenticación que superpongan códigos o preguntas de seguimiento a los comandos de voz puede ayudar a garantizar que la solicitud es auténtica. En cuanto a los archivos, los sistemas automatizados de verificación de documentos pueden analizarlos para detectar incoherencias, como fuentes alteradas o discrepancias en el diseño, que podrían indicar una falsificación.
Autenticación Multifactor
El nombre del "juego" es seguridad por capas. Añadir reconocimiento facial, de voz u otro tipo de reconocimiento biométrico añade otro obstáculo más para que un estafador se muestre, incluso si consigue hacerse pasar por una voz o un rostro. El reconocimiento de dispositivos puede ayudar a verificar que las solicitudes proceden de dispositivos previamente autenticados, y también es una opción para la autenticación multifactor.
Blockchain y firmas digitales
La tecnología Blockchain promete un registro inmutable de todas las transacciones. Mediante el uso de firmas digitales y libros de contabilidad blockchain, las organizaciones pueden implementar el seguimiento de la procedencia de las transacciones financieras para garantizar la autenticidad e integridad de las instrucciones financieras. Cualquier transacción no autorizada o manipulada carecería de la firma correcta, lo que la señalaría para su revisión.
Sea cual sea el enfoque que adopten las organizaciones, la superposición de varios factores de autenticación es fundamental para prevenir el fraude basado en deepfakes. La otra clave para una protección sólida es aplicar la verificación continua. En lugar de verificar la identidad una vez al registrarse, las organizaciones deben integrar medidas de verificación permanente durante toda la experiencia del cliente, incluso después de haber creado su cuenta. Algunas empresas recurren sistemáticamente a la verificación de la identidad, (para una seguridad sólida, es importante entender la diferencia entre autenticación y verificación), cuando una cuenta inactiva se activa repentinamente para transacciones de gran valor, o cuando los análisis pasivos indican un elevado riesgo de fraude.
Una forma de hacerlo es solicitar un selfie actual y compararlo con los datos biométricos almacenados desde la pimera incoporación del cliente (cuando el almacenamiento esté permitido por la normativa y el usuario lo autorice). En situaciones muy arriesgadas, también se puede solicitar una nueva captura del documento de identidad emitido por el gobierno y tomarse unos segundos para verificar la autenticidad del mismo, comparando su foto con la del selfie.
La buena noticia es que gobiernos, universidades y empresas tecnológicas están financiando investigaciones para crear nuevos detectores de deepfakes. Y recientemente, un gran consorcio de empresas tecnológicas ha puesto en marcha el Deepfake Detection Challenge (DFDC) para encontrar mejores formas de identificar contenidos manipulados y crear mejores herramientas de detección.
Machine learning e IA automatizan y luchan contra el fraude
Al combinar la revisión manual con sistemas automatizados para detectar y prevenir el fraude, las soluciones basadas en la IA y machine learning, o aprendizaje automático, reforzarán aún más la lucha contra el fraude. Muchos sistemas de autenticación están capacitados para el reconocimiento de patrones y la detección de anomalías. Estas soluciones son mejores y más eficientes a la hora de escanear archivos e intentos de autenticación en busca de matices que a los humanos por sí solos les costaría reconocer. Con el tiempo, la capacidad de detección de estas herramientas debería mejorar a medida que aprenden de más datos. Merece la pena profundizar en el impacto de la IA y el ML en la lucha contra el fraude.
Los defraudadores han aprendido a engañar a los métodos tradicionales de detección, que a menudo dependen de la pericia humana. Sin embargo, el aprendizaje automático, (machine learning), se ha convertido en una herramienta indispensable para detectar deepfakes, y en comparación con los métodos de detección tradicionales, pueden ofrecer:
- Análisis automatizado: se pueden analizar rápidamente grandes cantidades de datos de vídeo y audio, identificando anomalías a velocidades superiores a las capacidades humanas.
- Reconocimiento de patrones: con el tiempo, los modelos de aprendizaje automático pueden reconocer patrones característicos de los algoritmos de producción de deepfakes, identificando así contenidos manipulados.
- Aprendizaje continuo: a medida que surgen nuevos tipos de deepfakes, los modelos de machine learning pueden volver a entrenarse y adaptarse, lo que garantiza que sigan siendo eficaces a lo largo del tiempo
Las respuestas jurídicas a los delitos financieros de deepfake requieren consideraciones éticas
Algunas jurisdicciones han empezado a redactar o modificar la legislación para hacer frente a los delitos relacionados con deepfakes, especialmente cuando conducen al fraude financiero. Las penas por crear o difundir deepfakes maliciosos pueden incluir prisión y cuantiosas multas. En algunos lugares, los despachos de abogados ya colaboran con empresas tecnológicas en análisis forenses para verificar contenidos digitales, y las organizaciones de servicios financieros han mejorado sus protocolos de verificación de identidad con procesos como el Know Your Customer (KYC).
Aunque estos esfuerzos están dirigidos a frustrar el deepfake y otros tipos de fraude, conllevan problemas éticos y de privacidad. A medida que las organizaciones de los sectores público y privado avanzan en la lucha contra el fraude, tendrán que asegurarse de mantener estrictos protocolos de privacidad y seguridad de los datos cuando los recopilen, para evitar el uso no autorizado de esa información, las violaciones de datos, la infracción del anonimato o los problemas de consentimiento.
Independientemente de cómo aborden los legisladores y las organizaciones el fraude contra los deepfakes, se necesitan normas claras sobre lo que constituye el consentimiento informado y el uso correcto de los datos.
Cómo actuar en la era deepfake
Las empresas de todos los sectores pueden adoptar medidas para protegerse contra los deepfakes y otros tipos de fraude. Informar a empleados y clientes sobre los riesgos, verificar permanentemente la identidad y supervisar constantemente las transacciones son formas habituales de reforzar la seguridad frente a nuevas formas de fraude.
La celebración de sesiones de concienciación, eventos de formación con ejemplos del mundo real y la actualización de las bases de empleados y clientes sobre los nuevos tipos de fraude son métodos con los que las empresas pueden educar a los empleados y a las personas vinculadas a su organización sobre el fraude y sobre cómo identificarlo.
Los métodos de autenticación fuerte, como la autenticación multifactor (MFA), la verificación biométrica (ya sea de comportamiento, voz o cualquier otra forma de biometría) añaden capas de seguridad a cada interacción con las aplicaciones o servicios de la empresa.
Las empresas de servicios financieros también deben supervisar regularmente las transacciones financieras, algo que probablemente hacen de todos modos. Pero la supervisión del fraude, como el fraude deepfake, puede requerir procesos adicionales, como alertas automatizadas, revisiones más frecuentes de los extractos, auditorías internas e incluso un contacto más regular con los clientes en relación con transacciones potencialmente cuestionables o anómalas.
Todos estos esfuerzos son simplemente medidas que deberían aumentar los cortafuegos de ciberseguridad existentes. Las organizaciones que utilizan software antiphishing y sistemas de cortafuegos y detección de intrusiones, junto con redes privadas virtuales y actualizaciones periódicas de software, tienen muchas más posibilidades de éxito en caso de que los defraudadores llamen a la puerta.
Un ataque polifacético requiere una protección polifacética
Los deepfakes son una preocupación creciente en muchos campos, especialmente a medida que la tecnología para crearlas se vuelve más avanzada y accesible. En el ámbito del fraude financiero y la usurpación de identidad, las falsificaciones se han utilizado de diversas maneras. Las salvaguardias mencionadas ayudarán a las empresas asegurarse de que están haciendo todo lo posible para protegerse y proteger a sus clientes contra el fraude. Y puesto que los deepfakes son una amenaza polifacética para la seguridad financiera y la confianza en la era digital, su protección requiere un enfoque polifacético. La vigilancia, la investigación continua de los métodos de detección y las campañas de concienciación a gran escala son esenciales para contrarrestar este nuevo reto.
Citas en el texto:
[1] https://dl.acm.org/doi/10.1145/3351258
[2] https://arxiv.org/abs/2106.15561
[3] https://link.springer.com/chapter/10.1007/978-3-030-61702-8_1
[4] https://photutorial.com/photos-statistics/
[5] https://www.statista.com/statistics/273550/data-breaches-recorded-in-the-united-states-by-number-of-breaches-and-records-exposed/
Otras fuentes: