Deepfake-as-a-Service: lo que cambia para las empresas con el mercado clandestino
Este artículo ha sido redactado con fines exclusivamente informativos y didácticos. No constituye asesoramiento jurídico y no puede sustituir la opinión de un profesional del derecho. La información presentada refleja el estado de la legislación en la fecha de publicación y puede evolucionar.
Los deepfakes cuestan hasta 400× menos que en 2020 y engañan a los humanos en el 55 % de los casos según estudios de terceros. Análisis del mercado DFaaS y de los riesgos para las empresas.
La Dark Web vende deepfakes listos para usar: ¿su empresa aún puede detectarlos?
Introducción
Un responsable de cumplimiento recibe un vídeo de un directivo solicitando una validación urgente. El rostro resulta familiar, la voz también. La solicitud parece coherente con una operación en curso. Unos minutos después, se desencadena una transferencia financiera. El problema aparece solo a posteriori: la persona en pantalla nunca participó en la llamada.
La magnitud del mercado de deepfakes criminales
El desarrollo de los deepfakeMedio sintético generado o modificado por inteligencia artificial para imitar a una persona real en una imagen, un vídeo o una grabación de audio. ya no es un fenómeno marginal. Se trata ahora de una economía estructurada.
El modelo que domina hoy se denomina Deepfakes-as-a-Service. Esto significa que los defraudadores pueden comprar o alquilar herramientas de creación de deepfakes sin competencias técnicas particulares.
En la práctica, la barrera de entrada se ha derrumbado.
Según una publicación de Kaspersky de 2025, el coste de producción de un deepfake se habría dividido aproximadamente por 400 entre 2020 y 2025. [Kaspersky — Deepfake services are now 400 times cheaper (2025)]
Según datos de plataformas especializadas en ciberseguridad, un clon de voz utilizable para un fraude telefónico podría generarse por 1 a 30 dólares en algunas plataformas clandestinas. [DeepStrike — Deepfake Statistics 2025 (2025)]
Además, según un estudio publicado por la James Cook University en 2025, la precisión media de los humanos para distinguir un deepfake de un contenido real sería de alrededor del 55 %, apenas más que el azar. Estas cifras proceden de investigación de terceros y no constituyen una validación del rendimiento de nuestras propias herramientas. [James Cook University — Human Performance in Deepfake Detection (2025)]
Para las empresas, la consecuencia es directa: el fraude sofisticado se vuelve barato e industrializable.
Por qué las empresas se convierten en objetivos prioritarios
La digitalización masiva de los procesos de identidad
Las empresas se apoyan ahora en procedimientos de identificación digitales como el KYCKnow Your Customer: proceso regulatorio utilizado por las instituciones financieras para verificar la identidad de sus clientes y prevenir el fraude y el blanqueo de capitales.. Estos procesos automatizados aceleran la apertura de cuentas o el onboarding de clientes.
Pero también introducen una superficie de ataque: documentos falsificados, vídeos manipulados e identidades sintéticas.
La ingeniería social aumentada por la IA
Los deepfakes permiten reforzar ataques ya conocidos, por ejemplo:
- fraude del CEO
- estafa telefónica
- validación fraudulenta de un pago
- acceso a sistemas internos
En estos escenarios, la imagen y la voz sirven como prueba aparente de autenticidad.
La convergencia entre fraude documental e IA generativa
Los mercados de la Dark Web ofrecen ahora paquetes de identidad sintética que combinan documentos de identidad falsos, fotos generadas por IA, muestras de voz y vídeos de verificación biométrica. Esta combinación hace que los fraudes sean más difíciles de detectar con controles clásicos.
Por qué fallan las defensas actuales
La mayoría de las organizaciones aún se apoyan en dos tipos de protección: la verificación humana y las herramientas de reconocimiento documental. Estos enfoques presentan límites estructurales.
El análisis humano es lento y vulnerable a sesgos cognitivos. Cuando una solicitud parece provenir de un directivo o de un socio conocido, el cerebro humano activa lo que los psicólogos llaman sesgo de verdad: la tendencia a creer lo que vemos.
Las tecnologías tradicionales también presentan fallos. Los sistemas de reconocimiento documental o los motores OCROptical Character Recognition: tecnología que permite extraer automáticamente texto de un documento escaneado. suelen verificar la presencia de información, pero no su autenticidad. Sin embargo, un deepfake moderno puede reproducir perfectamente la apariencia de un documento o de un rostro.
5 signos concretos de un documento falsificado
Incluso las falsificaciones sofisticadas pueden dejar huellas. Estas son cinco anomalías observadas con frecuencia por expertos en forensia digital:
- Incoherencias de luz — Las sombras o reflejos no corresponden al entorno del documento.
- Texturas de piel artificiales — Los rostros generados por IA a veces presentan transiciones de textura irregulares.
- Metadatos incoherentes — El archivo revela un historial de modificaciones incompatible con la fecha del documento.
- Tipografías incompatibles — Algunos caracteres proceden de fuentes inexistentes en documentos oficiales.
- Compresión anómala de la imagen — Las zonas modificadas presentan firmas digitales diferentes.
Estas anomalías suelen ser invisibles al ojo humano, pero pueden ser detectadas por modelos de IA.
Escenario ilustrativo: intento de fraude durante un onboarding bancario
Este escenario es totalmente ficticio y se presenta únicamente con fines ilustrativos. No describe un caso real de cliente. Pretende ilustrar el tipo de ataques que las tecnologías de análisis forense pueden estar diseñadas para detectar.
1 — El contexto
Un banco minorista europeo propone la apertura de cuentas totalmente en línea. Un nuevo cliente presenta un documento de identidad y un justificante de domicilio durante el proceso de onboardingProceso de incorporación de un nuevo cliente o usuario a un sistema o servicio.. Los documentos parecen correctos, el selfie en vídeo se valida. La solicitud está a punto de ser aceptada.
2 — Lo que una solución de análisis forense puede detectar
En este tipo de escenario, una solución forense está diseñada para identificar anomalías como:
- Un face-swap en la foto del documento (rostro sustituido por un rostro generado por IA)
- Incoherencias en los metadatos que revelan el uso de un software de retoque
- Una dirección ya asociada a expedientes fraudulentos conocidos
3 — Acciones posibles en caso de detección
Cuando se identifican anomalías, el sistema puede, según su configuración, bloquear automáticamente la activación de la cuenta, desencadenar una alerta al equipo de cumplimiento y al MLROMoney Laundering Reporting Officer: responsable de cumplimiento y de la lucha contra el blanqueo de capitales en una organización., y remitir el expediente para verificación manual.
4 — Comparación de situaciones
Los resultados reales pueden variar según las configuraciones, los casos de uso y las especificidades de cada organización.
Este tipo de ataque corresponde a lo que las autoridades describen como fraude de identidad sintética, un fenómeno documentado por varios organismos de lucha contra la criminalidad financiera.
Detección DeepForgery: tres niveles de análisis
Nivel 1 — Análisis de la señal visual
Cada imagen contiene una estructura matemática invisible. Cuando se modifica un elemento, esta estructura puede cambiar. El motor DeepForgery está diseñado para analizar estas variaciones, como un escáner médico que busca anomalías en un tejido.
Nivel 2 — Análisis de la estructura del archivo
Un archivo digital contiene un historial técnico. El motor examina en particular el orden de las modificaciones, las herramientas potencialmente utilizadas, los metadatos técnicos y las capas de imagen. Este análisis puede revelar manipulaciones invisibles en la imagen final.
Nivel 3 — Análisis de coherencia lógica
El sistema puede comparar la información con bases de datos de referencia, por ejemplo para identificar una dirección ya asociada a fraudes, detectar una incoherencia entre un documento y un perfil de cliente o reconocer un patrón de fraude ya observado.
DeepForgery Media y DeepForgery Documents
DeepForgery Documents está diseñado para analizar la autenticidad de archivos y documentos digitales. DeepForgery Media está diseñado para detectar manipulaciones en imágenes, vídeos y grabaciones de audio. Ambas tecnologías pueden funcionar juntas para cubrir distintos vectores de fraude vinculados a identidades digitales.
FAQ
¿Pueden los sistemas DeepForgery analizar diferentes tipos de documentos?
Los motores están diseñados para analizar varios formatos: imágenes, PDF, vídeos o grabaciones de audio. Pueden utilizarse para detectar falsificaciones en documentos de identidad, justificantes administrativos o medios utilizados durante un proceso de autenticación. Las capacidades reales dependen de las configuraciones y de los casos de uso específicos.
¿En qué se diferencia este enfoque de un simple OCR o de una verificación manual?
Un motor OCR lee el texto de un documento. No verifica si ese documento es auténtico. La detección forense analiza la estructura visual y técnica del archivo para buscar manipulaciones potencialmente invisibles. No sustituye al juicio humano, pero puede complementarlo.
¿La integración perturba los procesos existentes?
Los motores están diseñados para integrarse en los flujos existentes de verificación de identidad u onboarding. Analizan los documentos en segundo plano y devuelven una puntuación de riesgo. Las modalidades exactas de integración dependen de cada entorno técnico.
Lo que los equipos pueden ganar concretamente
- Análisis automatizado de documentos y medios en busca de señales de falsificación
- Contribución potencial a la reducción del riesgo de fraude documental
- Generación de pruebas técnicas utilizables en auditorías regulatorias
- Análisis rápido, compatible con procesos a gran escala
Los beneficios concretos dependen del contexto de despliegue, de la configuración y de los casos de uso de cada organización.
Conclusión
Los deepfakes ya no son una curiosidad tecnológica. Hoy constituyen una infraestructura criminal accesible, capaz de producir identidades y medios sintéticos a muy bajo coste.
Al mismo tiempo, las regulaciones financieras y de protección de datos exigen controles de identidad cada vez más estrictos. Las organizaciones tienen interés en dotarse de mecanismos que les permitan reforzar la detección del fraude documental.
Cuando un documento falsificado se identifica aguas arriba, no genera una investigación regulatoria, una pérdida financiera ni una crisis de confianza. Simplemente se aparta del proceso.