Detección IA Gestión de riesgos

Memorandos falsificados: la inteligencia artificial al servicio del sabotaje interno

Matteo Chevalier

Este artículo ha sido redactado con fines exclusivamente informativos y didácticos. No constituye asesoramiento jurídico y no puede sustituir la opinión de un profesional del derecho. La información presentada refleja el estado de la legislación en la fecha de publicación y puede evolucionar.

Mémos Falsifiés : L'Intelligence Artificielle au Service du Sabotage Interne

Tus documentos internos pueden falsificarse en dos minutos — y tus equipos no lo verán

Lo que no ves puede destruir tu organización

Un memorando llega a la bandeja de entrada de un periodista. Lleva el membrete oficial de una agencia gubernamental, los nombres correctos, las tipografías correctas. Parece urgente. Es completamente falso: producido por una máquina en menos de dos minutos.

Ya no es un escenario hipotético. Actores maliciosos lo hacen hoy, cada día, contra redacciones, instituciones financieras, ministerios y equipos de cumplimiento. Y la amenaza ha cambiado de naturaleza: ya no procede solo de Estados extranjeros. También procede de redes partidistas, operadores financiados desde el extranjero mediante montajes opacos y actores que utilizan las reglas de la democracia —derecho a la información, libertad de prensa— como herramientas de ataque.

La magnitud real del problema

El fraude con documentos falsificados por inteligencia artificial cruzó un umbral crítico entre 2024 y 2025. Ya no es un fenómeno reservado a operaciones de espionaje estatal. Es una amenaza diaria para cualquier organización que trate documentos, identidades o información.

+200 %: aumento de los fraudes documentales que usan rostros sintéticos en un año [Resemble AI — Deepfake Incident Database (2025)]

Cómo la opinión pública se convirtió en un objetivo industrial

Las elecciones: un laboratorio a escala real

En 2024 y 2025, más de 4.000 millones de votantes en más de 60 países acudieron a las urnas [Hany Farid — Deepfakes in the 2024 US Presidential Election (2024)]. Esta concentración histórica convirtió las herramientas de creación de falsos en armas al alcance de cualquiera. Los comités de acción política, las campañas nacionales y las potencias extranjeras utilizaron exactamente las mismas tecnologías.

La producción de falsos se volvió industrial

Los actores maliciosos ya no trabajan solos en su rincón. La campaña rusa conocida como DoppelgängerOperación de desinformación rusa documentada, que utiliza cientos de sitios falsos y cuentas coordinadas para inundar a periodistas y verificadores con documentos falsos. movilizó 673 canales de mensajería y más de 11.000 cuentas para inundar a los periodistas con documentos falsos [CheckFirst — Operation Overload 2 (2025)]. El objetivo no era convencer: era agotar a los equipos de verificación.

Las herramientas ya están al alcance de cualquiera

Lo que requería medios profesionales en 2020 es gratuito en 2025. El clon de vozTecnología que permite reproducir la voz de una persona real a partir de una breve grabación de audio, para hacerle decir frases que nunca pronunció. solo necesita unos segundos de grabación. Generar un documento oficial falso lleva unos minutos. Tu organización puede ser objetivo de cualquiera con una conexión a internet.

Los tres mecanismos de ataque que debes conocer

  1. La amplificación partidista coordinada

Cuentas afiliadas a movimientos políticos radicales utilizan los contenidos fabricados no como un fin en sí mismo, sino como combustible. El mecanismo es simple: producir en masa montajes de audio, vídeo o documentos incriminatorios, inyectarlos simultáneamente en cientos de cuentas coordinadas y luego comentar y compartir cada pieza presentándose como periodistas independientes.

Producir es casi gratis. Detectar a gran escala no lo es.

Ahí reside precisamente la asimetría peligrosa: los atacantes no necesitan eludir la detección, necesitan hacerla económicamente insostenible. Por tanto, la respuesta adecuada no es fingir que se puede escanear todo, sino identificar los puntos de entrada prioritarios en tu organización y concentrar allí los controles.

  1. Los falsos periódicos locales («pink slime networks»)

Cientos de sitios web están diseñados para parecer periódicos locales independientes, cuando en realidad solo difunden contenido ideológico fabricado algorítmicamente.

En junio de 2024, el número de estos sitios falsos en Estados Unidos había alcanzado 1.265, superando por primera vez el número de periódicos locales reales aún en actividad, estimado en 1.213 [NewsGuard — Pink Slime Report (2024)]. Estos sitios adoptan nombres locales aparentemente inocuos, calculados para imitar la tipografía tranquilizadora de una prensa de proximidad construida durante décadas.

Según el Tow Center for Digital Journalism, una de estas redes habría publicado más de 1,3 millones de artículos a lo largo de 2025, y su fundador declaró querer ampliar la infraestructura a diez mil sitios [Tow Center for Digital Journalism — Pink Slime Journalism (2025)]. Más del 90% de los artículos difundidos son generados por ordenador sin ningún trabajo editorial real.

Hasta 2023, esta producción estaba limitada por su coste marginal. La integración de grandes modelos de lenguaje en estos pipelines eliminó ese freno. Resultado: ya no solo artículos sesgados sobre hechos reales, sino artículos creíbles sobre hechos que no ocurrieron, apoyados en documentos visuales y de audio fabricados.

  1. Financiación extranjera ocultada en intermediarios domésticos

El 4 de septiembre de 2024, el Departamento de Justicia estadounidense inculpó a dos ciudadanos rusos, empleados de un medio estatal, por haber canalizado aproximadamente 10 millones de dólares hacia una empresa estadounidense con el objetivo de difundir mensajes del gobierno ruso a audiencias estadounidenses [DOJ — Two Russian Nationals Charged (2024)].

La empresa en cuestión, Tenet Media, es una red de comentaristas con sede en Tennessee. Los fondos se ocultaban tras la identidad ficticia de un «inversor europeo adinerado», un personaje inventado por completo para ocultar el origen del dinero ante los influencers reclutados. Los contenidos producidos acumularon más de 16 millones de visualizaciones, impulsados por personalidades con varios millones de seguidores.

Comprar influencers reales es una inversión mucho mejor que fabricar perfiles falsos: aportan su propia audiencia de confianza.

El último giro: utilizar tus propias reglas contra ti

El vector más reciente y menos documentado no tiene que ver con la técnica. Tiene que ver con el derecho.

Dos días después de las elecciones de noviembre de 2024, una red de falsos periódicos locales comenzó a presentar miles de solicitudes de acceso a documentos públicos: 1.114 solicitudes dirigidas a cada municipio de Wisconsin en pocos días [SEJ — How Pink Slime Publishers Are Weaponizing FOIA (2025)]. A lo largo del año, esa misma red habría presentado más de 9.000 solicitudes, al tiempo que ofrecía a sus clientes un catálogo completo de servicios —creación de sitios, publicidad, solicitudes de documentos públicos, robocalls, SMS— facturados a comités de acción política [Columbia Journalism Review — Metric Media FOIA (2025)].

Los actores hostiles ya no atacan a las instituciones solo por canales ilegales. Utilizan las reglas de esas instituciones como superficie de ataque. Ningún marco regulatorio existente está hoy diseñado para responder a esta táctica.

Por qué tus defensas actuales ya no bastan

La verificación humana ha llegado a su límite. Un analista experimentado no puede identificar de forma fiable un falso de alta calidad a la vista o al oído. Las herramientas actuales de generación producen contenidos cuyas anomalías solo son visibles mediante análisis algorítmico.

Un estudio realizado por la Unión Europea de Radiodifusión en 14 idiomas revela que el 45% de las respuestas proporcionadas por asistentes de IA sobre la actualidad política presenta al menos un problema significativo de exactitud [EBU — AI assistants misrepresent news content 45% of the time (2025)]. Las herramientas que usan tus equipos para informarse pueden, ellas mismas, orientarlos hacia datos erróneos.

El gobierno estadounidense dispone de herramientas para combatir campañas de influencia extranjera, pero de ningún mecanismo claro para tratar la desinformación producida por entidades financiadas en apariencia de forma doméstica. En Europa, el DSADigital Services Act: reglamento europeo que impone obligaciones a las grandes plataformas digitales para luchar contra los contenidos ilícitos y la desinformación. impone obligaciones a las plataformas muy grandes, pero no a los miles de sitios de tamaño medio que constituyen la columna vertebral de las redes de falsos periódicos locales.

Marco jurídico y vías de recurso: lo esencial

Las obligaciones aplicables, los plazos de retirada y las vías de recurso varían según la plataforma, las reglas electorales o mediáticas implicadas, el derecho nacional y la jurisdicción competente. El punto decisivo sigue siendo la capacidad de documentar con rapidez si un contenido es auténtico o ha sido alterado, y de conservar pruebas utilizables.

En este contexto, el análisis forense debe presentarse como un apoyo para la calificación, la notificación y la prueba, y no como un sustituto de una decisión judicial, regulatoria o de un asesoramiento jurídico formal.

Escenario real: un memorando oficial falso interceptado antes de su publicación

Este escenario ilustra una técnica de ataque documentada en los informes de 2025 del Servicio Europeo de Acción Exterior (EEAS) y del US Cyber Command [US Cyber Command — Russian Disinformation Campaign Doppelgänger Unmasked (2024)].

Contexto

Una redacción especializada en actualidad geopolítica recibe un documento presentado como un memorando interno de una agencia gubernamental estadounidense. Afirma que la agencia financia en secreto programas de comunicación destinados a influir en la opinión pública de un país extranjero. El remitente imita la dirección de correo de un periodista independiente conocido por la redacción. Dos periodistas sénior lo consideran potencialmente publicable.

Lo que detecta el análisis algorítmico

Anomalía 1 — Generación sintética: los datos internos del archivo revelan una creación nocturna con una herramienta de producción de documentos sintéticos, incompatible con los horarios de trabajo de la sede de la agencia en Washington.

Anomalía 2 — Tipografía no conforme: los caracteres del encabezado presentan microdeformaciones invisibles a la lectura. La tipografía es una aproximación generada, no la tipografía institucional certificada de la agencia.

Anomalía 3 — Ausencia de referencia en los archivos: el número de referencia que figura en el memorando no corresponde a ningún documento indexado. La estructura del documento presenta similitudes con plantillas identificadas en campañas de desinformación documentadas.

Sin control automatizado

  • Publicación de un falso, con los riesgos jurídicos y reputacionales asociados
  • Responsabilidad editorial potencialmente comprometida
  • Crisis interna, gestión de urgencia
  • Riesgo de no conformidad con el DSA

Con un control automatizado integrado en el pipeline

  • Ninguna publicación fraudulenta, ningún coste de remediación
  • Prueba documentada de un proceso de verificación activo
  • Equipo centrado en el trabajo editorial
  • Conformidad con el DSA demostrada mediante trazabilidad forense

Cómo integrar la detección en tus procesos críticos

La detección de contenidos sintéticos es significativamente más eficaz aguas arriba que reaccionar después de la difusión o tras un incidente.

DeepForgery se integra directamente en tus workflows de tratamiento de documentos críticos, según dos modos de integración:

Vía APIInterfaz de programación que permite que dos sistemas informáticos se comuniquen entre sí, aquí para conectar DeepForgery a tus herramientas existentes de moderación o verificación documental.: conexión directa a tus herramientas de moderación, verificación documental o gestión de contenidos existentes. Cada documento, imagen, vídeo o archivo de audio enviado se analiza antes de llegar a la etapa de validación o publicación. El resultado adopta la forma de una puntuación de confianza acompañada de una explicación legible: qué anomalía se detectó, en qué parte del contenido y con qué nivel de certeza, sin ralentizar tu flujo de tratamiento.

En modo on-premiseDespliegue de un software directamente en los servidores internos de tu organización, sin tránsito de datos a servidores externos, para entornos sometidos a estrictas exigencias de confidencialidad.: para entornos sometidos a estrictas exigencias de confidencialidad o soberanía de datos (sector financiero, defensa, instituciones públicas), DeepForgery puede desplegarse completamente en tu infraestructura interna, sin tránsito de datos hacia el exterior.

Lo que aporta la integración en la práctica

  • Una señal clara para cada contenido entrante, antes de cualquier decisión humana
  • Una trazabilidad documentada de cada análisis, utilizable como prueba de conformidad
  • Modelos actualizados de forma continua a partir de nuevas generaciones de herramientas de generación identificadas en incidentes documentados

Una capa de control que completa el juicio editorial humano sin sustituirlo ni ralentizarlo

Lo que esta amenaza te dice sobre lo que viene

Los contenidos sintéticos y el fraude documental por inteligencia artificial ya no constituyen un riesgo emergente. Forman una infraestructura de ataque operativa, utilizada a diario por actores que van desde un competidor malintencionado hasta Estados que orquestan campañas de injerencia documentadas a escala internacional.

Lo que revela el caso Tenet Media —y lo que confirman las redes de falsos periódicos locales— es que la amenaza tiene ahora una geografía híbrida: nace dentro de las fronteras legales, se financia desde fuera y utiliza las instituciones democráticas como vector. No elude las reglas: las explota.

El marco aplicable a los contenidos sintéticos, la gobernanza de plataformas y los controles internos sigue evolucionando. Las organizaciones deberían alinear sus procedimientos con las reglas aplicables a su sector y hacer validar las obligaciones concretas por sus equipos jurídicos o de compliance.

Cuando un documento oficial falso se identifica y se bloquea antes de llegar a tu pipeline editorial o a tu proceso de validación, no genera ni publicación fraudulenta, ni riesgo jurídico, ni crisis reputacional. Desaparece, silenciosamente, como si nunca hubiera existido.

Empieza gratis ahora Registrate en 2 minutos y prueba DeepForgery con tus primeros documentos. 5 analisis gratis por dia Sin tarjeta bancaria Activacion inmediata Probar gratis
#IA #Deepfake #Documentos oficiales #RiskOps