La llegada de deepfakes y contenido sintético ha obligado a plataformas, reguladores y empresas a replantear cómo verifican identidades y protegen a usuarios y activos. Ante el aumento de fraudes basados en audio y vídeo sintético en 2024 y 2025, la verificación tradicional por sí sola ya no es suficiente.
En este artículo repasamos la normativa emergente, las tecnologías de procedencia y detección, las limitaciones actuales, los nuevos vectores de ataque y las mejores prácticas operativas que las organizaciones están adoptando para enfrentar la amenaza de deepfakes.
Normativa y obligaciones recientes
En el ámbito regulatorio hay dos hitos recientes que marcan la hoja de ruta para plataformas y empresas. En la Unión Europea la AI Act exige transparencia y trazabilidad para contenido sintético mediante marcado legible por máquina, y fija la plena aplicabilidad de obligaciones, incluida la identificación y etiquetado de deepfakes, a partir del 2 de agosto de 2026.
En Estados Unidos, el TAKE IT DOWN Act (S.146 / P.L. 119‑12) fue firmado el 19 de mayo de 2025 y obliga a plataformas cubiertas a procedimientos de notificación y retirada rápida de imágenes íntimas no consentidas y deepfakes, con requisitos de cumplimiento que entran en vigor durante 2025 y 2026.
Además de estas leyes, múltiples jurisdicciones , Italia, Dinamarca, Corea del Sur, India y estados federales como California, han propuesto o aprobado normas que exigen etiquetado, retirada o penalidades. Las empresas globales deben mapear estos requisitos por fecha y territorio para evitar riesgos regulatorios.
Cómo verifican las plataformas identidades
Las plataformas han adoptado estrategias mixtas: etiquetado de contenido (“Made with AI” o “Manipulated Media”), reducción selectiva de takedowns y paneles de contexto. Por ejemplo, Meta amplió su etiquetado en 2024 y otras redes como X experimentaron con etiquetas y paneles en 2025 y 2026.
En cuanto a verificación técnica, las plataformas combinan detección automática, señales de procedencia, y escalado a revisión humana. La atadura de identidad al dispositivo (device‑binding) y la telemetría son usadas para vincular credenciales con un entorno operativo más difícil de falsificar.
Los sistemas de verificación comercializados por proveedores de identidad y liveness , Paravision, FaceTec, Keyless, iProov, Onfido, entre otros, incorporaron en 2024, 2026 herramientas específicas para detectar deepfakes, liveness 3D y protecciones contra presentation e injection attacks.
Tecnologías de procedencia y watermarking
La Coalición para la Procedencia y Autenticidad de Contenidos (C2PA) impulsa “Content Credentials” y especificaciones interoperables para firmar y verificar el origen y las ediciones de imágenes y vídeo. Implementaciones y versiones 2.x se han ido desplegando entre 2025 y 2026, y fabricantes y plataformas empiezan a adoptarlas.
Además del manifiesto C2PA, emergen dos familias de marcas: watermarking perceptible e invisibles robustas y firmas criptográficas atadas al punto de creación. Proyectos piloto con fabricantes como Sony y cámaras compatibles con C2PA muestran cómo integrar estas señales desde la captura.
No obstante, hay límites prácticos: estudios de 2026 muestran tensiones entre marcas invisibles y manifiestos criptográficos (problemas denominados “integrity clash”), y ataques que buscan generar señales contradictorias que compliquen la verificación automática.
Limitaciones de detectores y medición estandarizada
Aunque existen detectores cada vez más sofisticados, benchmarks “in‑the‑wild” indican que su desempeño cae frente a deepfakes modernos. Deepfake‑Eval‑2024 reportó que el AUC de detectores SOTA cayó aproximadamente 50% en modelos de vídeo respecto a benchmarks previos.
El NIST trabaja para mejorar la medición y la estandarización: publica tareas y planes como OpenMFC y el GenAI pilot 2025, y ofrece guías sobre detección de morphs y evaluación de discriminadores. Estas iniciativas buscan crear pruebas reproducibles para comparabilidad y gobernanza.
La conclusión es clara: los detectores actuales no son universalmente robustos. Se necesitan métricas estandarizadas, pruebas en condiciones adversariales y evaluación en poblaciones diversas para entender tasas de error reales en operaciones a escala.
Nuevas tácticas de ataque y retos operativos
Los atacantes han evolucionado: en 2024 y 2025 se documentaron kits de “deepfake‑as‑a‑service” y ataques de inyección (injection attacks) que alimentan directamente las canalizaciones de verificación con vídeo o audio sintético. Estas tácticas pueden eludir liveness tradicional si no hay defensas específicas.
Los investigadores y proveedores han alertado sobre presentation & injection attacks, y algunos vendors presumen de programas de bounty y certificaciones para reforzar protecciones. Aun así, casos prácticos muestran que sistemas supuestamente seguros son burlados con rapidez: Reality Defender afirmó haber eludido controles de Sora en cuestión de horas.
Ante estos retos, las defensas requieren detección de inyección, telemetría de dispositivo, análisis multi‑modal y procedimientos operativos que combinen automatización y revisión humana escalada.
Casos reales e impacto económico
El aumento de fraudes con deepfakes se refleja en informes de la industria (Pindrop, Resemble.ai, Entrust) y entes internacionales: picos de ataques en 2024 y 2025 y estimaciones de pérdidas crecientes motivaron alertas para sectores financieros y de tesorería.
Un caso emblemático fue el fraude documentado en 2024/2025 que afectó a Arup en Hong Kong, donde un empleado autorizó transferencias por aproximadamente US$25 millones tras un videollamado en que los interlocutores eran deepfakes. El caso, cubierto por FT y CNBC, fue citado por autoridades como una llamada de atención para KYC y tesorería.
Gartner predijo que para 2026 el 30% de las empresas considerarían la verificación de identidad por sí sola “no fiable” frente a deepfakes, lo que empuja a remodelar procesos de control, gobernanza y seguros cibernéticos.
Buenas prácticas y recomendaciones empresariales
Organizaciones como NIST, WEF y proveedores como Entrust recomiendan una defensa en profundidad: combinar passkeys y biometría, telemetría de dispositivo, señales de procedencia (C2PA), detección de inyección y procesos legales y operativos para notificación y retirada ágil conforme a leyes como TAKE IT DOWN.
Las pruebas piloto y despliegues muestran que la combinación de capas reduce riesgo: watermarking desde la captura, firmas criptográficas, device‑binding, análisis conductual y revisiones humanas escaladas. Estas capas deben integrarse en flujos de trabajo y auditorías internas para ser efectivas a escala.
Quedan áreas críticas por verificar: la efectividad real y la escalabilidad de C2PA en redes sociales, la robustez del watermarking ante recodificaciones y recortes, la detección multimodal bajo ataques adversariales, y métricas de error en poblaciones diversas. NIST y desafíos académicos 2024, 2026 priorizan estas investigaciones.
La lucha contra deepfakes exige esfuerzos coordinados entre reguladores, plataformas, fabricantes, proveedores de identidad y la comunidad de investigación. Las leyes como la AI Act (aplicabilidad principal 02/08/2026) y el TAKE IT DOWN Act (firmado 19/05/2025) marcan plazos que las empresas deben incorporar en sus hojas de ruta de cumplimiento.
En definitiva, no existe una única solución milagrosa: la resiliencia frente a deepfakes pasa por la combinación de tecnología de procedencia, detección mejorada, gobernanza clara y procesos operativos que incluyan respuesta rápida y responsabilidad. Adaptarse pronto reducirá riesgos financieros, reputacionales y legales.
