Presentaron una nueva herramienta contra los deepfakes



La proliferación de deepfakes transformó un riesgo marginal en una amenaza cotidiana. Videos falsificados, identidades generadas por IA y manipulaciones cada vez más sofisticadas complican la verificación de personas y procesos digitales en bancos, fintech, plataformas sociales y servicios públicos. En ese contexto, Incode Technologies presentó Deepsight, una tecnología diseñada específicamente para identificar y bloquear falsificaciones en tiempo real.


El lanzamiento llega en un momento crítico para la región. América Latina sufre 40% más ciberataques semanales que el promedio global, y 71% de las empresas señala el fraude digital como su principal preocupación, según el Reporte 2025 de Endeavor. 


Argentina se encuentra entre los tres países con más intentos de suplantación de identidad mediante IA, junto con México y Brasil, y 7 de cada 10 usuarios reconocen haber sido víctimas de una estafa digital. En ese escenario, la capacidad de diferenciar una cara real de una generada por IA dejó de ser un desafío técnico y pasó a ser un requisito de seguridad esencial.


Evalúan su precisión en Purdue: detección más exacta y menos falsos positivos

Deepsight fue evaluado por la Universidad de Purdue, referente global en ingeniería e investigación aplicada. El estudio “¿Adecuado para su propósito? Detección de deepfakes en el mundo real” analizó nueve de los sistemas comerciales más utilizados. Según los resultados, la herramienta de Incode obtuvo la mayor precisión y la menor tasa de falsos positivos, superando modelos académicos, gubernamentales y comerciales.


Shu Hu, profesor de la Facultad de Informática Aplicada y director del Laboratorio de Análisis Forense de Medios de Purdue, explicó: “Descubrimos que el detector de Incode alcanzó la mayor precisión en la identificación de muestras falsas. Este resultado sugiere una mayor solidez y fiabilidad en escenarios difíciles del mundo real”.


Para un entorno donde los ataques evolucionan rápido y en paralelo con los modelos generativos, reducir falsos positivos es tan importante como detectar falsificaciones. En procesos de verificación de identidad, un error puede significar bloquear a un usuario legítimo o permitir que un impostor ingrese al sistema.


Cómo funciona Deepsight: análisis multimodal y detección en 100 milisegundos

La tecnología se apoya en tres niveles de análisis que trabajan de manera simultánea:

  • Percepción: Evalúa el rostro e identifica patrones imposibles de replicar de forma consistente en un deepfake.
  • Integridad del dispositivo: Verifica la cámara y bloquea cámaras virtuales, inyecciones o manipulaciones de origen.
  • Comportamiento: Detecta microanomalías en movimientos, gestos y ritmo de interacción que los modelos generativos todavía no logran imitar.

El sistema procesa esa información en menos de 100 milisegundos, lo que permite usarlo en onboardings, autenticaciones continuas y verificaciones de edad sin sumar fricción al usuario.


Ricardo Amper, fundador de Incode, lo resumió así: “Los deepfakes dejaron de ser una curiosidad: hoy son un arma de fraude masiva. Cuando la identidad puede falsificarse, todo se rompe”.


Implementación en plataformas reales

Deepsight ya se utiliza en TikTok, Scotiabank y Nubank, donde participó en más de 6 millones de sesiones de identidad en vivo. Ese dato es relevante porque la eficacia en entornos reales suele ser distinta a la observada en laboratorio: iluminación variable, cámaras de mala calidad o conexiones inestables suelen complicar la detección.


Roman Karachinsky, Chief Product Officer de Incode, planteó el desafío de fondo: “Determinar si alguien es real se está convirtiendo en uno de los desafíos tecnológicos más importantes de la era digital”


Con la expansión de la IA generativa y los modelos capaces de replicar voces, rostros y comportamientos, la frontera entre lo real y lo sintético se vuelve más delgada. Para empresas que dependen de validar identidades a distancia, la detección automatizada de deepfakes ya no es opcional.


Un problema que seguirá creciendo

La aparición de herramientas capaces de generar videos realistas en segundos anticipa un escenario donde la verificación humana será insuficiente. En ese contexto, sistemas como Deepsight buscan ofrecer un nivel adicional de protección en procesos sensibles como:

  • validación KYC
  • autenticación continua
  • verificación de empleados
  • controles de edad
  • onboarding digital

El crecimiento de los deepfakes obliga a rediseñar la seguridad digital. Hoy, la pregunta clave dejó de ser si una imagen o un video parecen reales: lo importante es comprobarlo con evidencia técnica. Y esa verificación empieza a requerir la misma IA que impulsa las falsificaciones.

Artículo Anterior Artículo Siguiente