Deepfakes al desnudo: nueva tecnología combate el fraude de identidad por inteligencia artificial

La explosión de la IA generativa y de herramientas accesibles al público derribó casi todas las barreras técnicas para producir deepfakes

Actualidad02 de diciembre de 2025TechinfoTechinfo
WhatsApp Image 2025-12-06 at 18.58.15

La irrupción de los deepfakes marcó un punto de quiebre en la confianza digital: dejaron de ser una curiosidad tecnológica para convertirse en un arma de fraude masiva que ataca el corazón de la identidad. En ese escenario emerge una nueva tecnología, cuyo objetivo declarado es "defender la realidad misma" y establecer un nuevo estándar mundial en la detección y bloqueo de suplantaciones generadas por inteligencia artificial (IA).

Qué es un deepfake y por qué importa
Un deepfake es un contenido audiovisual falso creado con técnicas avanzadas de inteligencia artificial que permite imitar de forma hiperrealista el rostro, la voz y los gestos de una persona real. Estas falsificaciones se generan mediante modelos de IA entrenados con miles de imágenes y audios, capaces de aprender patrones de expresión, entonación y movimiento al punto de engañar no solo a observadores humanos, sino también a sistemas de verificación automatizados.

La explosión de la IA generativa y de herramientas accesibles al público derribó casi todas las barreras técnicas para producir estos contenidos: hoy basta una foto o un breve clip de voz para sintetizar un video o un audio convincente en minutos y a muy bajo costo. Esta ampliación de la capacidad de falsificación está desplazando el problema desde los laboratorios de investigación hacia el día a día de empresas, bancos, gobiernos y usuarios comunes, que ya no pueden confiar ciegamente en lo que ven o escuchan en pantalla.

Cuando los sistemas automáticos que mueven dinero, abren cuentas o autorizan transacciones no distinguen entre una persona real y una identidad sintética generada por IA, el riesgo deja de ser teórico y se vuelve estructural. Ricardo Amper, fundador y director general ejecutivo de la empresa Incode, una plataforma de verificación de identidad y autenticación biométrica, en el momento en que la identidad puede falsificarse "todo se rompe": contratos, pruebas, reputaciones y decisiones se construyen sobre una realidad manipulable.

Cómo operan los fraudes con deepfakes
Los ciberdelincuentes aprendieron a explotar la brecha entre la sofisticación de los modelos de IA generativa y la relativa fragilidad de los sistemas tradicionales de verificación de identidad. Allí donde antes se exigía la presencia física o controles biométricos presenciales, hoy abundan procesos remotos basados en selfies, videos cortos o llamadas de verificación que se han vuelto el blanco ideal de la ingeniería delictiva.

Uno de los vectores en crecimiento es el uso de identidades sintéticas: perfiles enteros generados por IA —rostros que no pertenecen a ninguna persona real, documentos manipulados y datos parcialmente verídicos— diseñados para pasar por clientes legítimos. Combinando documentos falsos de alta calidad con rostros creados por modelos generativos, los atacantes intentan eludir los controles KYC (Know Your Customer) de bancos, fintechs y plataformas de servicios.

Otro método en auge es el enmascaramiento mediante filtros de deepfake y videos pregrabados durante procesos de verificación en vivo. En lugar de mostrar su rostro real a la cámara, el atacante utiliza una superposición en tiempo real que proyecta la cara de otra persona (un cliente legítimo, un ejecutivo o incluso una celebridad) sobre su propia imagen. De este modo puede mover la cabeza o parpadear mientras el sistema "ve" a alguien más, lo que complica la detección con métodos básicos de prueba de vida.

Detrás de estas escenas, los criminales recurren a técnicas de inyección de video cada vez más refinadas. Una de las más dañinas consiste en instalar una "cámara virtual" en un dispositivo modificado (por ejemplo, un teléfono móvil liberado) que no muestra lo que ve la cámara física, sino el flujo de un deepfake preproducido o generado en tiempo real. Desde la perspectiva de la aplicación de verificación, todo parece normal: recibe una señal etiquetada como "cámara frontal" y no tiene forma de saber que lo que llega es un archivo inyectado.

La escala del problema crece de forma acelerada. En el mundo corporativo y financiero se reporta un aumento de hasta siete veces en los ataques de deepfake y de inyección dirigidos a procesos de verificación remota y operaciones sensibles. En paralelo, América latina enfrenta un contexto especialmente crítico: la región sufre alrededor de un 40% más de ciberataques semanales que el promedio global y el 71% de las empresas ya identifica el fraude digital como su principal amenaza.

En países como la Argentina, México y Brasil, el impacto de la IA generativa en el fraude se deja sentir con especial fuerza. Estas tres economías se ubican entre las que registran más intentos de suplantación de identidad en la región. En este terreno fértil para el crimen digital, los deepfakes se suman a un ecosistema de fraudes ya existente, aumentando el potencial de daño económico, reputacional y social.

 

Tres capas para defender la realidad
En este contexto, Incode presentó este martes Deepsight como "la defensa contra deepfakes más precisa del mundo", una arquitectura multimodal diseñada para detectar y bloquear deepfakes, cámaras virtuales, inyecciones y ataques de identidad sintética en menos de 100 milisegundos.

La herramienta se integra en la plataforma Incode Identity y analiza video, movimiento, comportamiento del usuario y datos de profundidad para decidir si una identidad es real o una fabricación de IA, con la promesa de hacerlo sin fricción visible para el usuario legítimo. El núcleo de Deepsight se organiza en tres capas de defensa que trabajan de manera simultánea:

Capa de comportamiento
Esta capa observa cómo se comporta el supuesto usuario en tiempo real, identificando microanomalías en la interacción humana que los deepfakes y bots no pueden replicar con precisión. Analiza patrones de movimiento, tiempos de reacción, ritmo de los gestos y otras señales sutiles que revelan si la persona frente a la cámara actúa de manera orgánica o si se trata de una reproducción sintética.

Muchas de estas variaciones son imperceptibles a simple vista, pero se vuelven evidentes para modelos especializados que comparan lo que ocurre con el comportamiento esperado de un ser humano real.

Capa de integridad
Aquí el foco no está en la cara o la voz del usuario, sino en el propio dispositivo y el origen de la señal de video. La capa de integridad valida que la cámara y el flujo de datos provengan de hardware físico confiable y no de una cámara virtual, un emulador o una fuente inyectada, bloqueando intentos como la inserción de deepfakes pregrabados en teléfonos modificados. Al cerrar esta ruta, Deepsight impide que los atacantes suplanten a un usuario simplemente conectando un archivo a la sesión de verificación.

Capa de percepción
Definida como el "cerebro" del sistema, esta capa está impulsada por modelos de IA multimodal capaces de analizar miles de puntos de datos por fotograma. Examina la profundidad, la coherencia del movimiento entre múltiples cuadros, la consistencia temporal y lógica de lo que ocurre en pantalla, y, sobre todo, las sutiles "huellas dactilares a nivel de píxel" que dejan las herramientas de IA generativa.

Estos patrones microscópicos, invisibles para un ojo humano, permiten distinguir un rostro real de uno sintético con una precisión que se alinea con —e incluso excede— el nivel de sofisticación de los modelos que generaron el deepfake.

La clave de esta arquitectura es que las tres capas se combinan para ofrecer una defensa redundante: aunque un ataque logre parecer natural en su comportamiento, podría delatarse en la integridad del dispositivo o en las huellas digitales del contenido; si el dispositivo es legítimo pero el video es sintético, la capa de percepción lo detectará; si el contenido ha sido afinado para engañar detectores visuales, las anomalías de movimiento o de interacción humana pueden exponerlo.

Todo este análisis ocurre en tiempo real y de forma silenciosa, de modo que el usuario genuino no percibe pasos adicionales ni fricción en su experiencia. Deepsight fue diseñado para que las personas reales atraviesen el proceso de verificación sin demoras innecesarias, mientras que los atacantes se enfrentan a una barrera invisible pero extremadamente difícil de superar. Esta combinación de seguridad profunda con una experiencia fluida resulta especialmente crítica para sectores en los que cada segundo de espera puede traducirse en abandono de clientes o pérdida de ingresos.

En la práctica, Deepsight ya se aplica a procesos clave de negocio: verificaciones KYC en incorporaciones de clientes, esquemas de verificación escalonada para operaciones de alto riesgo, autenticación continua en sesiones sensibles y verificación de empleados y de edad para cumplir con regulaciones y políticas internas. Al integrarse como una capa de seguridad en cada punto del ciclo de vida de la identidad digital, la herramienta busca construir un "cordón sanitario" frente a deepfakes y ataques de IA generativa a lo largo de toda la relación con el usuario.

La validación científica y el futuro de la identidad
La tecnología de Incode fue evaluada en el estudio "Fit for purpose? Deepfake detection in the real world" ("¿Adecuada para su propósito? Detección de deepfakes en el mundo real") de la Universidad de Purdue. En esa comparación, que incluyó modelos comerciales, académicos y gubernamentales, Deepsight alcanzó la mayor precisión y la menor tasa de falsos positivos.

Deepsight ya se está implementando en empresas líderes como TikTok, PNC Bank, Scotiabank y Nubank, y protegió a usuarios en más de seis millones de sesiones de identidad en vivo. Su despliegue en sectores tan diversos como servicios financieros, plataformas digitales y grandes instituciones sugiere que la defensa avanzada contra deepfakes se está convirtiendo en un componente estándar de cualquier estrategia seria de ciberseguridad e identidad.

Para Incode, Deepsight no es un proyecto aislado, sino parte de una visión más amplia sobre el futuro de la identidad digital, que incluye conceptos como la Agentic Identity: identidades verificadas capaces de interactuar de forma segura con agentes de IA que actúan en nombre de las personas. En un mundo donde la inteligencia artificial mediará cada vez más transacciones, decisiones y vínculos, el desafío ya no es solo identificar a los humanos, sino construir un ecosistema en el que agentes humanos y artificiales puedan confiar unos en otros.

Te puede interesar
WhatsApp Image 2025-12-06 at 18.47.14

La innovación y los “mayores”: los robots que conversan, la tecnología que cuida y la brecha generacional dentro de la vejez

Techinfo
Actualidad30 de noviembre de 2025

La agenda AgeTech presenta investigadores, gobiernos y empresas dispuestos a discutir el futuro del cuidado, entre algoritmos y afectos: debaten cómo cuidar sin vigilar, cómo acompañar sin controlar, cómo usar la tecnología sin convertir a la vejez en un nuevo privilegio. Casos de tecnología aplicada a la nueva longevidad y la duda sobre quién actúa cuando la alarma suena

Lo más visto
WhatsApp Image 2025-12-06 at 18.47.14

La innovación y los “mayores”: los robots que conversan, la tecnología que cuida y la brecha generacional dentro de la vejez

Techinfo
Actualidad30 de noviembre de 2025

La agenda AgeTech presenta investigadores, gobiernos y empresas dispuestos a discutir el futuro del cuidado, entre algoritmos y afectos: debaten cómo cuidar sin vigilar, cómo acompañar sin controlar, cómo usar la tecnología sin convertir a la vejez en un nuevo privilegio. Casos de tecnología aplicada a la nueva longevidad y la duda sobre quién actúa cuando la alarma suena