¿Imposible de falsificar? Así clonan tu identidad biométrica

Hasta hace poco, la biometría se percibe como algo “infalsificable”. Tal es el caso que te sugiero como complemento que leas mi episodio: ¿Los biométricos son REALMENTE seguros?

Sin embargo, ahora todo se complica con avances en la inteligencia artificial mezclados con herramientas físicas al alcance de casi cualquier persona, haciendo que lo que antes era “único” hoy puede ser replicado digital o físicamente.

Cómo se pueden replicar los biométricos hoy

  • Espero que pienses varias veces lo que hoy das por descontado, pues ahora más que nunca tener la capacidad de recuperar tus de huellas en objetos, en conjunto con el escaneo en 3D, o la recreación con polímeros o inteligencia artificial que es capaz de rellenar patrones parciales son solo algunas de las técnicas que pueden crear huellas digitales como las tuyas.
  • Si hace poco el reconocimiento facial como lo es el  deepfake  ya era un problema desde hace años, ahora diferentes modelos de IA que generan rostros sintéticos casi idénticos se vuelven una vulnerabilidad más precisa y en especial puede ser desde totalmente gratis hasta paga muy poco por algo muy preciso.
  • Pensábamos que la identificación mediante el iris y la retina eran prácticamente infalibles. Pero ahora empleando fotos de alta resolución, la inteligencia artificial permite recrear tus patrones oculares prácticamente a la perfección.
  • La clonación de voz con voice deepfakes es posible. 30 segundos de tu voz grabada es suficiente para replicarte.
  • Pensábamos que la biometría conductual, esto es,  tu manera de teclear, de andar, de escribir era prácticamente imposible de replicar, y hoy con mecanismos de machine learning es posible entrenar a un sistema con tus datos y poder imitarte a la prefección prácticamente.

Por lo anterior, como lo puedes ver, lo que pensábamos único, irremplazable y diferente, ya no lo es tanto.

¿Por qué es posible ahora?

Como la ley de Moore lo dice, la tecnología se incrementa y los costos se reducen. Así, los avances en IA generativa, en especial en deepfakes y las GANS, que son una arquitectura de aprendizaje profundo que emplea dos redes neuronales en competencia: un generador, que crea datos nuevos (como imágenes o texto) y un discriminador, que intenta distinguir los datos reales de los creados por el generador son algunos de los componentes que facilitan este tipo de imitaciones.

Por otro lado el acceso masivo a datos, tristemente patrocinados por ti, tales como fotos en redes sociales, grabaciones de voz, huellas dejadas en superficies y demás actos “inocentes” son la fuente de datos para este tipo de tecnologías, totalmente gratis.

Finalmente, el acceso a hardware que ha reducido mucho su costo, tal como impresoras 3D o software de clonación de voz, son las herramientas que permiten convertir en algo replicable lo que antes era imposible.

¿Cuáles son los riesgos?

Apenas estamos en el inicio de lo que se nos viene, pero de entrada podemos pensar en temas como

  • Robo de identidad.
  • Acceso no autorizado a dispositivos/bancos.
  • Fraudes y extorsiones (ejemplo: llamadas deepfake de un “familiar”).
  • Pérdida de control: cuando nuestras huellas, iris etcétera se pueden duplicar, ya no somos “únicos”

¿Qué puedes hacer ya?

Lo he comentado de varias formas por años, pero de entrada:

  1. Limita tu cantidad de publicaciones de fotos de alta resolución de tus manos, ojos o rostro.
  2. Con disciplina siempre usa autenticación multifactorial (MFA), para nunca depender solo de biometría.
  3. En lo posible vale la pena buscar el empleo de biometría cancelable, esto es, sistemas que generan “plantillas” matemáticas, y no tu huella tal cual.
  4. Suscríbete a toda posible configuración de alertas en banca y servicios digitales para revisar que todos tus movimientos y contrataciones sean realmente tuyas.
  5. Revisa los permisos de apps que piden datos biométricos: ¿cómo los guardan? ¿cuál es su responsabilidad en caso de vulnerabilidades? ¿cómo los protegen?

Lo nuevo en biometría: tratando de complicar su uso indebido

Empezamos a ver ahora una nueva generación de biométricos, que buscan complicar más el poder ser duplicados, tales como:

  • Biometría continua y contextual: autenticación por patrones de uso (cómo tecleas, cómo sostienes el teléfono).
  • Biometría híbrida: combinada con autentificación multifactorial, así como inteligencia artificial para la de detección de falsificación mediante “liveness detection” o “detección de vida” que es una tecnología de seguridad biométrica que determina si una muestra de identificación (como una selfie o un video) proviene de una persona real y viva o de una falsificación, como una foto, una máscara o un video generado artificialmente. Utiliza inteligencia artificial para detectar ataques de suplantación de identidad, garantizando que la persona frente a la cámara sea la misma que está intentando verificarse
  • Criptografía post cuántica aplicada a biométricos: es el uso de algoritmos que son resistentes a la computación cuántica para proteger la información de los datos biométricos, como huellas dactilares o reconocimiento facial. Su propósito es asegurar la privacidad, integridad y autenticidad de estos datos frente a futuras amenazas de ordenadores cuánticos, que podrían descifrar los métodos criptográficos actuales
  • Ética y regulación: mayor presión en leyes de privacidad para proteger datos biométricos. Casi siempre, la ley va mucho más lenta que los avances en tecnología

Conclusión

Es claro que los biométricos ya no son el “candado mágico” que pensábamos. Debemos tratarlos como datos sensibles no reemplazables, y por ello la clave está en prevenir la exposición, usar capas de seguridad y exigir a proveedores transparencia sobre cómo guardan y procesan nuestra biometría.

Por último, tenemos que pensar en 2 o hasta 3 métodos de autentificación para hacer más complicado el poder acceder a nuestra información o nuestros sistemas.


Deja un comentario