Un reciente estudio que realizó Estados Unidos y China reveló que varios sistemas de identificación y autenticación facial son vulnerables a los deepfakes. A medida que los procesos biométricos mejoran, emergen nuevas formas de desarrollo para suplantar la identidad de una persona.
Pero, ¿qué son las deepfakes?
Los deepfakes son archivos de video modificados a través de un software con inteligencia artificial. Con esta metodología de engaño, incluso la voz puede ser suplantada, pareciendo personas reales. Algunos de los métodos más usados, es el uso de máscaras para simular personas reales.
¿Cómo se llevo a cabo la investigación de deepfakes?
Se utilizó un marco personalizado contra los sistemas de verificación de vida facial (FLV), los más usados por proveedores de servicios de autenticación. Este servicio es adquirido por compañías que necesitan validar la identidad de los usuarios en entornos digitales. Lo que el estudio revela, es que algunos de ellos no están preparados para contrarrestar los ataques de las deepfakes.
En teoría, el facial liveness es creado de tal manera que el proceso transaccional sea lo suficientemente seguro. Por ejemplo, este debe contrarrestar ataques a través de imágenes, con máscaras, videos pregrabados y más formas de suplantación.
Cuando las compañías adquieren servicios biométricos genéricos, es probable que las deepfakes tengan mejor desempeño. En cambio, crear un proceso transaccional seguro con arquitectura específica mejora los niveles de protección para el cliente final. Incluso, el estudio menciona que muchas compañías mantienen tecnologías biométricas obsoletas para las necesidades del mercado.
“Sin acceso a los detalles técnicos de los proveedores de FLV objetivo, especulamos que tales variaciones se atribuyen a las medidas de defensa implementadas por diferentes proveedores. Por ejemplo, ciertos proveedores pueden implementar defensas contra ataques deepfake específicos”.
Fuente: https://arxiv.org/pdf/2202.10673.pdf
Uno de los datos que más sorprendió en el estudio, es que la mayoría de API para las validaciones de identidad no cuentan con un sistema para luchar contra las deepfakes.
¿Puede una simple selfie proporcionar seguridad?
En término generales la respuesta es NO. Los procesos transaccionales con 2D no son seguros, ya que la mayoría de fotos de las personas ya están en Internet. En cambio, existen otro tipo de tecnologías, en las que el reconocimiento facial es una verificación de vida sólida. Esta contiene un FaceMap 3D, que NO ESTÁ disponible públicamente en línea.
En Unicus, trabajamos con validación de vida 3D. De esta manera garantizamos que el usuario esté físicamente presente y no se deje engañar por fotos, máscaras o las conocidas deepfakes. La inteligencia artificial que utilizamos observa rasgos humanos simultáneos que las deepfakes no pueden recrear a la vez.
Si su compañía requiere implementar procesos biométricos, puede confiar en nuestra experiencia y el uso de la mejor tecnología.