jueves. 25.04.2024
Anuncio de un programa que realiza 'deepfake'
Anuncio de un programa que realiza 'deepfake'

Las personas son cada vez más conscientes de los peligros potenciales del fraude sintético, como consecuencia del aumento de las falsificaciones en los últimos años. Este tipo de engaño se produce cuando los delincuentes utilizan tecnología avanzada para generar información manipulada con el fin de engañar a terceros y sacar beneficios ilegalmente, como la creación de perfiles de identidad falsos. Los deepfakes han ganado terreno, con la optimización de la tecnología, resultan más convincentes y difíciles de detectar que nunca. 

Pueden parecer auténticos, ya que estos vídeos manipulados se crean mediante algoritmos de IA que pueden replicar el lenguaje corporal, las expresiones faciales y la voz de una persona. Además, al ser casi idénticos a la realidad, la difusión se acelera. De esta manera, un uso malintencionado puede causar un daño importante tanto a empresas, que pueden acabar sufriendo un duro golpe reputacional, como a personas, que pueden ser extorsionadas y estafadas por culpa de estas amenazas.

De hecho, una redactora de ‘The Wall Street Journal’ ha profundizado en un reportaje sobre cómo utilizar herramientas de IA para crear una copia de virtual de sí misma, advirtiendo sobre el potencial peligro del abuso de estas herramientas, que se pueden emplear para estafar a terceros e, incluso, para realizar amenazas de muerte.

Sin embargo, existen medidas certificadas que son capaces de detectar caras y voces falsas. La autenticación biométrica ofrece una solución segura y confiable, incluso en presencia de este tipo de ataques, especialmente en comparación con los métodos tradicionales de autenticación. Es decir, brinda una experiencia más robusta y fácil de usar que está ganando terreno en industrias como la financiera y los seguros. Su uso es crucial para las empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad.

Veridas,  empresa tecnológica española especializada en identidad digital y biometría aporta seis claves que pueden ayudar a detectar un deepfake:

  • Lenguaje corporal: la falta de sincronización entre el audio y el movimiento de los labios es un indicio de este episodio. También se puede detectar si se presta atención a cómo la persona mueve los ojos, la cabeza o la boca.
  • Incoherencia: en ocasiones, la persona representada en el vídeo puede ofrecer ciertas inconsistencias en su discurso.
  • Fuente: si el vídeo procede de una fuente desconocida o poco fiable, es posible que sea un deepfake.
  • Tecnología verificada: es clave utilizar una solución de biometría de voz confiable y segura para aquellas empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad.
  • Control del proceso de captura: la tecnología de anti-fraude de voz analiza el audio para detectar los ataques de presentación, en los que el atacante reproduce un audio pregrabado mediante un altavoz que puede ser un móvil o un PC. Cuando se reproduce dicho audio, la voz presente contiene matices que la distinguen de la voz original que se reproduce a través de las cuerdas locales. 
  • Autenticación multifactor: la biometría de voz se combina con otras formas de autenticación, lo que permite vincular la identidad del usuario y hace mucho más difícil que los estafadores se puedan hacer pasar por otra persona.

Con el auge de los deepfakes y el fraude, es crucial asegurarse de que el sistema biométrico es seguro y confiable. Es decir, se ha convertido en un elemento imprescindible para las empresas que quieren transformar digitalmente sus operaciones. Al incorporar tecnologías biométricas de última generación, las empresas pueden brindar a sus usuarios una experiencia segura y sin inconvenientes, al mismo tiempo que se protegen contra el fraude. Para implementar estas soluciones, es recomendable apoyarse en un proveedor que asegure que son confiables, seguras y fáciles de usar.

“Con nuestra tecnología, las empresas pueden asegurarse de que su proceso de autenticación biométrica sea confiable y seguro. Está actualizado con las últimas medidas de prevención de fraude”, afirma Eduardo Azanza, CEO de Veridas.
 

Aumentan los deepfakes: cuáles son los riesgos y cuál es la mejor defensa