Isabel Alvarez Castro
El chief digital officer en Telefónica abordó en UNIR cómo los avances en las técnicas de 'deepfake' y aplicaciones de inteligencia artificial se han democratizado y están ya al alcance de todos.
Chema Alonso, chief digital officer en Telefónica y experto en ciberseguridad, aseguró en la Universidad Internacional de La Rioja (UNIR) que “con el avance de la inteligencia artificial y las deepfakes, los parámetros biométricos como la voz o la imagen ya no son un mecanismo de confianza para reconocer a una persona en una llamada telefónica o videoconferencia”.
En el marco de la openclass “Perspectivas de las técnicas en IA en ciberseguridad y su impacto en las deepfakes”, impartida en UNIR, Alonso reveló que “estamos muy cerca de poder recrear a seres humanos completamente realistas, conocidos como humanos sintéticos, y llegará el momento en que la realidad supere la ficción”.
Las técnicas de deepfakes se han democratizado y permite que cualquier persona en menos de 10 minutos pueda manipular la realidad.
Suplantar la identidad de una persona es cada vez más fácil, “las técnicas de deepfakes se han democratizado y permite que cualquier persona en menos de 10 minutos pueda manipular la realidad con una fotografía, clonar la voz de una persona, incluso cambiar el idioma”.
Estas técnicas al alcance de todos permiten realizar actos delictivos en situaciones cotidianas como enviar un mensaje pidiendo dinero o ayuda fingiendo ser una persona cercana a la víctima. “Con el transfer learning y una fotografía ya se puede suplantar a una persona”, añade el experto.
Entre los avances más sofisticados para generar deepfakes, Chema Alonso destacó en UNIR la sincronización de la voz con el movimiento de los labios, conocido como Lip Sync, usado en técnicas de doblaje en el cinematográfico, pero que también sirve para poner “en boca de alguien cosas que no ha dicho él, sino un doble”.
Otra técnica es el FaceSwapping, “un avance de la IA que permite crear caras falsas o recrear a una persona que no está en el vídeo”, una técnica que ha evolucionado hacia la creación ficticia en tiempo real durante una videoconferencia.
Investigación y avances en ciberseguridad
Chema Alonso, alerta que “desde el 2019 estamos viendo que el mundo se puede complicar con las deepfakes en temas delicados como adultos que se hacen pasar por niños, suplantar a personas famosas para engañar a sus fans o hacer operaciones económicas de gran valor”.
El desarrollo de la IA nos está llevando a un mundo donde cada vez es más difícil detectar las deepfakes, ya que “los humanos sintéticos se hacen más humanos: tienen ritmo cardíaco, parpadean”, explica Chema Alonso.
Los bots sintéticos se puede usar para ataques masivos.
Estos bots sintéticos se utilizan para labores comerciales, pero también se puede usar para ataques masivos. Por este motivo, Alonso advierte que el avance vertiginoso de la IA ha abierto numerosas líneas de investigación en términos de ciberseguridad sobre lo que significa “ser un humano” y crear herramientas para detectar en tiempo real si con quien estamos interactuando es una deepfake.
Entre las técnicas que se están desarrollando actualmente se encuentra la detección del parpadeo que utilizan los algoritmos de la IA, analizar el histograma de escala de grises en las imágenes y vídeos o detectar hacia donde mira el deepfake, conocida como Gaze Tracking.
“Llegará un momento en el que tengamos a hacer un test de empatía a la persona con la que interactuamos, como hemos visto en alguna película de ciencia ficción”. Mientras llegan estos avances, la deformación de la estructura ósea, detectar un ritmo cardíaco fiable o medir el grado de simetría en el reflejo de los globos oculares son técnicas que se están perfeccionando.
Además, gracias al machine learning, el análisis de voz también puede permitir detectar si corresponde con la edad de la persona, reconocer el género y saber si existe una concordancia entre el tono de voz, imagen y mensaje.
Las redes sociales generan empatía hacia las deepfakes
Chema Alonso enfatizó en la openclass que cada vez hay más humanos sintéticos y que las redes sociales promueven una mayor más empatía hacia ellos.
Según el experto, esta tendencia a compartir contenido en el que “parecemos más jóvenes y guapos” hace que nuestro cerebro se acostumbre a ver imágenes falsas y nos generen confianza, “lo que hará que cuando estemos ante un humano sintético no sepamos distinguirlo”.
Esto se ha producido, en parte, porque los filtros de las redes sociales cambian nuestra verdadera naturaleza, “haces una disociación de tu humanidad con la imagen sintética, que socialmente lo hemos aceptado y normalizado”.
“Los humanos sintéticos se han metido tanto en nuestra vida que detectarlos ya es una profesión de futuro porque se usa, cada vez más, en los sistemas de ataque”, concluyó.
- escuela-superior-de-ingenieria-y-tecnologia