Un deepfake en vídeo, en el que se suplanta digitalmente a una persona, se han visto como una amenaza para la desinformación. Pero también es posible crear deepfakes de audio y estos abren otros horizontes inquietantes. Como la posibilidad de ser usados para realizar estafas telefónicas.
Pero que no cunda demasiado la alarma. Este tipo de manipulaciones requieren de cierto esfuerzo y conocimientos técnicos por parte de los estafadores. Un esfuerzo que algunos pueden querer realizar si somos un ejecutivo de una compañía eléctrica y con una llamada telefónica podemos transferir 200.000 dólares a una cuenta en Hungría.
LEER MAS: https://www.lavanguardia.com/tecnologia/20190910/47263675640/deepfake-audio-voz-suplantacion-estafa-telefonica-llamada-inteligencia-artificial-seguridad.html