Lo último en estafas es usar deepfakes de audio que imitan la voz de seres queridos para pedir…
En The Washington Post han hablado de los peligros que se esconden tras los deepfakes de audio generados por IA que son capaces de imitar voces de seres queridos para cometer ciberdelitos. El medio pone el ejemplo de Ruth Card (73 años) que recibió una llamada supuestamente de su nieto Brandon que le comentaba que…
Número de ¡EXTORSIÓN! Reciben diversas llamadas telefónicas como también por medio de la plataforma de WhatsApp, identificándose SUPUESTAMENTE como "GENTE DE JUAN BALA DE LOS GANSOS" exigiendo cierta cantidad económica a cambio de no causarle daño a su familia.
Peligroso 23/02/2026 00