Crecen las Estafas con IA ahora con Videos de Celebridades
En los últimos años, las estafas con IA han incrementado, especialmente a través de la manipulación de videos conocidos como “deepfakes”. Grupos criminales utilizan esta tecnología para modificar imágenes y voces de figuras públicas, como directores ejecutivos o políticos, con el fin de promover esquemas de inversión falsos o regalar premios inexistentes. Los investigadores de Unit 42, perteneciente a Palo Alto Networks, han identificado varias de estas campañas que afectan a distintos países, incluidas naciones como Perú, México, Canadá y Singapur. En algunos casos, los estafadores crean videos usando tecnologías avanzadas de inteligencia artificial que engañan a las víctimas, quienes creen estar interactuando con personas reales.
Cabe recordar que en Perú ya se han registrado estafas con deepfakes que han empleado clonación de voz e imágenes de personalidades televisivas como Mávila Huertas, Verónica Linares y Elmer Huerta. Estos casos alarman por el alto nivel de credibilidad que estas figuras tienen en la sociedad peruana, facilitando así que los delincuentes puedan defraudar a más personas mediante videos manipulados.
Modus operandi de las estafas con IA
El funcionamiento de las estafas con IA suele seguir un patrón. Los videos comienzan con un contenido legítimo al que los estafadores agregan un audio falso generado por inteligencia artificial. Luego, sincronizan los labios del hablante para que coincidan con las palabras manipuladas, creando una ilusión convincente. Esta técnica ha sido utilizada en campañas con figuras como Elon Musk, lo que les da mayor credibilidad ante los ojos del público.
Una vez que los usuarios son dirigidos a sitios web fraudulentos, se les solicita información de contacto, y los delincuentes los contactan por teléfono para exigir pagos bajo el pretexto de acceder a una plataforma de inversión. Posteriormente, persuaden a las víctimas para que depositen más dinero, mostrando falsas ganancias para ganarse su confianza.
Prevención y monitoreo de estafas con IA
A pesar de la sofisticación de las estafas con IA, las técnicas tradicionales de investigación siguen siendo útiles para rastrear la infraestructura de los ciberdelincuentes. Sin embargo, a medida que la inteligencia artificial continúa evolucionando, es fundamental que las medidas de seguridad también avancen para prevenir este tipo de ataques de manera proactiva. Los expertos en ciberseguridad están monitoreando continuamente estas actividades, alertando a los usuarios y promoviendo la adopción de sistemas de protección más robustos.
También te puede interesar: El Índice de Transformación Digital (ITD): Impulsando la Transformación de las Organizaciones (marketnews.pe)
Únete a nuestro Canal de WhatsApp
Si te gusta el contenido de MARKETNEWS.PE y quieres estar al día de las últimas novedades, consejos y oportunidades, te invitamos a que nos sigas en nuestro canal de WhatsApp ☕Café para Pymes – MarketNewsPe Activa la campana para no perderte ninguna novedad y recibirás diariamente las noticias más importantes en tu celular. No esperes más y únete a nuestra comunidad online y SI TE PARECE ÚTIL ESTA INFORMACIÓN COMPÁRTELA ENTRE TUS AMIGOS.
Fuente: Palo Alto Network