Nosotros      Publicidad

Estafadores utilizan los deepfakes de voz de celebridades

En Perú, el riesgo de ser víctima de estafas de clonación de voz no está tan lejos de la realidad, por ello es importante mantener una cultura de seguridad digital.

Redacción T21 / 22.02.2024 / 12:35 pm

Estafadores utilizan los deepfakes de voz de celebridades

Bitdefender Labs se ha mantenido al día con el último modus operandi de los ciberdelincuentes que adaptan tecnologías emergentes para desviar dinero de los consumidores, siendo una de ellas el uso de las “Deepfakes” de voz, que busca extorsionar a la víctima solicitando dinero e información confidencial.

Los expertos en ciberseguridad explican que la clonación de voz o “Deepfakes” de voz, es el proceso de utilizar herramientas de inteligencia artificial para crear copias de la voz de otro individuo. Esta sofisticada tecnología utiliza técnicas de aprendizaje profundo para replicar el habla de una persona, crear un audio muy realista y convincente de una voz humana.

En algunos casos la clonación de voz tiene muchos usos legítimos en la educación, la atención médica, entretenimiento, para crear doblajes de voz para actores de películas, narrar audiolibros, asistentes personalizados o crear locuciones. A pesar de estos numerosos usos legales, la tecnología de clonación de voz está siendo utilizada indebidamente para actividades fraudulentas.

Plataformas de redes sociales: fuente para estafas de clonación de voz

Millones de personas utilizan las redes sociales a diario, por lo que no es de extrañar que estas plataformas se hayan convertido en la fuente principal de muchas estafas emergentes que emplean inteligencia artificial y tecnologías de clonación de voz. Estos dos avances por sí solos son un punto de inflexión para los estafadores, quienes rápidamente los explotan para mejorar el alcance de sus esquemas fraudulentos.

Por ello, Bitdefender Labs ha seguido de cerca estas estafas, especialmente en plataformas de redes sociales donde descubrieron una serie de videos fraudulentos en Facebook e Instagram en los que audio falsificados de celebridades como Elon Musk, Oprah Winfrey, Tiger Woods, Kylie Jenner, Vin Diesel, Jennifer Aniston y Mr. Beast, prometían obsequios “gratuitos” y oportunidades de inversión. Las voces generalmente se reproducen sobre imágenes reales de la celebridad en cuestión.

Los vídeos deepfake analizados por el laboratorio cuentan la misma historia falsa: son parte de un “grupo exclusivo de 10.000 personas” que pueden adquirir productos exclusivos por un pago modesto a partir de 2 dólares (dependiendo del anuncio/producto). En la captura de pantalla siguiente, los estafadores clonaron la voz del YouTuber Mr. Beast, cuyo espíritu caritativo lo llevó al estrellato en Internet. Hicieron una buena sincronización al modificar el video, siendo este uno de los deepfakes de audio más convincentes y mejor orquestados por los ciberdelincuentes.

Los videos publicitarios tienen una duración de 30 segundos y motivan a los espectadores a actuar rápidamente haciendo un clic en el enlace para beneficiarse de una "oportunidad inmediata". Pero ¿cuál es el problema?  Los afortunados solo pagan el envío en el "obsequio de iPhone 15 más grande del mundo". ¿Suena descabellado? Eso es porque lo es.

Al hacer clic en el enlace fraudulento, los usuarios son dirigidos a un sitio web falso que promociona el sorteo y que enumera una cantidad limitada de dispositivos/productos restantes.

La última página es donde el usuario debe completar los datos y pagar el envío. El pago es mayor que el monto especificado en el video. Por supuesto, el usuario debe proporcionar varios datos personales antes de realizar el pago, incluido el nombre, el país, la dirección y la información de contacto (correo electrónico y número de teléfono).

Durante el pago, los usuarios deben proporcionar sus números de tarjeta de crédito para pagar el envío.

¿Cómo puede protegerse contra estafas de audio falsas?

Detectar la clonación de voces puede ser un gran desafío, especialmente porque los avances en inteligencia artificial y tecnologías de aprendizaje han mejorado significativamente la calidad de las voces creadas. Sin embargo, existen varios consejos que puede seguir para detectar y protegerse contra la clonación de voz:

  1. Verifique la calidad y consistencia de la voz: preste atención a la calidad de la voz. Algunas voces clonadas pueden tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla.
  2. Ruido de fondo y artefactos: si bien la clonación de voz de alta calidad minimiza los ruidos de fondo, estos aún podrían estar presentes en un clip de audio o vídeo sintético. Escuche atentamente para detectar ruidos de fondo inusuales o artefactos digitales.
  3. Tenga cuidado con solicitudes inusuales y ofertas demasiado buenas para ser verdad: debe examinar los anuncios y videos que le prometen grandes retornos de la inversión, incluso aunque parezcan respaldados por una celebridad, una persona influyente en las redes sociales o un político.
  4. Verifique: si sospecha, cuelgue y comuníquese con la persona u organización a través de los canales oficiales. No utilice ninguna información de contacto que se le haya proporcionado durante la llamada.
  5. Tenga cuidado al compartir información personal: evite compartir muestras de voz con extraños que conozca en línea. Los estafadores pueden utilizar cualquier detalle de las redes sociales para que su suplantación suene muy convincente.
  6. Utilice software de seguridad en su dispositivo: emplee soluciones de seguridad integrales como Bitdefender, que ofrece varias funciones para proteger contra el phishing y el fraude.
  7. Utilice herramientas dedicadas para detectar estafas: puede ser más astuto que los estafadores utilizando Bitdefender Scamio, nuestro chatbot de IA y detector de estafas gratuito de próxima generación, para descubrir si el contenido en línea con el que interactúa o los mensajes que recibe son intentos de estafarlo.
  8. Manténgase informado: manténgase al día con las últimas amenazas a la seguridad y cómo funcionan. Nuestros blogs y boletines le ayudan a estar al tanto de estafas en línea nuevas y existentes y le brindan información sobre cómo usted y su familia pueden mantenerse seguros.

En Perú, el riesgo de ser víctima de estafas de clonación de voz no está tan lejos de la realidad, por ello es importante mantener una cultura de seguridad digital. Además, si detectas este tipo de estafas en las plataformas de redes sociales, es crucial reportar a la Policía Nacional del Perú y a las autoridades correspondientes cualquier actividad sospechosa o intento de fraude.

Compartir noticia
       

T21

Área de notas de prensa del medio Tecnología 21, especializado en tecnología y negocios.

Damos prioridad al contenido exclusivo y anticipado.

Reservar atención online

SERVICIOS

Publicidad para empresas
Coberturas y entrevistas
Análisis de productos y servicios

NEWSLETTER SEMANAL

Noticias de tecnología y negocios
Enlaces Archivo / Condiciones

Estás viendo: “Estafadores utilizan los deepfakes de voz de celebridades