Con el auge de apps de mensajería (como WhatsApp) y de redes sociales basadas en vídeo (como TikTok), ahora es de lo más normal que la gente comparta grabaciones de su voz en Internet. De hecho, una estudio de McAfee recientemente publicado (PDF) revela que el 53% de los usuarios adultos comparten su voz online al menos una vez a la semana… y que el 49% lo hace hasta 10 veces en ese mismo tiempo.
Puede parecer algo inofensivo, pero basta con esos pocos segundos que compartimos en una nota de voz para que los estafadores puedan obtener un duplicado creíble de nuestra voz con la que podrán manipular a nuestros amigos y familiares en su provecho.
De qué se aprovechan los estafadores
Los humanos utilizamos a diario atajos mentales para resolver problemas, lo que en psicología se conoce como heurística. En esta clase de estafas, de hecho, se aprovechan de esos mecanismos mentales…
…saben que es probable que nuestro cerebro tome atajos y crea que la voz que estamos oyendo es de verdad la de un ser querido, como pretende ser. Por ello, puede que ni siquiera sea necesaria una coincidencia ‘casi perfecta’ entre la voz real y la sintetizada.
McAffe aprecia también una clara tendencia a aprovecharse de personas mayores y/o con pocos conocimientos tecnológicos: en la mayoría de los casos conocidos de esta clase de estafas, las víctimas son padres o abuelos que denuncian que un ciberdelincuente ha clonado la voz de un hijo o nieto.
Desconocimiento ante el peligro
Sin embargo, pese al auge y peligrosidad de algunas de las estafas basadas en la clonación de voz mediante IA (como los secuestros fake), y a que el 77% de las víctimas implicadas en casos así han perdido dinero (más de un tercio perdió más de 1.000 dólares, mientras que el 7% perdió entre 5.000 y 15.000 dólares)…
…el 36% de los adultos encuestados afirma que nunca había oído hablar de esta clase de fraudes, lo que —a juicio de McAfee— «indica la necesidad de una mayor educación y concienciación ante el aumento de esta nueva amenaza».
En palabras de Steve Grobman, CTO de McAfee,
«Las estafas selectivas basadas en la suplantación no son algo nuevo, pero sí lo es la disponibilidad y el acceso a herramientas avanzadas de IA. Ahora, en lugar de limitarse a hacer llamadas telefónicas o enviar e-mails o SMS, con muy poco esfuerzo un ciberdelincuente puede hacerse pasar por otra persona utilizando la tecnología de clonación de voz AI, jugando así con tu conexión emocional y la sensación de urgencia para aumentar la probabilidad de que caigas en la estafa».
Los consejos de McAffe
Dos formas de limitar la probabilidad de ser suplantado en una estafa:
- Piensa antes de hacer clic y compartir: ¿quién va a tener acceso a ese audio o vídeo? ¿De verdad conoces a (y confías en) todos tus contactos? Recurre a la personalización de la privacidad de tus publicaciones en aquellas redes donde esto es posible.
- Usa servicios de monitorización de identidad: pueden ayudarte a alertarte si tu información personal identificable está disponible en la Dark Web. La disponibilidad de estos datos ayuda a dar credibilidad a los intentos de suplantación allí donde no basta con clonar la voz.
-
Y cuatro formas de evitar ser víctima tú mismo o los tuyos de esta clase de estafas:
- Establece una «frase/palabra clave» con tus hijos, familiares o amigos de confianza, y acuerda con ellos pedirla siempre que les llames, o envíes un mensaje para pedir ayuda, sobre todo si son personas mayores o vulnerables.
- Desconfía y pide explícitamente información para verificar la identidad de tu interlocutor. Por ejemplo: «¿Cuándo es el cumpleaños de tu padre?». Si hay suerte, tomaremos al estafador por sorpresa.
- No te dejes llevar por tus emociones, piensa antes de responder. ¿Esto parece propio de esta persona que dice estar hablando contigo? Cuelga y llama directamente a la persona o verificar la información antes de responder.
- En general, es un buen consejo no responder a llamadas de desconocidos. Si dejan un mensaje de voz, tendrás tiempo de reflexionar y contactar con tus seres queridos por tu cuenta para confirmar que están seguros.
________________
Tomado de:
Se Respetan Derechos de Autor