Como en todo, las nuevas tecnologías sirven para lo bueno y para lo malo. Los delincuentes se actualizan sin cesar, y saben adaptarse a los nuevos tiempos y a los cambios que conllevan. Las estafas se multiplican con la tecnología, y si no estamos alertas, es probable que caigamos en ellas.
Por todo ello, la Policía está advirtiendo de que hay un nuevo modus operandi de los amigos de lo ajeno, que utilizan la IA para hacernos creer mentiras y falsedades, y estemos dispuestos a dar dinero de inmediato.
La IA y el voice hacking
El voice hacking o piratería de voz, es una técnica cuyo objetivo es manipular la voz de las personas con tecnología avanzada. Utiliza la clonación de la voz con IA que replica la voz de alguien conocido y genera grabaciones que se oyen completamente reales. Espeluznante.
Hace algún tiempo que los estafadores lo usan: graban la voz de alguien sin su permiso y emplean el audio para elaborar falsos mensajes. Estos ataques pueden afectar diversos dispositivos que nos rodean, como los asistentes virtuales y otros IoT.
Estas grabaciones se pueden obtener fácilmente de las redes sociales, y permiten que algoritmos de IA elaboren audios falsos que imitan el acento, los matices lingüísticos y el tono, convirtiéndolos en verdaderas herramientas para la estafa. Son prácticamente indistinguibles.
El protocolo que recomienda la Policía
Recibimos una llamada y resulta ser de una hermana, un hijo, la sobrina preferida o el nieto menor. Nos dice con urgencia que está atravesando una situación muy delicada y que necesita desesperadamente dinero para solucionarla.
¿Cuál sería nuestra reacción más lógica? Preocuparnos y hacer todo lo posible por ayudar, incluyendo, por supuesto, darle dinero. Las personas más vulnerables suelen son los mayores.
Después de establecer esa situación urgente, exigen la acción: transferir dinero o proporcionar información delicada (contraseñas, datos bancarios, etc.). Lo peor es que estos audios se dan virtualmente por cualquier canal, desde el teléfono hasta apps como Telegram o WhatsApp.
Sin embargo, dice la Policía Nacional que ese audio podría no ser auténtico. Y es que la clonación de voces con inteligencia artificial es algo ya bastante común, por desgracia.
De esto nos advierten el Instituto Nacional de Ciberseguridad (INCIBE) y la Policía, de un nuevo formato de delito con el que clonan voces de familiares para estafar a la gente.
Qué hacer
El INCIBE y la Policía Nacional recomiendan algunas acciones. La primera debe ser mantener la calma y desconfiar de ese tipo de mensajes, pese a la voz conocida.
Si nos damos el tiempo de analizar las circunstancias, seguramente tendremos el tino de no actuar bajo presión ni bajo angustia.
La Policía recomienda hacer una videollamada a quien nos llamó con la petición, para estar seguros de que el problema es auténtico. También llamar a terceros y procurar información.
Otra recomendación es controlar dónde publicamos nuestros audios, y en lo posible evitar subirlos a internet. También es efectivo cambiar con frecuencia las contraseñas de correos y redes sociales y configurar la autenticación de voz. Y si sospechamos del audio, denunciarlo inmediatamente a la policía.
Un truco que facilita la Policía es establecer con el entorno familiar y de amistades un código de seguridad; puede ser una palabra, una frase, una anécdota, cualquier cosa que sirva para reconocer la autenticidad del audio. Una especie de “contraseña” espía. Lo indispensable es que la clave sea conocida, para evitar el engaño.
La inteligencia artificial se ha convertido en una herramienta para delinquir, y en momentos como los actuales debemos estar más alertas con las nuevas modalidades de estafas, en que la barrera entre lo real y lo falso pareciera no existir.
