Alerta por Estafas de suplantación de voz con tecnología Deepfake de audio

El fiscal especialista en ciberdelito brinda consejos para evitar estafas a través del uso de inteligencia artificial.

Actualidad05/11/2024 Luciana Conti
Lucas Moyano
Lucas Moyano

El fiscal especialista en ciberdelito, Dr. Lucas Moyano, titular de la Unidad Funcional de Instrucción (UFI) N.º 22, brinda una serie de recomendaciones para prevenir estafas realizadas mediante el uso de inteligencia artificial. Moyano advierte sobre la creciente sofisticación de los fraudes que utilizan tecnologías como el deepfake de audio y otras técnicas de suplantación de identidad, destacando la importancia de adoptar medidas de seguridad tanto a nivel personal como en el ámbito empresarial. Entre los consejos, el fiscal recomienda establecer códigos de seguridad con familiares, desconfiar de llamadas de números desconocidos, y verificar la identidad de quienes solicitan ayuda económica, evitando tomar decisiones apresuradas en situaciones de urgencia aparente.

La inteligencia artificial (IA) está transformando la vida moderna, pero también ha sido aprovechada para fines ilícitos. En los últimos meses, se ha reportado un incremento en las estafas que utilizan tecnología de deepfake de audio, en las que delincuentes clonan la voz de personas conocidas para engañar a sus víctimas. Esta modalidad actualiza el clásico "cuento del tío", haciendo uso de avanzadas herramientas tecnológicas que otorgan mayor credibilidad a la estafa.

El deepfake de audio funciona mediante programas de inteligencia artificial que analizan y replican los aspectos distintivos de una voz, como el acento, la edad y el género. Sorprendentemente, bastan solo 30 segundos de una grabación para que el software logre una clonación efectiva. Los estafadores aprovechan esto, haciéndose pasar por familiares o amigos de la víctima para solicitar dinero bajo pretextos de emergencias, accidentes o secuestros.

La modalidad sigue una mecánica similar a la de las estafas telefónicas tradicionales, pero ahora con un giro tecnológico. Un estafador llama desde un número desconocido y, imitando la voz de un ser querido, relata una situación urgente. La solicitud de ayuda económica o transferencia de dinero se convierte en algo creíble al utilizar la voz familiar de la persona suplantada, generando una sensación de urgencia y confusión en la víctima.

Además del impacto en usuarios individuales, esta tecnología también representa un riesgo para empresas, bancos y entidades financieras, con un crecimiento de incidentes de hasta un 900% anual, según el Foro Económico Mundial. La facilidad para acceder a grabaciones en redes sociales y otros medios permite a los estafadores obtener el material de audio necesario para sus fraudes.

Consejos para Protegerse de las Estafas de Suplantación de Voz
Para reducir el riesgo de ser víctima de estas estafas, es importante tomar algunas precauciones:

Establecer una “palabra segura”: Definir un código o palabra clave entre familiares y amigos para verificar situaciones de emergencia.
Desconfiar de números desconocidos: En caso de recibir llamadas sospechosas, solicitar datos específicos que ayuden a confirmar la identidad de quien llama.
Cuestionar la autenticidad: Antes de actuar, evaluar si la situación es creíble y si lo que se solicita tiene sentido en el contexto.
No confiar en la voz: Si un “familiar” pide dinero, es mejor colgar y llamar directamente al número de contacto registrado para verificar, preferiblemente mediante videollamada.
Compartir esta información: Informar a amigos y familiares sobre esta modalidad de estafa y los métodos de protección.
El uso de la inteligencia artificial en estos fraudes evidencia cómo la tecnología puede ser usada tanto para el bien como para el mal. La prevención y la información son claves para evitar caer en manos de delincuentes que, mediante técnicas cada vez más sofisticadas, buscan aprovecharse de la confianza y el temor.

Te puede interesar
Lo más visto
Copyright noticiasdeazul.com