Clonación de voces con Inteligencia Artificial: una nueva amenaza en las estafas por WhatsApp

Ahora las estafas son tan sofisticadas que es casi imposible darse cuenta: lo hacen con voces de seres queridos gracias a la Inteligencia Artificial y aprovechándose de la inmediatez del WhatsApp.

TECNOLOGÍA10/06/2024NeuquenNewsNeuquenNews
deepfake-voceswebp
La IA crea y clona voces humanizadas

La tecnología de Inteligencia Artificial (IA) está siendo utilizada por estafadores para clonar las voces de personas conocidas y realizar engaños a través de WhatsApp.

Esta nueva modalidad, que se suma a las ya conocidas técnicas de phishing y suplantación de identidad, representa un peligro cada vez más sofisticado para los usuarios de la popular aplicación de mensajería instantánea.

¿Cómo funciona la clonación de voces?: Los estafadores utilizan software de deepfake para crear audios falsos que imitan la voz de la víctima. Para ello, recopilan fragmentos de audio de la persona en cuestión, ya sea a través de sus redes sociales, llamadas telefónicas o grabaciones filtradas.

Una vez que tienen la voz clonada, los estafadores se contactan con la víctima por WhatsApp, haciéndose pasar por un familiar, amigo o incluso una empresa de confianza.

whatsappjpg

Con un tono convincente y utilizando frases o expresiones que solo la víctima y la persona real conocerían, logran engañarla para que revele información personal, como datos bancarios o claves de acceso.

Inteligencia Artificial: cómo protegerse de las estafas

Si recibes un mensaje de WhatsApp de un número desconocido o de un contacto que dice ser alguien que conoces, pero la voz te suena extraña:

  •  No compartas información personal: No proporciones datos bancarios, contraseñas ni ningún otro tipo de información sensible.
  • Verifica la identidad del contacto: Llama a la persona que dice ser o envíale un mensaje de texto desde otro número para confirmar su identidad.
  • Denuncia el número: Reporta el número telefónico a WhatsApp para que sea bloqueado y evitar que otras personas sean víctimas de la estafa.
  • Ten cuidado con lo que compartes en redes sociales: Evita publicar información personal o privada en tus redes sociales, ya que esta puede ser utilizada por los estafadores para crear deepfakes más convincentes.
  • Nunca compartas información personal con personas desconocidas o que no puedas identificar plenamente.
  • Confía en tu intuición: Si algo te parece extraño o fuera de lo normal, probablemente lo sea.
  • Mantén tus dispositivos actualizados: Las actualizaciones de software suelen incluir parches de seguridad que pueden protegerte de este tipo de ataques.
  • Denuncia las estafas: Si eres víctima de una estafa, repórtala a las autoridades correspondientes para que se tomen las medidas necesarias.

Es fundamental estar informados sobre las nuevas modalidades de engaño y tomar las medidas necesarias para protegernos. La prevención y la responsabilidad son claves para evitar ser víctimas de estos delitos.

minutouno.com

Te puede interesar
Marcelo-Molina-750x460

El Conicet lo hizo de nuevo. Un ingeniero sanjuanino fue elegido uno de los mejores científicos del mundo

NeuquenNews
TECNOLOGÍA04/10/2024

Por tercer año consecutivo, un investigador del Instituto de Energía Eléctrica (UNSJ-CONICET) se encuentra entre el 2% de los mejores investigadores internacionales. La lista, conocida como ‘World’s Top 2% Scientists List’, elaborada por la Universidad de Stanford, incluye a Molina entre los científicos más citados en su campo, reflejando su impacto significativo en la comunidad científica.

Opera Instantánea_2024-09-12_124637_chatgpt.com

La Inteligencia Artificial y el "Complejo de Frankenstein"

NeuquenNews
TECNOLOGÍA12/09/2024

En 1947, Isaac Asimov acuñó el término “complejo de Frankenstein” para referirse al temor constante de los humanos hacia la posibilidad de que sus creaciones –especialmente los robots con inteligencia avanzada– pudieran rebelarse en su contra. Este concepto ha sido repetido incesantemente en la ciencia ficción, donde las máquinas y las inteligencias artificiales pierden el control o deciden volverse contra sus creadores, a menudo con consecuencias destructivas.

Lo más visto