Están clonando las voces de familiares con IA para estafar: así opera el nuevo engaño de los ciberdelincuentes en Colombia

hace 1 mes 52

Un modelo de estafa que ha estado causando preocupación en el mundo en los últimos meses, también se ha trasladado a Colombia. La Fiscalía General de la Nación ya lanzó una advertencia sobre estafas utilizando esta tecnología.

Conforme a los criterios de

Según señaló el ente, los delincuentes se están valiendo de la inteligencia artificial para clonar las voces de familiares, amigos e, incluso, empleados de instituciones financieras, esto con el fin de hacer creer a las víctimas que se están comunicando con alguien de confianza.

Este modelo sofisticado de estafa, que le está dando dolores de cabeza a más de un país, también se ha estado presentando en Colombia y la Fiscalía reportó un aumento de casos de este tipo.

En los casos, los estafadores presentan situaciones de extrema urgencia a sus víctimas, para que estas cedan ante la presión y entreguen datos personales, entregue claves de acceso a las cuentas bancarias o realicen transferencias de dinero.

ChatGPT ocupó el primer lugar en las dos clasificaciones.

ChatGPT ocupó el primer lugar en las dos clasificaciones.

Foto:iStock

¿Qué hacer para no caer en estas estafas?

Entre las recomendaciones de las autoridades, se encuentra no confiar en llamadas inesperadas y sospechar cuando le están pidiendo claves de acceso o datos bancarios. Lo recomendable es colgar y comunicarse directamente con la persona que supuestamente le pide esta información.

Tenga una protección extra en sus cuentas mediante la verificación de dos factores en correos, cuentas en redes sociales y cuentas bancarias.

Mantenga contraseñas seguras y procure cambiarlas frecuentemente para proteger su seguridad.

Infórmese sobre las nuevas modalidades de estafa como esta para disminuir el riesgo de caer en el engaño.

El ‘deepfake’ como modalidad para estafar usando IA

Este tipo de estafa parece estar haciéndose cada vez más común, incluso en países como Estados Unidos. Se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.

HJN

Deepfake.

Foto:iStock.

Mediante distintas aplicaciones de IA, los ciberdelincuentes han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.

Sobre el tema se han referido expertos como Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.

Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.

De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.

“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista.

REDACCIÓN ÚLTIMAS NOTICIAS

Leer Todo el Artículo