Los deepfakes y las deepvoices, tecnologías cada vez más prevalentes en el ámbito digital, están siendo utilizadas con creciente frecuencia por ciberdelincuentes para suplantar a personas famosas como James Rodríguez, Scarlett Johansson e incluso a personas del común con el fin de estafar a otros.
Conforme a los criterios de
Estas herramientas permiten suplantar rostros y voces, especialmente de figuras públicas, con el objetivo de incitar a las personas a invertir en criptomonedas o llevar a cabo fraudes como el robo de dinero mediante la suplantación de la voz de un familiar o amigo cercano. ¿Quién puede considerarse a salvo en este entorno digital? ¿Cómo se puede controlar esta amenaza?
Isabel Manjarréz, experta en este tipo de tecnología e invitada por Kaspersky, habló con EL TIEMPO acerca de este fenómeno en expansión que pone en tela de juicio la distinción entre lo real y lo falso y planteó interrogantes sobre los límites éticos y legales que se cruzan al usurpar la identidad de una persona en internet para crear contenido pornográfico o cometer estafas.
Los deepfakes, que replican los rostros y gestos de las personas, se generan a través de redes neuronales profundas. Estas redes procesan múltiples capas de la identidad de una persona, junto con fotogramas capturados desde diversos ángulos, para producir videos que son prácticamente indistinguibles de la realidad.
En cuanto a las deepvoices, esta tecnología imita el ritmo y el tono de la voz de una persona. A partir de un texto ingresado, la inteligencia artificial genera una reproducción de la voz que busca ser lo más fiel posible al original.
La proliferación exponencial de deepfakes, imágenes y videos en los que se suplantan identidades para que el personaje creado con IA sea lo más fiel a la persona real y diga o haga lo que el estafador quiere, lo que desafía la capacidad de los ciudadanos para distinguir entre la realidad y la ficción.
Según datos del Foro Económico Mundial, la cantidad de videos deepfake en línea ha aumentado a una tasa anual estimada de alrededor del 900 por ciento, lo que representa un reto para la sociedad. Si bien estas tecnologías pueden tener aplicaciones legítimas, los usos más preocupantes para Manjarrez incluyen la suplantación de identidad, el chantaje, las estafas, e incluso la manipulación de medios o figuras públicas.
Aunque todos estamos potencialmente expuestos a estos ataques, las personas comunes que comparten numerosas fotografías en redes sociales son particularmente vulnerables. Manjarréz subraya que, cuanto más material se suba a perfiles públicos, mayor será la cantidad de información disponible para los ciberdelincuentes.
“Si tenemos nuestras redes sociales abiertas y públicas estamos expuestos a cualquiera y cualquiera puede hacer uso o mal uso de nuestra información. Hay que tener mucho cuidado con las configuraciones que tenemos en las redes y quién las puede ver, con quién estamos compartiendo estados o historias y si realmente queremos que esa gente la vea”, afirma esta experta en ciberseguridad.
Pero no solo esta tecnología podría afectarlo como persona, pues su identidad y los derechos de su imagen podrían estar en riesgo. En el caso de las figuras públicas, ‘influencers’ y hasta medios de comunicación el tema se vuelve más complejo: “A lo mejor puedo tener los derechos de autor, pero si le di ‘aceptar’ a todo, de ahí, aunque sea mío, ya cedí mis derechos”, asegura Manjarréz.
Los deepfakes están rozando el límite de la legalidad, pues en muchas ocasiones se toman los rostros de mujeres e incluso niños para realizar contenido para adultos, por lo que se necesitan regulaciones legales para evitar que las personas sean víctimas de chantajes.
“La regulación tiene que ir a la par de cómo avanza la tecnología y aquí también tiene que ver la ética del usuario, al final la inteligencia artificial es solo una herramienta y quien le da la información somos nosotros, entonces el uso ético va por parte de los usuarios”, puntualizó.
Según datos recolectados por la firma de ciberseguridad Kaspersky, en Colombia el 63 por ciento de las personas no sabe cómo identificar un deepfake, mientras que el 37 por ciento aseguró que sí. Pero las cifras no son alentadoras cuando se trata de los videos, pues en el país solo el 28 por ciento de los encuestados aseguró que podía identificar un video falso.
¿Qué riesgos representan los delincuentes cibernéticos para la verificación biométrica en los bancos y aplicaciones?
Es común que varias aplicaciones bancarias pidan un registro biométrico o por voz para asegurar que sus usuarios son únicos y evitar algún tipo de suplantación de sus clientes, sin embargo, la tecnología de los deepfakes ha llevado a los delincuentes un poco más allá, logrando burlar estos registros biométricos y accediendo a préstamos de grandes sumas de dinero mediante canales digitales.
Incluso, Manjarrez asegura que muchas personas le dan documentos oficiales o con contenido personal a la inteligencia artificial, práctica que supone un riesgo de fraude. “Si le doy a leer (a la IA) un contrato confidencial puede caer en las manos equivocadas”, destaca.
Esta experta en deepfakes también se refirió al escaneo del iris, una práctica que se ha popularizado en los últimos meses, la cual tienen como objetivo el obtener métodos de verificación de identidad más especializados.
Manjarréz aseguró que, de momento, esta tecnología de escáner biométrico con el iris no es tan popular para acceder a aplicaciones como sí lo son el reconocimiento facial y la huella dactilar.
Sin embargo, mencionó sobre este nuevo método de validación de identidad que “lo que está en internet puede quedarse en línea por siempre y no siempre lees para qué una empresa va a utilizar los datos biométricos que le ofreces”.