Guía para evitar ser engañado por las ‘deepfakes’
JUAN LUIS DEL CAMPO - EL COMERCIO (PERÚ)
¿Puede diferenciar entre una imagen real o una creada por inteligencia artificial (IA)? Los avances en la tecnología IA han llevado a una realidad en la que no siempre es confiable lo que ven nuestros ojos y escuchan nuestros oídos
JUAN LUIS DEL CAMPO - EL COMERCIO (PERÚ)
¿Puede diferenciar entre una imagen real o una creada por inteligencia artificial (IA)? Los avances en la tecnología IA han llevado a una realidad en la que no siempre es confiable lo que ven nuestros ojos y escuchan nuestros oídos. Con la IA se crean audios de un familiar pidiéndonos una transferencia de dinero o detalles de nuestras cuentas bancarias. Además de todas las ventajas que nos ha traído la inteligencia artificial generativa, esta también ha ampliado las capacidades de los cibercriminales para llevar a cabo sus estafas con herramientas cada vez más sofisticadas para engañarnos como los deepfakes, imágenes creadas por IA que emulan a personas reales. "Un deepfake es una alteración digital de una imagen, un video o un audio utilizando IA con la intención de suplantar la identidad de otro en alguna acción o algún escenario. Se utiliza ingeniería social para engañar a una persona o a un grupo de personas y hacerles creer que se encuentran frente a una persona -sea alguien conocido o alguien famoso- para tener acceso a datos confidenciales, contraseñas, credenciales bancarias o de cuentas en varios servicios o incentivarlos a invertir en algo como una criptomoneda", indicó Leandro Cuozzo, analista de seguridad en Kaspersky Latinoamérica. El experto dividió las estafas en dos modalidades a grandes rasgos. La primera, la suplantación de famosos o figuras públicas para incitar a inversiones falsas o robo de credenciales. Un ejemplo de esto fue el caso de una mujer argentina que fue engañada por un falso George Clooney para colaborar monetariamente en actividades del club de fans del actor, perdiendo alrededor de 15.000 dólares. La segunda, la usurpación de identidad de un usuario para abrir cuentas en billeteras virtuales y solicitar préstamos. En la primera modalidad es en la que nos centraremos en este artículo, dando consejos para que el usuario esté más preparado para identificarlas y así no caer en estos engaños. Sin embargo, una manera de protegernos del segundo caso, la suplantación de identidad, es restringiendo la cantidad de información personal, fotos y videos que uno comparte en línea y en redes sociales. Esto les dará menos información a los cibercriminales que quieran imitarnos mediante un deepfake. Antes era más fácil identificar si una imagen, un video o un audio habían sido manipulados mediante tecnología, mientras que hoy los nuevos avances de la IA han reducido los errores y han perfeccionado la manipulación de los contenidos audiovisuales. Por eso, acá le damos algunas pautas para estar atentos a los fallos en la generación de imágenes, videos y audios de la IA.
Otros ‘tips’
"Lo que más recomiendo para tratar de detectar un deepfake es analizar más el contexto -señaló Leandro Cuozzo, de Kaspersky-. Por ejemplo, un video en el que Elon Musk, en un español perfecto, me dice que, si invierto en algo, me va a devolver cinco veces mi inversión. Eso es algo para tener precaución. ¿Por qué? Porque Musk no habla el español perfecto, no existen inversiones que te devuelvan el quíntuple de lo que invertiste y, bueno, se trata de una oferta muy rara". El experto recomendó cuatro factores que uno debe tener
en cuenta. Verificar siempre la fuente
y el remitente. ¿Es confiable?
¿Es oficial? Analizar el contexto: ¿qué pide el mensaje? ¿cómo lo dice? ¿qué emociones intenta provocar? Los cibercriminales muchas veces quieren generar una sensación de premura para que sus
víctimas cometan errores. Desconfiar si piden datos confidenciales como contraseñas o
información bancaria. Sospechar si ofrecen algo
demasiado bueno para ser
cierto. Si hay una inversión tan buena como para duplicar su
inversión, ¿por qué la difundirían en vez de sacar todos los
beneficios para ellos?