Inteligencia artificial al servicio del cibercrimen: así la están utilizando
El panorama del cibercrimen en Colombia y América Latina enfrenta una transformación acelerada, impulsada por una herramienta cada vez más masiva y usada: la inteligencia artificial (IA)
El panorama del cibercrimen en Colombia y América Latina enfrenta una transformación acelerada, impulsada por una herramienta cada vez más masiva y usada: la inteligencia artificial (IA). Con ella, los ciberdelincuentes han encontrado una poderosa forma de potenciar sus ataques a una escala y con una sofisticación mayor. La IA les permite a los malos de internet crear ataques engañosos mas ‘humanos’, por tanto más efectivos, para suplantar entidades, empresas y personas, crear contenidos y narrativas en mensajes de texto, chat e incluso imágenes y videos que por su sofisticación y personalización se hacen, lastimosamente, más efectivos. Las cifras recientes de empresas como Kaspersky demuestran que solo en el último año, en Colombia, se detectaron 99 millones de intentos de suplantación de identidad o phishing en internet, un incremento del 65 por ciento en comparación con el periodo anterior, con un promedio de 273.000 ataques diarios. A través de las herramientas de ciberseguridad de la misma compañía se bloquearon, en el último año, 1.291 millones de ataques de phishing en América Latina, un aumento del 85 por ciento. El volumen de amenazas equivale a un promedio de 3,5 millones de ataques diarios, es decir, más de 2.400 por minuto. Las ‘granjas IA de engaños’ Con el uso de la IA, los cibercriminales han logrado refinar y, sobre todo, automatizar los ataques. Ha surgido un modelo conocido como ‘granjas de phishing’ (engaños), en las que se utilizan múltiples dispositivos móviles controlados para el envío masivo de mensajes de texto fraudulentos (smishing). Mediante tecnologías de automatización robótica de procesos (RPA), los criminales pueden personalizar y distribuir millones de mensajes engañosos en cuestión de minutos, con un costo operativo mínimo y una alta dificultad de rastreo. Esta nueva capacidad operativa ha modificado las reglas del juego, con la complejidad de que acceder a la inteligencia artificial ya no es una barrera técnica, lo que ha elevado la presencia de más actores maliciosos participando en el ecosistema del cibercrimen. En otro escenario, con la inteligencia artificial generativa se ha abierto la puerta a fraudes mucho más convincentes. El uso de audios y videos manipulados, conocidos como deepvoice (voces suplantadas) y deepfake (personas y rostros manipulados), permite a los estafadores suplantar la identidad de celebridades, figuras de autoridad o incluso de personas cercanas a la víctima. Y un tercer escenario de riesgo de ciberseguridad con la IA ocurre en el uso que las personas le dan en sus trabajos y oficinas a dicha tecnología. De acuerdo con Claudio Martinelli, director general de Kaspersky, existen riesgos de utilizar información sensible en plataformas públicas de IA generativa. En su consideración, entregar datos privados de negocio, como bases datos, presentaciones o documentos con información de propiedad industrial de la empresa, para pedirle a ChatGPT u otra IA gratuita que con ello cree algo, "los expone abiertamente y esa información queda en sus sistemas". Este uso indebido puede derivar en la filtración involuntaria de datos confidenciales, secretos comerciales o información estratégica, que luego podría ser accesible para otros usuarios que con solo preguntarla, a la misma IA gratuita, podrían tenerla. Aquí se hace fundamental la capacitación en el interior de las empresas para incentivar el uso y manejo responsable de estas tecnologías, con la idea de evitar que una herramienta diseñada para la productividad se convierta en una puerta trasera para la fuga de información valiosa de las empresas.
redacción tecnología