La Nación, Costa Rica
28 de enero de 2025
Opinión de Samuel Ardila | "Lo que diferencia a la Inteligencia Artificial Generativa de cualquier otra tecnología precedente es su capacidad de innovación basada en su potencial para aprender"
La IA generativa (IAG) es una rama de la inteligencia artificial en rápida evolución, diseñada para generar nuevo contenido que abarca desde texto, código y voz, hasta imágenes, videos, procesos y otros artefactos digitales, incluidas estructuras proteicas complejas. Así lo indica el estudio de Deloitte, Generative AI and the Future of Work.
Lo que diferencia a la IAG de cualquier otra tecnología precedente es su capacidad de innovación, basada en su potencial para aprender y, a partir de dicho aprendizaje, crear contenidos que permitirán adquirir o desarrollar nuevas capacidades, así como potenciar las ya existentes, tanto a nivel personal como empresarial.
Ahora bien, la IAG no solo ofrece beneficios potenciales. En la actualidad, existen casos reales de aplicaciones de esta tecnología en muchas organizaciones que ya han creado un valor significativo para su negocio. Algunos ejemplos son:
Empresas líderes en diversos sectores ya están cosechando los beneficios, demostrando que la IAG no es solo una tendencia, sino una herramienta fundamental para el futuro de los negocios.
Sin embargo, como con cualquier tecnología emergente, la adopción de la IAG no está exenta de desafíos. A medida que las organizaciones integran esta poderosa herramienta en sus operaciones, surgen nuevas preocupaciones, particularmente en el ámbito de la ciberseguridad. La misma capacidad de la IAG para crear y simular también puede ser explotada con fines maliciosos, presentando amenazas que las empresas deben abordar proactivamente.
Ciberamenazas
Desde la introducción de lAG, los actores de ciberamenazas han mostrado un mayor interés en aprovechar la IAG con fines maliciosos. Algunas de las que podrían tener un impacto más significativo son:
Estas amenazas no son potenciales o futuras, son reales y actuales. Por ejemplo, aunque los detalles específicos sobre malware desarrollado usando IAG pueden ser limitados, una empresa de tecnología presentó, años atrás, un concepto de malware denominado DeepLocker. Este malware utiliza IA y técnicas de aprendizaje profundo para ocultar su carga maliciosa dentro de una aplicación aparentemente benigna y usa modelos de reconocimiento facial, de voz o de geolocalización para identificar a la víctima objetivo. Solo se activa cuando reconoce a la víctima, lo que dificulta su detección y análisis. Aunque DeepLocker fue un experimento conceptual, demostró cómo la IA puede ser utilizada para crear malware altamente dirigido y sigiloso.
Un caso resonado de deepfake, utilizando IAG, fue el de un director ejecutivo de una empresa británica, a quien lo engañaron a través de una llamada telefónica en la que una voz generada por IA imitaba a su jefe, solicitándole una transferencia urgente de €220.000 (euros), según reportó el sitio de noticias WeLiveSecurity de Eset. La voz del deepfake imitaba no solo el acento alemán del jefe, sino también sus patrones de habla y entonación, lo que hizo que la solicitud pareciera legítima. Confiando en la autenticidad de la llamada, el CEO británico autorizó la transferencia de los fondos a una cuenta bancaria en Hungría. El fraude fue descubierto cuando los estafadores intentaron una segunda solicitud de transferencia de dinero.
Estos son algunos ejemplos de las amenazas relacionadas con la IAG que destacan la necesidad de una vigilancia constante y la implementación de medidas de seguridad avanzadas para mitigar los riesgos asociados con la IA Generativa.
Esta tecnología ofrece oportunidades sin precedentes para la innovación y la eficiencia empresarial, pero también introduce riesgos significativos en ciberseguridad. Por esta razón, crucial que las empresas sean conscientes de estos riesgos y adopten medidas proactivas para mitigarlos.