Claves para que no lo estafen con la inteligencia artificial
CARLOS A
CARLOS A. CASTAÑEDA MARROQUÍN (*) - PARA EL TIEMPO
Hace algunos años, cuando hablábamos de inteligencia artificial (IA), pensábamos en robots o programas capaces de realizar tareas automáticamente. En la actualidad, en términos sencillos, esta tecnología permite a los computadores reconocer patrones en grandes cantidades de información y generar contenido nuevo: texto, imágenes, audios o incluso videos que pueden parecer reales. El problema es que esa misma tecnología también se usa para estafar. Y no se trata de ciencia ficción: ya hay casos en Colombia en los que personas han perdido dinero tras recibir llamadas con voces clonadas, videos falsos o mensajes extremadamente convincentes generados por inteligencia artificial. La tecnología que antes estaba reservada para laboratorios ahora está al alcance de cualquiera con conexión a internet y eso ha cambiado el panorama del fraude digital. Voz y video son replicables Uno de los engaños que más están creciendo es la clonación de voz. Con apenas unos segundos de audio -que pueden obtenerse de un video en redes sociales, una nota de voz o incluso una llamada grabada-, los delincuentes pueden generar una réplica casi idéntica de la voz de una persona. El escenario suele ser el mismo: una llamada urgente con guiones parecidos a estos: "Mamá, tuve un accidente". "Estoy detenido, necesito que hagas una transferencia ya" o "Me robaron el celular, este es mi nuevo número". El tono es angustiado, la voz suena real, la historia parece coherente. Y en cuestión de minutos, la víctima realiza la transferencia. La inteligencia artificial no solo copia el timbre de voz; también puede imitar pausas, acentos y emociones. Cuando se combina con información obtenida de redes sociales -viajes, familiares, lugares frecuentados por una persona-, el engaño se vuelve aún más creíble. Estos engaños también pueden incorporar imágenes con los deepfakes, que son videos manipulados mediante inteligencia artificial que permiten reemplazar el rostro o modificar la voz de una persona. En ese sentido, en la actualidad es posible crear un video falso en el que, por ejemplo, un "jefe" solicita un pago urgente, un supuesto funcionario da instrucciones o una figura pública promociona una inversión fraudulenta. Aunque muchas veces hay pequeños detalles que delatan la manipulación -movimientos faciales extraños o sincronización imperfecta de labios-, no siempre son evidentes para el usuario promedio, especialmente si el mensaje llega en un momento de presión. De otra parte, en Colombia, WhatsApp sigue siendo el canal favorito de los estafadores. Pero, a diferencia de antes, ahora muchos de esos mensajes ya no están mal redactados ni tienen errores evidentes porque la IA permite generar textos personalizados y coherentes. El delincuente puede analizar información pública de sus víctimas en redes sociales y construir un mensaje casi a la medida: "Hola, Carlos, vimos que hiciste una compra reciente. Necesitamos confirmar el pago antes del envío". El nombre correcto, el contexto adecuado y el momento preciso hacen que la víctima baje la guardia. Algunos fraudes combinan varias técnicas: primero llega un mensaje; luego, una llamada con voz clonada, y finalmente, un enlace falso para completar el pago. ¿Por qué este tipo de fraudes son tan peligrosos? Porque atacan algo fundamental: la confianza. Durante años nos enseñaron a desconfiar de correos mal escritos o de números desconocidos, pero ahora el fraude puede sonar perfecto, verse real y estar bien redactado. Además, la IA permite automatizar ataques, con lo cual un estafador puede enviar miles de mensajes personalizados en cuestión de minutos. Y si solo un pequeño porcentaje de las personas cae, el fraude resulta rentable. Ante estos riesgos, hay varias medidas que le permitirán estar más seguro (ver recuadro), pero si ya fue víctima de una de estas estafas, recuerde que actuar rápido es fundamental. Mientras más rápido actúe, mayores son las probabilidades de limitar el daño. En esos casos es importante que contacte de inmediato a su banco para bloquear las transferencias que puedan hacer los delincuentes; reporte el número del estafador en WhatsApp, denuncie lo sucedido ante la Policía Nacional (Centro Cibernético Policial) y cambie las contraseñas. Finalmente, recuerde que la inteligencia artificial no es el enemigo, es una herramienta poderosa con beneficios para la educación, la salud y la productividad. El problema no es la tecnología, sino su uso malintencionado. En un mundo donde la voz puede ser falsificada y el video manipulado, la mejor defensa sigue siendo la misma: pensar antes de reaccionar, verificar antes de transferir y nunca actuar bajo presión. (*) Ph. D. Especialista en ciberseguridad.