Viernes, 01 de Agosto de 2025

El desafío técnico y ético de entrenar a los sistemas de IA para la evaluación crediticia

ChileEl Mercurio, Chile 31 de julio de 2025

Los modelos algorítmicos requieren grandes volúmenes de datos, con información relevante para evitar sesgos y desigualdades pasadas.

El sostenido crecimiento del ecosistema fintech revela cada vez más y nuevos retos para lograr uno de sus principales objetivos: democratizar las finanzas. Y lo hacen con creatividad y tecnología, usando algoritmos de inteligencia artificial (IA) para analizar transacciones e historial crediticio, agilizar evaluaciones y respuestas y ofrecer productos personalizados.
En este contexto, enfrentan un desafío técnico y ético decisivo: entrenar sistemas de IA capaces de evaluar correctamente a los solicitantes de crédito, sin reproducir sesgos históricos ni ser difíciles de auditar.
"Los modelos de IA requieren grandes volúmenes de información para aprender, pero muchas veces los datos disponibles son parciales o están sesgados. En lugar de corregir este problema, tienden a amplificarlo", explica Pablo Neudörfer, director del Magíster en Economía de la Universidad de Talca. Y agrega que los sistemas complejos, al no ser fácilmente interpretables, plantean una dificultad adicional: "Es muy difícil detectar a tiempo si el modelo sigue criterios adecuados, porque en la práctica se transforman en cajas negras", cuyo funcionamiento interno es desconocido o inaccesible para el usuario o regulador.
Esto puede originar decisiones crediticias poco justificables, en especial, si no se detectan los sesgos durante el entrenamiento del modelo, ya sea "por la falta de datos representativos o por las características del programador (la institución). Incluso con datos amplios, no siempre se incluyen todas las variables relevantes. Esto lleva a correlaciones espurias que pueden perjudicar a ciertos grupos", advierte Neudörfer.
Marcelo Oyarzún, chief risk officer (CRO) de Tenpo, reconoce que el entrenamiento de los modelos es una tarea crítica. "Comenzamos en 2023 con pruebas controladas, testeando distintas variables y scores . Eso nos permitió desarrollar herramientas que hoy desafían nuestras políticas tradicionales, para llegar a más clientes, manteniendo niveles de riesgo controlado", cuenta.
Tenpo realiza evaluaciones en tiempo real desde una app móvil, sin intervención humana. Para ello, se apoya en modelos entrenados con datos públicos e internos y fuentes alternativas como indicadores de fraude o comportamiento digital. "La estrategia va aprendiendo con cada cliente. Esa retroalimentación alimenta nuestros modelos y mejora la precisión de las decisiones", comenta Oyarzún.
Estos avances han permitido incluir a clientes sin historial bancario o con antecedentes deteriorados. "La IA es un habilitador para llegar a nuevos segmentos, pero requiere un uso responsable. La historia puede reflejar desigualdades pasadas que los modelos no deben perpetuar. Por eso, aplicamos validaciones continuas y estrategias de supervisión que mantengan al cliente en el centro", afirma el ejecutivo de Tenpo.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela