Sábado, 27 de Julio de 2024

Experto advierte que no hay pruebas de que IA pueda controlarse de forma segura

ChileEl Mercurio, Chile 13 de febrero de 2024

Ante las posibles amenazas que tendría esta tecnología, avanzar en temas de seguridad es clave.

Luego de revisar diversos estudios sobre inteligencia artificial (IA), Roman Yampolskiy, experto en seguridad de la IA, informático y profesor de la U. de Louisville (EE.UU.) asegura que no hay pruebas de que esta tecnología pueda controlarse de forma segura. Y que, ante la falta de evidencia, no debería desarrollarse.
"Estamos ante un evento casi garantizado con potencial para causar una catástrofe existencial. No es de extrañar que muchos consideren que este es el problema más importante que jamás haya enfrentado la humanidad", advierte en su nuevo libro "AI: Unexplainable, Unpredictable, Uncontrollable".
"¿Por qué tantos investigadores suponen que el problema del control de la IA tiene solución? Que nosotros sepamos, no hay evidencia de ello. Antes de lanzarse a construir una IA controlada, es importante demostrar que el problema tiene solución", dice.
Y agrega: "Esto, combinado con estadísticas que muestran que el desarrollo de la superinteligencia de IA es un evento casi garantizado, muestran que deberíamos apoyar un esfuerzo de seguridad de IA".
Según asegura, uno de los problemas es que esta tecnología no puede explicar lo que decide, o las personas no logran entender la explicación.
Rodrigo Durán, director ejecutivo del Centro Nacional de Inteligencia Artificial (Cenia), considera que lo primero es definir qué es "controlar". "Si tu noción de control es que yo puedo detener esto (la IA); sí, puedo hacerlo. Si tu definición es que yo puedo hacer que la máquina responda mejor a mis requerimientos, también puedo hacerlo. Pero, si es tener un seguimiento preciso de las respuestas que está entregando, no puedo hacerlo, porque tenemos desafíos de explicabilidad todavía. Aún no entendemos cómo funciona la 'caja negra' con la profundidad que requerimos".
Yampolskiy cree que para minimizar el riesgo, es necesario que la IA sea modificable con opciones de "deshacer", limitable, transparente y fácil de entender en lenguaje humano. Durán, por su parte, estima que "urge aumentar la investigación y la preocupación de los países en entender mejor estos modelos de aprendizaje profundo", como avanzar en un entendimiento básico de la población sobre esta tecnología.
Pero eso no quiere decir "que debamos detener el desarrollo; hemos visto que son útiles en diversos ámbitos. Debiéramos seguir trabajando en promover su adopción y uso responsable", agrega.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela