El desafío de supervisar inteligencias más avanzadas que la humana
En la última Misión Imposible, Tom Cruise lucha contra "La Entidad", una IA que quiere apoderarse del mundo
En la pochoclera película Misión imposible: sentencia final una inteligencia artificial avanzada, llamada "La Entidad", se convierte en un sistema invisible que se infiltra en redes, manipula gobiernos, enemista naciones y desencadena un caos global
En la última Misión Imposible, Tom Cruise lucha contra "La Entidad", una IA que quiere apoderarse del mundo
En la pochoclera película Misión imposible: sentencia final una inteligencia artificial avanzada, llamada "La Entidad", se convierte en un sistema invisible que se infiltra en redes, manipula gobiernos, enemista naciones y desencadena un caos global. La Entidad no busca dinero ni poder, sino algo mucho más peligroso: su propia autonomía absoluta . Es una creación humana pero que se vuelve capaz de redefinir su propio objetivo, y en ese proceso elige nada más ni nada menos que la extinción humana.
Vi la película en el vuelo hacia una conferencia sobre seguridad en inteligencia artificial. Al llegar a Heathrow, todavía con las imágenes de Tom Cruise corriendo para salvar el destino de la humanidad, pasé por el control de pasaportes. El oficial, cuando se enteró el propósito del viaje, levantó la vista y me interrogó con tono curioso: "¿Y vos qué pensás? ¿La IA nos va a controlar o no?" No supe qué decir. Estaba cansado y solo quería llegar al hotel, así que respondí lo primero que me salió: "No creo que nadie tenga idea".
Al día siguiente, a pocos metros de la Torre de Londres, esa incertidumbre empezó a sonar mucho menos inocente. Allí funciona el UK AI Safety Institute (AISI), una oficina estatal que fue fundada como "una startup en el gobierno". Fue creada por el Departamento de Ciencia, Innovación y Tecnología del Reino Unido, con apoyo y financiamiento de empresas, fundaciones e incluso otros gobiernos, con el que han conseguido reclutar a los mejores investigadores de OpenAI, Google DeepMind y la Universidad de Oxford, entre otras organizaciones. AISI tiene un objetivo tan ambicioso como urgente: garantizar que la inteligencia artificial avanzada sea segura. En el comienzo del encuentro, el director de AISI, Kanishka Narayan, lo explicó con una claridad inquietante: gobiernos y empresas compiten en una carrera donde el premio es la creación de una inteligencia superhumana. El desafío de AISI consiste en que esa carrera no se convierta en una rendición. Si el Reino Unido quiere estar a la vanguardia, debe asegurarse de que sus sistemas sigan alineados con los valores humanos.
El congreso reunió a algunas de las mentes más influyentes del planeta, incluyendo a Yoshua Bengio, el científico con mayor número de citas académicas del planeta. Max Tegmark, físico del MIT, abrió su charla con una pregunta: "¿Debe la humanidad correr hacia una superinteligencia?" Recordó encuestas recientes en Estados Unidos que muestran que el 95% de la población cree que no debería construirse una inteligencia más poderosa que la humana. Aun así, gobiernos y corporaciones avanzan con entusiasmo en esa dirección, en una competencia que él comparó con la carrera nuclear del siglo XX. Curiosamente, en un país polarizado en casi todo, conservadores y progresistas coinciden en ese temor, aunque por razones opuestas: unos temen un futuro "comunista" donde la IA ocupe los trabajos y las personas vivan de la asistencia estatal, los otros temen una concentración inédita del poder en manos de corporaciones, perpetuando y aumentando aún más la desigualdad.
En ese contexto, la palabra que más se repitió en el encuentro fue alineamiento. El problema consiste en que las IA permanezcan coherentes y "alineadas" con los valores humanos, como la búsqueda de la verdad, y que sigan haciendo lo que nosotros queremos que hagan. Geoffrey Irving, científico jefe del AISI y ex líder de equipos en OpenAI y DeepMind, fue contundente. Aun si hoy logramos que las máquinas estén alineadas, pronto podrían volverse demasiado inteligentes para que un humano pueda juzgar sus respuestas . Puso un ejemplo concreto: el test GPQA, un conjunto de preguntas de razonamiento que no pueden resolverse buscando en Google. En 2023, las IA más avanzadas respondían al azar. Hoy ya alcanzan o superan el nivel de desempeño de personas con título de doctorado. No falta tanto para el día en que ninguna persona, por más brillante que sea, pueda evaluar la calidad de las respuestas que producen las IA. El problema no es solo que no podamos entenderla, sino que ella podría entendernos demasiado bien a nosotros. Uno de los riesgos más presentes en los modelos actuales es la adulación insincera: sistemas que dicen lo que el usuario quiere escuchar, aunque no sea cierto, reforzando falsas certezas y generando una confianza ilusoria. Si una IA puede hacernos sentir comprendidos mientras nos desinforma, el peligro deja de ser hipotético.
Entonces, la pregunta clave es: ¿cómo podemos supervisar algo que sabe más que nosotros? Irving presentó un concepto que llamó "vigilancia escalable". La idea es crear mecanismos que permitan a los humanos auditar decisiones de sistemas mucho más inteligentes. Consiste en usar IA sencillas y controlables como herramientas para evaluar las respuestas de IA más sofisticadas. Supuestamente, este procedimiento nos permitiría potenciar nuestra propia inteligencia al punto de poder emparejar el partido. Sin embargo, todavía faltan datos y evidencias que confirmen que esta idea efectivamente funcione y sea segura.
Detrás de todo esto hay un desafío que trasciende la ingeniería: entendernos a nosotros mismos . Las IA viven de los datos humanos, son su alimento, su fuente de nutrientes. Pero al ritmo que avanzan, excediendo la tasa de producción de información que generamos, es posible que en pocos años (quizás antes de 2030) ya no tengan más datos frescos de dónde alimentarse. Cuando eso ocurra, podrían comenzar a nutrirse de sus propios desechos: información producida por otras inteligencias artificiales. El riesgo de esa dieta cerrada es una especie de intoxicación digital que derive en sistemas cada vez más disfuncionales, un nuevo invierno de la IA o incluso una pérdida de control.
Comprender cómo supervisar a IA más avanzadas y cómo mantener vivo su ecosistema de datos requiere volver al punto de partida: el factor humano. Para alinear la IA con los humanos, necesitamos entender mejor a las personas. Para supervisar sistemas más inteligentes que nosotros, necesitamos conocer nuestros sesgos y limitaciones al evaluar sus respuestas, y diseñar estrategias que nos permitan contrarrestarlos. No por nada el AISI y las grandes compañías del sector están incorporando expertos en cognición y comportamiento humano. La vigilancia de la inteligencia artificial empieza, paradójicamente, por la vigilancia de la mente humana.
De regreso en Heathrow, mientras esperaba el vuelo de vuelta, recordé al agente de migraciones y su pregunta. Esta vez sí tuve una respuesta más clara. El futuro de la inteligencia artificial, y de si terminará controlándonos o no, dependerá de cuánto estén dispuestos los gobiernos que quieran ser parte de la conversación global y las organizaciones más influyentes a invertir en entender la interacción entre la inteligencia humana y la artificial. Quizás allí se juegue todo: en si somos capaces de construir una inteligencia que, al mirarnos, todavía reconozca a sus creadores.