Las preguntas que abre el caso Open AI
¿Cómo se sigue hacia adelante ante la duda de si la IA efectivamente representa una amenaza existencial para la especie?
Chat GPT, introducido hace un año por Open AI, ha concentrado la atención del mundo en la inteligencia artificial (IA). Los recientes acontecimientos relacionados con su gobernanza ilustran los profundos dilemas que rodean a esa actividad y a las compañías que la desarrollan.
Open AI fue creada en 2015 por un grupo de emprendedores e investigadores (entre ellos, Elon Musk y Sam Altman, su CEO) como una corporación sin fines de lucro. Su propósito era desarrollar la IA para bien de la humanidad, preocupados de que si el tema quedaba solo entregado a empresas comerciales, ese objetivo podría torcerse, amenazando el futuro de la especie. En 2018, Musk abandonó la corporación -no le permitieron dirigirla como él quería- y esta perdió a su principal financista. Altman salió a buscar financiamiento y logró que Microsoft aportara mil millones de dólares, pero a una subsidiaria con fines de lucro. En la actualidad, esa cifra ya subió a 13 mil millones. Esto plantea una primera pregunta: ¿es posible desarrollar esfuerzos intelectuales y tecnológicos gigantescos, como los que requiere la IA, sin recurrir a inversionistas que busquen un retorno por su aporte?
Por otra parte, con la IA no se da el conocido optimismo que los emprendedores e investigadores de Silicon Valley tienen respecto de los beneficios de la tecnología. Hay intensos debates entre ellos sobre las potenciales amenazas y peligros que la IA pudiera acarrear, los que para algunos podrían ser, incluso, existenciales. De ahí que la estrategia seguida por Altman en Open AI -avanzar desarrollando productos comerciales atractivos para las personas- comenzara a generar tensiones al interior del directorio de la matriz sin fines de lucro, entre las sensibilidades más optimistas y los pesimistas, lo que condujo a la destitución del CEO hace unos días, sin que los inversionistas de la subsidiaria con fines de lucro contaran con herramientas legales para evitarlo. Sin embargo, la casi totalidad de los trabajadores de la empresa se alzó en favor de Altman, y la propuesta de Microsoft, de contratarlos a todos si fuese necesario, provocó su reincorporación cuatro días después. Con ello volvió la normalidad, pero ha quedado planteada la pregunta: ¿cuál es la gobernanza adecuada para esas empresas, y cómo se compatibilizan los requerimientos de los nuevos accionistas con los objetivos de los fundadores y las convicciones de los empleados?
Más aún, a la luz de lo anterior, hay una tercera pregunta que subyace tanto a este episodio como al desarrollo de la IA en general: ¿cómo se sigue hacia adelante ante la duda de si la IA efectivamente representa una amenaza existencial para la especie, o si la concentración de poder que consiga algún grupo cuyo avance se transforme en decisivo resulta irreversible? Este fue el tema de una cumbre mundial de seguridad que reunió, a comienzos de noviembre, en Bletchley Park, Inglaterra, a representantes políticos de alto nivel, científicos y directivos de empresas tecnológicas para discutir la necesidad de introducir un control mundial a la IA, como se ha hecho con la energía nuclear, pero que no impida la plena obtención de sus beneficios. Para abordarlo es necesario que el avance no se detenga y así entender mejor sus consecuencias. Las simples prohibiciones solo otorgan ventajas a quienes las violan.
La IA es una herramienta tecnológica que promete resolver una multitud de problemas que hoy aquejan al mundo, desde el cáncer y las terapias génicas, al cambio climático. Pero también plantea dilemas complejísimos. Estos últimos requieren ser enfrentados con una mezcla de audacia y prudencia, asumiendo riesgos, pero también adoptando precauciones. Las innovaciones que se introduzcan deberán complementarse con la cuidadosa evaluación de sus consecuencias. El episodio de la gobernanza de Open AI abre una pequeña rendija hacia el desafiante escenario que se avecina.