¿Quién define el propósito de la IA?
No caben dudas de que la inteligencia artificial (IA) es el desarrollo más disruptivo en la historia de la humanidad
No caben dudas de que la inteligencia artificial (IA) es el desarrollo más disruptivo en la historia de la humanidad. Su capacidad de resolver problemas concretos -como los visuales, lingüísticos, creativos y de toma de decisión- mediante la automatización de nuestros comportamientos la posiciona en la cúspide de las invenciones humanas. Sin embargo, a medida que avanza con la generación de datos sintéticos (IAGen), empieza a asomar la etapa en donde las máquinas logren igualar nuestras habilidades.
En una reciente entrevista con Nicolai Tangen, CEO del fondo soberano de Noruega, Elon Musk anticipó que esto ocurrirá en 2025 o a más tardar en 2026. Frente a este pronóstico, se impone una pregunta: ¿quién define el propósito de la inteligencia artificial? La esencia de la tecnología consiste en mejorar la calidad de vida de las personas, resolver problemas y ampliar capacidades. Históricamente, las invenciones humanas han perseguido esos nobles propósitos y, cuando se desviaron, el mundo ha intervenido para regular o incluso prohibir su utilización. Recordemos los casos de la energía nuclear y la radioactividad, que tuvieron el potencial para lograr enormes avances tanto en la generación de energía como en la evolución de la medicina, pero también presentaron una amenaza cuando se utilizaron para la fabricación de armas de destrucción masiva. En consecuencia, hubo que regularlos para prevenir su mal uso.
En el contexto que atravesamos, parece advertirse que con la IA está comenzando a suceder algo similar. Lo que a primera vista se veía como un gran avance para asistir a las personas en la resolución de problemas -desde la Máquina de Turing hasta ChatGPT- hoy empieza a convertirse en una amenaza para la humanidad si su desarrollo no es controlado. Aunque cueste creerlo, todavía estamos en una etapa embrionaria de la inteligencia artificial ( Narrow AI ), ya que las máquinas carecen de capacidad suficiente para generalizar su conocimiento en otras áreas distintas a las cuales se las entrena.
Elon Musk, con su declaración, adelantó la llegada de un nuevo tipo de IA: la fuerte, también llamada general ( AGI ). Esto abre una etapa dominada por sistemas con capacidades similares a las que poseemos las personas. Y si bien no todos los líderes de la industria comparten la misma visión optimista en cuanto al tiempo, como Sam Altman, CEO de OpenAI, y Ray Kurzweil, director de Ingeniería de Google, ninguno de ellos niega que eso vaya a suceder. Un ejemplo de lo que puede representar esta realidad es la reciente inauguración del primer hospital virtual completamente operado por IA, el Agent Hospital de China. Desarrollado por investigadores de la Universidad de Tsinghua, este entorno médico promete tratar hasta 10.000 pacientes en pocos días, utilizando modelos avanzados de lenguaje para simular interacciones médicas desde el diagnóstico hasta el tratamiento.
Esta visión pragmática de la IA no solo plantea cuestionamientos sobre los límites éticos necesarios para el uso de esta tecnología, sino que también nos obliga a reflexionar sobre el nivel de dependencia total en sistemas automatizados y la potencial deshumanización que podría generar la llegada de estas herramientas sofisticadas.
Mientras nos quedamos impresionados con las funcionalidades anunciadas por OpenAI (ChatGPT), Google (Gémini) y Meta (Meta AI), olvidamos que estas grandes corporaciones compiten entre sí por liderar la innovación y persiguen fines puramente económicos.
A los fines que venimos remarcando, devienen estériles los esfuerzos regulatorios actuales, ya que están enfocados en cuestiones macro que hacen a su uso, pero no en el establecimiento de las necesidades humanas sobre las que puede o debería avanzar. Hoy, un sistema de IA podría ser diseñado para asistir a las personas, pero, al mismo tiempo, reemplazarlas por completo y eso es algo que no está discutido en el nivel mundial como para saber si las personas realmente están de acuerdo con este propósito. Por eso, la gobernanza se convierte en un tema central, ya que su ausencia está permitiendo que cada país o corporación haga lo que quiera.
Hace poco, un grupo de empleados y exempleados de empresas líderes en tecnología, incluyendo OpenAI, alzaron la voz en una carta abierta titulada " A Right to Warn about Advanced Artificial Intelligence ", donde expusieron sus preocupaciones sobre los riesgos potenciales de esta nueva era. Estos expertos, que conocen de cerca el desarrollo de esta tecnología, advirtieron sobre las graves consecuencias que podría enfrentar la humanidad, llegando incluso a la posibilidad de extinción. A raíz de ello, solicitaron transparencia, responsabilidad y participación pública en el desarrollo.
Sin dudas, las decisiones que tomemos hoy sobre la dirección y el control de esta invención definirán nuestro futuro. No se trata solo del desplazamiento de humanos por máquinas; es una cuestión de cómo estos desarrollos pueden beneficiar verdaderamente a la humanidad, y se considera que desplazarla por completo no abastece el propósito de la tecnología. Por eso es esencial que sus avances se guíen por una gobernanza inclusiva que refleje las necesidades reales de la humanidad en lugar de estar impulsados por el liderazgo tecnológico y la ambición económica.
En última instancia, la IA no debe ser vista solo como una herramienta para la eficiencia y la productividad , sino como una fuerza que debe ser moldeada para servir a nuestros intereses. La cooperación internacional será esencial para establecer los límites de esta tecnología. Con un enfoque equilibrado y considerado, podemos asegurar que sus beneficios puedan verse distribuidos en forma equitativa y que su desarrollo respete y no perjudique a nuestra especie.
Abogado experto en nuevas tecnologías; director del área de Inteligencia Artificial y Derecho en el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA