¿La inteligencia artificial... (viene de página 1)
Hay una nueva forma de poder, cuyos ejemplos paradigmáticos son Donald Trump y Elon Musk, en la que el control se ejerce no reprimiendo la verdad, sino multiplicando las narrativas hasta el punto en el que es imposible fijar una referencia
Hay una nueva forma de poder, cuyos ejemplos paradigmáticos son Donald Trump y Elon Musk, en la que el control se ejerce no reprimiendo la verdad, sino multiplicando las narrativas hasta el punto en el que es imposible fijar una referencia. Es una nueva arquitectura de la realidad, dice el filósofo chino Jianwei Xun, y la llama "hipnocracia", concepto que presentó en un artículo de la revista Le Grand Continent, y que también da nombre a su primer y hasta ahora único libro.
"En 'Hipnocracia', Jianwei Xun revela los mecanismos a través de los cuales opera el poder en la era de la percepción digital", se explica en el sitio web del autor (jianweixun.com). "Aunque la mayoría de los análisis se centran en fenómenos como las noticias falsas o la posverdad, Xun revela una transformación más profunda".
"El análisis de Xun va más allá de la crítica tradicional a las redes sociales o la desinformación. Introduce el concepto de hipnocracia para describir un sistema en el que el poder opera directamente sobre la conciencia, creando estados alterados permanentes mediante la manipulación algorítmica de la atención y la percepción. Las plataformas digitales no son meras herramientas de comunicación; son tecnologías hipnóticas que remodelan activamente nuestra forma de percibir e interpretar la realidad".
Las ideas de Xun, el nuevo concepto que introduce para comprender nuestro presente, captaron la atención de la academia y de los medios de comunicación. Su libro fue traducido al francés, español e italiano. Es "una de las figuras más brillantes de la filosofía contemporánea de Hong Kong", así presenta la editorial española Rosamerón al filósofo. Hay un detalle, eso sí: Jianwei Xun no existe, o al menos no en el sentido que le daríamos a la existencia en una conversación con amigos o conocidos.
La semana pasada se descubrió que el filósofo y su obra son en realidad una creación de quien hasta entonces figuraba como su traductor, el ensayista italiano Andrea Colamedici, en colaboración con dos plataformas de inteligencia artificial.
Ante las acusaciones de engaño, o al menos de no transparentar, como exigen las leyes europeas, que "Hipnocracia" era un producto en el que habían intervenido dos IA, Colamedici ha dicho que se trata de un experimento filosófico y de una performance artística.
Engaño o experimento, tal vez habría que decir hipnosis; cuánto hay de humano y cuánto de algoritmo, es o no creativa la IA, en esas dudas navegamos. Como sea, el asunto es que hay una nueva idea, que esa idea tuvo buena recepción, que al parecer aporta al muy humano intento de comprender el mundo, y entonces, ¿importa que sea en parte un producto algorítmico?
Fronteras desdibujadas
La filósofa Gabriela Arriagada-Bruneau, profesora de la Universidad Católica, especializada en ética de la IA y datos, y autora del ensayo "Los sesgos del algoritmo", cree que el caso de Jianwei Xun sí es una "novedad relevante" respecto de lo que ya hemos visto de estas herramientas digitales.
"Primero, no se trata solo del uso de IA como herramienta técnica, sino de una coautoría intencional en la producción de pensamiento filosófico, con el objetivo explícito de intervenir en el debate público", explica. "Esto desdibuja las fronteras entre autor y asistente, entre sujeto pensante y máquina, poniendo en discusión nuestros criterios de credibilidad epistémica".
"Además", agrega, "introduce una dimensión performativa: la IA no solo asiste, sino que participa en la creación de una obra que interpela críticamente a la sociedad. Que esta obra haya sido reconocida por el mundo académico y mediático antes de conocerse su origen artificial, representa un salto epistemológico y ético en la relación entre IA y humanidades que no debemos dejar pasar como una simple anécdota".
El filósofo Raúl Villarroel, decano de la Facultad de Filosofía y Humanidades de la Universidad de Chile, y que ha dedicado su trabajo a las éticas aplicadas y el pensamiento contemporáneo, dice que, "tal vez", no sea tan novedoso el caso, "dado que existe desde hace tiempo la convicción de que los alcances y posibilidades de la performance de la IA son ilimitados e incluso insospechados".
"Excepto", advierte, "si los resultados tenidos a la vista son de tal naturaleza que tensionen o derechamente hagan colapsar a nuestras referencias más usuales respecto de la verdad, la corrección o la probidad de nuestras acciones, como parece estar ocurriendo con el caso del ejercicio llevado a cabo por Andrea Colamedici".
Villarroel observa que "ejercicios engañosos", como el del ensayista italiano, "lo que hacen es ponernos ante una escena del presente que parece extraída de la ficción y que corresponde a una situación difícil de evaluar o admitir éticamente, porque corre irreversiblemente el límite entre la verdad y la mentira, como hasta ahora las hemos entendido. A partir de este instante de la historia, muchas personas estarán convencidas de que hemos ingresado de lleno en el dominio de aquello que algunos han denominado la 'pesadilla digital', ese ámbito inefable donde todo nuestro mundo anterior, construido sobre la idea de la 'verdad' y las referencias de lo que hemos considerado 'real', se comienza a desmoronar".
Novedad o no (ella piensa que no es distinto de las polémicas generadas por la proliferación de imágenes, textos, músicas y videos generados por IA, además de que muchas actividades humanas, como el diagnóstico médico, ya se apoyan en la IA), la socióloga Carolina Gainza, fundadora del Laboratorio en Cultura Digital UDP y autora del libro "Narrativas y poéticas digitales en América Latina", cree que el caso Xun "genera impacto porque no fuimos capaces de identificar que el texto fue coescrito por dos IA y que su autor, presentado como un humano, en realidad es una IA coautora del texto".
"Caímos, paradójicamente, en el juego de la 'hipnocracia' propuesto en el libro", apunta Gainza. "Por otra parte, la propuesta teórica entra en el área de las humanidades, la filosofía específicamente, que hasta ahora había sido poco tocada por la IA. Las humanidades se definen, en parte, por el ejercicio del pensamiento crítico y el intelecto para abordar los fenómenos del mundo. Ahora entra una IA en esa práctica que considerábamos tan propiamente humana. Mi pregunta es, ¿por qué no ocurriría si ya está ocurriendo en tantos otros ámbitos de nuestra existencia?".
A pesar de lo dicho, a Arriagada-Bruneau no le parece que este caso demuestre que la inteligencia artificial pueda filosofar, al menos no en sentido estricto. Demuestra, sí, "que el campo cultural y la predisposición de las personas nos inclina a atribuir profundidad a cualquier discurso que se parezca (o simule) al filosófico, si cumple ciertas condiciones de forma y performatividad".
"Lo que resulta preocupantemente novedoso es nuestra vulnerabilidad simbólica frente a lo que percibimos como autoridad epistémica", afirma.
"Mi experiencia de trabajar con IA y, además de investigarla desde la ética, me ha llevado a concebirla no tanto como una 'inteligencia', sino como un dispositivo de producción discursiva que refleja y reproduce los sesgos, silencios y hegemonías de los corpus con los que fue entrenada. Por eso, toda interacción con IA requiere un toque escéptico, que nace de la sospecha y del desacuerdo, como formas de preservar el pensamiento crítico, que es el corazón del quehacer académico".
¿Quién piensa?
Independientemente de las consideraciones hechas, queda pendiente el asunto de si, dado lo fructífero que parece este ejercicio, importa o no que Jianwei Xun e "Hipnocracia" sean en parte obra de la IA. ¿No podría ser que el diálogo entre filosofía e IA sea un aporte al pensamiento, para la comprensión del mundo?
"La creación de 'hipnocracia' como concepto es, sin duda, provocadora", contesta Arriagada-Bruneau. "Pero aquí hay que hacer una distinción fundamental: ¿es la inteligencia artificial la que 'piensa' este concepto, o somos nosotros quienes proyectamos sentido sobre un producto maquinístico carente de intencionalidad? ¿Qué significa 'comprender el mundo' si lo hacemos a través de una entidad que no lo habita ni lo sufre?".
"Esta ambigüedad es más que semántica: es política y epistémica. Al asumir que la IA puede 'crear conceptos' -como si se tratara de una subjetividad pensante-, corremos el riesgo de naturalizar la ilusión tecnocultural de la automatización del pensamiento. Un concepto, en sentido filosófico, no es meramente una combinación ingeniosa de palabras ni una etiqueta para fenómenos sociales; es una operación cognitiva situada que articula una experiencia del mundo, una memoria colectiva, una posición desde la cual mirar críticamente la realidad", agrega la filósofa. "La IA puede ayudarnos a explorar ideas, sí, pero si la tratamos como sujeto filosófico, estamos despojando a la filosofía de su raíz ética y existencial. En lugar de ampliar el pensamiento, podríamos estar perpetuando una lógica de aceleración y 'vaciamiento' del sentido mismo de filosofar".
"Este es un debate que ya está instalado en nuestra sociedad", afirma Gainza. "Es decir, ¿qué hacemos con una tecnología que está entrando en diversas dimensiones que antes eran consideradas exclusivas de lo humano, como la creación o el pensamiento?". "A mí me parece inútil el debate centrado en lo que la IA puede hacer o no respecto a la inteligencia humana, como cuando se dice 'es que la IA nunca podrá tener la sensibilidad o la emoción humana'. Eso es cierto, hasta ahora, pero ¿de qué sirve? Para mí, lo interesante es cómo convivimos con estas inteligencias que, por supuesto, son distintas a nosotros, y qué modos de pensamiento surgen en esa interacción".
Por eso, a Gainza le parece relevante el caso de Jianwei Xun, y la controversia que ha generado, "porque finalmente abre la pregunta sobre si podemos 'copensar' con la IA, y nos muestra, además, que ya estamos generando formas de creación, pensamiento y convivencia con estos sistemas técnicos. Como investigadora en humanidades y en temas de cultura digital, me parece que esto último es lo que deberíamos atender".
Villarroel reconoce "el atractivo horizonte de posibilidades que se abre con experiencias como la referida, puesto que, sin duda, por muy espurio que finalmente resulte el ejercicio, en cuanto a su fondo de verdad, de todos modos podríamos agradecerle haber insertado en la discusión ese interesante concepto de 'hipnocracia', que refiere a una sociedad adormecida por los usos políticos interesados y perversos de la IA por parte de las grandes corporaciones tecnológicas al servicio de gobiernos inescrupulosos".
Tampoco es que se trate de una genialidad, aclara, pero "sí contribuye a poner a la vista -mediante un gesto de recursividad insólita, diría yo- el desfondamiento del Estado de Derecho y la democracia, cuya implosión fatal parece inevitable al estar cayendo vertiginosamente en la pendiente resbaladiza de la expresión política estratégica de la mentira que termina siendo indiscernible de la verdad".
"Con todo", dice Villarroel, "probablemente lo único realmente aborrecible en relación con este inesperado y aún incomprensible giro digital de la actualidad, me parece que sería levantar una querella moralista y conservadora en contra del devenir tecnológico, que intentara preservar una figura de lo humano refractaria a las transformaciones y precaria en cuanto a su capacidad de adaptación resiliente a los cambios y preservación de su propia dignidad".
Entonces, ¿Jianwei Xun es o no un filósofo? "De acuerdo con la información disponible, Jianwei Xun no es un filósofo en el sentido tradicional", contesta Gemini, la IA de Google.
Andrea Colamedici, el humano detrás de Xun, ha dicho que se trata de un experimento filosófico y de una performance artística.En su editorial española, Xun aún aparece como "profesor de filosofía y una de las figuras más brillantes de la filosofía contemporánea de Hong Kong".
"Lo interesante es cómo convivimos con estas inteligencias que, por supuesto, son distintas a nosotros, y qué modos de pensamiento surgen en esa interacción".
Carolina Gainza
"Corresponde a una situación difícil de evaluar o admitir éticamente, porque corre irreversiblemente el límite entre la verdad y la mentira".
Raúl Villarroel
"Esto desdibuja las fronteras entre autor y asistente, entre sujeto pensante y máquina".
GABRIELA ARRIAGADA-BRUNEAU.