Lunes, 07 de Julio de 2025

Cómo desactivar los resúmenes de IA en las búsquedas de Google

ArgentinaLa Nación, Argentina 4 de julio de 2025

Gemini puede hacer consultas en la web por nosotros, pero no siempre es una buena idea Mientras en el Silicon Valley Mark Zuckerberg (Facebook) y Sam Altman (OpenAI) se tiran de los pelos para quedarse con los talentos de la IA y, al mismo tiempo, empieza a sonar un runrún de decepción entre los que reemplazaron, quizá con demasiada prisa, personas humanas por agentes sintéticos (o sea, más IA), un escenario empieza a despejarse luego de la humareda de estos dos años y medio de ChatGPT y compañía

Gemini puede hacer consultas en la web por nosotros, pero no siempre es una buena idea



Mientras en el Silicon Valley Mark Zuckerberg (Facebook) y Sam Altman (OpenAI) se tiran de los pelos para quedarse con los talentos de la IA y, al mismo tiempo, empieza a sonar un runrún de decepción entre los que reemplazaron, quizá con demasiada prisa, personas humanas por agentes sintéticos (o sea, más IA), un escenario empieza a despejarse luego de la humareda de estos dos años y medio de ChatGPT y compañía. Para describirlo, podría parafrasearse la antigua (y nefasta) máxima " Cuanto peor, mejor" . Solo que en este caso sería "Cuanto mejor, peor" .

Me explico. La IA está en pañales. Más allá de que los modelos actuales están empezando a encontrar su techo operacional y, por lo tanto, algunas de las aspiraciones de la industria -que suelen pecar de apresuradas- podrían no plasmarse tan pronto como prometieron, lo que va a pasar (pueden tomarme la palabra) es que la IA va a evolucionar mucho más de lo que ahora podemos proyectar, y muy probablemente de formas inesperadas . David Bradley con una IBM PC y un floppy disk; esa máquina, cuatro décadas atrás, era miles de veces menos potente que un celular actual

Sus piruetas actuales, que ya asombran, van a parecer una caricatura de acá a diez o veinte años . De la misma forma que una PC de 15 kilos con pantalla fósforo verde suena arcaica ante un celular de 200 gramos , los mecanismos de la IA van a llegar a lugares que todavía no podemos ni imaginar. Mark Zuckerberg con su nuevo look y una nueva misión, la "superinteligencia artificial"

Eso no va a significar inteligencia sobrehumana , como se pretende y como sostuvo Zuckerberg en su nueva apuesta, tras el fallido Metaverso , básicamente porque ni siquiera tenemos una buena definición de qué es inteligencia humana . Pero sí traerá más realismo, más precisión, más capacidad de adaptación, mejores razonamientos y todo lo demás. Normalmente, esto sería una buena noticia . Desde los autos hasta los aviones y, por supuesto, las telecomunicaciones y el cómputo, partimos de primeros pasos tambaleantes y humildes hasta llegar a los prodigios que vemos hoy, y que continúan evolucionando. Sam Altman, CEO y cara visible de OpenAI, la compañía que en noviembre de 2022 lanzó ChatGPT

Jaque mate

La IA, sin embargo, impone un desafío de lo más novedoso; enteramente novedoso, de hecho. No la estamos usando solo para tareas que no requieren ningún criterio , como rodar sobre el asfalto o transmitir paquetes TCP/IP, sino que, por el contrario, solemos pedirle que haga cosas que exigen consciencia , empatía , sentido común y un modelo del mundo . Estos días, una vez más, un sistema de inteligencia artificial generativo ( Copilot , de Microsoft) perdió al ajedrez frente a una Atari 2600 de hace 45 años . Hace poco, ChatGPT había mordido el polvo con idéntico contrincante. Dicho muy simple, que estos sistemas sepan jugar al ajedrez no significa que puedan entender un tablero de ajedrez . Lindo. Y de lo más significativo. Pero hay un asunto adicional. Los supuestamente imbatibles modelos de IA de OpenAI y Microsoft perdieron al ajedrez contra la Atari 2600, una consola que tiene 45 años

El 0,01 por ciento

Imaginate una calculadora que diera el resultado correcto la mayoría de las veces. No siempre, sino la mayoría de las veces. Digamos, el 99% de las veces . Ahora agreguemos una misión crítica; por ejemplo, el cálculo estructural para construir un edificio de 20 pisos . Si confiamos en esa calculadora, sabemos que el edificio puede salir bien o no . Es casi seguro que sí, cierto, pero ese no sería un gran argumento de venta, más allá de que debería pasar por las aprobaciones de rigor.

Mejoramos entonces la calculadora. Unos años después, es capaz de arrojar resultados correctos el 99,5% de las veces . Pero el conflicto persiste, con un agravante. Ya es casi el 100 por ciento. Solo que no lo es. Otros diez años más tarde, llegamos al 99,99 por ciento . La pregunta es: ¿construiríamos ese edificio con una calculadora 99,99% segura?

En realidad, esa es la pregunta equivocada que la industria pretende instalar -un poco como hizo con el mito del anonimato online, en los inicios de la Internet comercial - para seguir despachando productos con IA. Esa pretensión es que veamos a la inteligencia artificial como si fuera una herramienta más . El hacha de pedernal, la rueda, el arco y la flecha, la palanca, el ábaco, la calculadora y ChatGPT, todos en la misma bolsa. Tesla tiene un historial muy turbulento con el piloto semiautomático de sus coches



Pero la IA es una criatura completamente diferente . Por eso, el planteo de arriba contiene una falacia. Las calculadoras no son a veces precisas y a veces, no. Pueden, a lo sumo, tener más dígitos de precisión después de la coma en algunos cálculos . Pero la idea de la calculadora es hacer cuentas, nada más. Esto es, seguir una serie de pasos estructurados y mecánicos en los que no interviene ni la más mínima creatividad . No vas a conseguir más decimales de precisión porque la calculadora tenga (y cito) "superinteligencia", sino añadiendo capacidad de cómputo. Además, y esto es particularmente importante, cuanto más nos alejamos de la coma, esos decimales de precisión son cada vez menos significativos . Esto es muy diferente de lo que ocurrió en junio con un coche de Tesla que no vio a un alumno de escuela en un test y lo atropelló ; el alumno, claro está, era un maniquí.

La IA, en su nueva encarnación (es decir, la que crea contenidos y parece razonar ), no solo puede seguir pasos estructurados y liberarnos de una mecánica rutinaria, como la calculadora, sino que le encargamos videos , audios , música , imágenes y texto ; eventualmente, le pedimos que tome decisiones, a veces de vida o muerte .

El dilema está en que cuanto más perfecta sea en eso, sus actos van a resultar cada vez más verosímiles o van a tener un aspecto cada vez más confiable , y, por lo tanto, será más difícil determinar si la calculadora acaso no se equivocó en ese 0,01 por ciento fatal . Hay un punto (distópico, tal vez, pero no del todo imposible) en el que las fabricaciones de la IA se confunden con las creaciones humanas y, peor todavía, con la realidad misma , a la que desde hace mucho solemos acceder por medio de (caramba) imágenes y videos. The Conversation califica estos tiempos de Slopocene ; slop , en inglés, significa "bazofia" y se usa la palabra en la jerga tecno para hablar de las producciones de baja calidad hechas con IA.

Falta para que la IA rompa Internet tal como la conocemos, o algo más que Internet. Sin embargo, en este momento ya están ocurriendo varias cosas alarmantes y subrepticias . La lista es larga, y sobre muchas de ellas no tenemos otra decisión que la del voto, cuando hay comicios en las democracias occidentales.

Sobre otras podemos todavía hacer algo más. Como Google está en el negocio de la IA , y como además sabe que esta tecnología es una bala contra su negocio fundamental (supuestamente, de plata, aunque no creo que sea ni remotamente así), está empezando a combinar IA con Search . Así, en el caso de que tengas activada (a sabiendas o no, y para algunas cuentas puede no estar disponible) la función de resúmenes de IA , los resultados de las búsquedas arrancan con lo que un modelo de inteligencia artificial cree que es correcto . Exacto, aparece en la misma página de resultados , y como en general no tenemos tiempo para estas sutilezas , ocurre que en muchos casos estamos delegando sin darnos cuenta nuestras consultas a un modelo de IA . Que a veces, acierta. Pero a veces, no.

Es de verdad problemático, porque si siempre creemos en lo que el resumen de la IA dice, entonces podríamos producir contenidos errados -eso no nos conviene- que a su vez alimentarán otros modelos de IA. Una hermosa y creciente confusión, para decirlo suavemente . El frasquito de laboratorio, arriba a la derecha, te lleva a la página en la que podés desactivar los resúmenes de IA de Google Search

Los resúmenes generados por IA (o sea, que un modelo generativo busque por vos) son un opcional y Google advierte que su calidad puede ser variable (imposible ser más sutil). Pero hay muchos escenarios en los que por curiosidad o porque compartís el navegador, quedan activados. Requieren asimismo estar logueado con una cuenta de Google, algo que en general ocurre de forma demasiado transparente . Y, por otro lado, son un opcional por ahora . Está bastante claro que en esta batalla por la supremacía en inteligencia artificial, como adelanté hace más de dos años , las compañías van a seguir insertando estos modelos en todas las instancias que puedan .

Para desactivar esos resúmenes, abrí una pestaña de Chrome , hacé clic en el matraz de Erlenmeyer (ese frasquito arriba a la derecha) para ir a Google Labs y, una vez ahí, dale clic al engranaje ( Administrar ). No debe ser una pestaña privada, para que el navegador guarde la configuración . En la página que se abre vas a ver un botón para activar o desactivar la (y cito de nuevo) Visión general creada por IA y más . Falta una coma. Pero bueno, ese casi seguro fue un error humano.

Podés encontrar más formas de personalizar las búsquedas y desactivar la intervención de la IA en otros navegadores en esta columna .
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela