Viernes, 06 de Junio de 2025

Pesquisadores querem evitar futuro sombrio da ia

BrasilO Globo, Brasil 6 de junio de 2025

O relatório "AI 2027", que imagina um futuro quase distópico para a inteligência ...

O relatório "AI 2027", que imagina um futuro quase distópico para a inteligência artificial (IA), tornou-se uma espécie de leitura obrigatória na indústria de tecnologia e entre pesquisadores. Para os críticos, trata-se de uma narrativa especulativa que exagera riscos e, no fim, reforça a ideia de um poder insuperável das big techs. Seus autores dizem que o objetivo é estimular o debate.
Publicado pela organização sem fins lucrativos AI Futures, o texto projeta que, em até dois anos, modelos avançados de IA superarão humanos em diversas tarefas. No pior cenário, descrito até o fim da década, a inteligência artificial leva à erosão de instituições e provoca uma corrida armamentista baseada em sistemas autônomos.
O grupo, agora, prepara uma continuação, com o que poderia ser feito hoje para evitar os piores desfechos. A publicação deve ocorrer nos próximos meses.
Assim como no "AI 2027", quem lidera o novo relatório é Daniel Kokotajlo, ex-pesquisador da OpenAI, criadora do ChatGPT. Ao deixar a empresa, ele se tornou uma espécie de dissidente da indústria.
Em entrevista ao GLOBO, Jonas Vollmer, diretor de Operações do AI Futures, antecipa alguns pontos do texto e faz um alerta: para ele, estamos muito perto de delegar decisões demais a sistemas que não entendemos e que respondem a interesses corporativos, não ao bem coletivo.
O pós-‘AI 2027’
Desde sua publicação, o "AI 2027" tem chamado a atenção pela forma detalhada com que antecipa cenários e aponta para futuros possíveis do mundo a partir de um descontrole da IA. Seus autores vêm mantendo diálogos com empresas e formuladores de políticas públicas. O objetivo, diz Vollmer, é fornecer análises independentes que ajudem a garantir um futuro mais seguro para a IA.
Para o pós-2027, há dois cenários: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção e governança global. Vollmer conta que a primeira expectativa, mais alarmista, não é consenso entre o grupo de cinco pesquisadores, mas representa um alerta:
" Nem todos concordam com tudo, mas muitos especialistas com quem conversamos também acham que o cenário de aceleração merece atenção. Então, a proposta não é dizer "isso vai acontecer", mas sim "isso pode acontecer e devemos nos preparar".
Próximas recomendações
Segundo Vollmer, entre as principais recomendações no novo relatório está a exigência de maior transparência das empresas que lideram o desenvolvimento da tecnologia. Isso inclui a publicação dos documentos que detalham como os sistemas de IA são treinados e quais princípios devem seguir.
" Ou seja, cada empresa deveria ser obrigada a divulgar um documento explicando quais são os riscos e os motivos pelos quais acreditam que seus sistemas são seguros " diz Vollmer.
Outra proposta é a criação de mecanismos de proteção a denunciantes, para assegurar anonimato a funcionários que desejem alertar sobre condutas potencialmente perigosas. Para Vollmer, o público está no escuro sobre o que acontece dentro dessas empresas:
" Acreditamos que o mundo precisa saber.
Ele cita ainda a necessidade de algum grau de coordenação internacional, ainda que informal. Uma das propostas é um acordo voluntário entre as empresas mais avançadas para que, durante um período, foquem em mitigar riscos em vez de acelerar suas capacidades. O formato, porém, ainda está em debate.
Crises e disrupções sociais
No relatório, o ponto de inflexão ocorre quando os sistemas passam a escrever códigos, testar hipóteses e projetar novos modelos de IA com mais eficiência do que humanos. Isso gera um ciclo de autoaperfeiçoamento que escapa do controle institucional. A partir daí, decisões econômicas, militares e diplomáticas críticas são delegadas a agentes algorítmicos.
" Estamos confiando cada vez mais nessas IAs, entregando a elas mais influência e poder. Alguns anos atrás, dizíamos que as IAs não deveriam se conectar à internet. Agora, elas já vêm conectadas por padrão. E isso só tende a crescer. Vamos acabar entregando a esses sistemas que não compreendemos o controle de grandes partes da sociedade " diz Vollmer.
O cenário-base do relatório projeta um mundo mais desigual, com riqueza e influência política cada vez mais concentradas. Na projeção de descontrole, essa transformação desencadeia disrupções sociais e intensificação de crises políticas, com espionagem entre potências e uso militar de IA.
O lugar do Brasil
O documento foca em EUA e China. Para Vollmer, países como o Brasil dificilmente terão infraestrutura para competir no desenvolvimento das IAs mais avançadas. Mas vê espaço para protagonismo político e diplomático:
" O Brasil pode exercer influência pressionando por acordos multilaterais, participando de discussões regulatórias e garantindo que os benefícios e riscos da IA sejam compartilhados globalmente.
Ele diz ainda que o país pode influenciar o debate sobre justiça distributiva, para que os benefícios da tecnologia não fiquem restritos a poucas nações ou empresas.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela