Pesquisadores querem evitar futuro sombrio da ia
O relatório "AI 2027", que imagina um futuro quase distópico para a inteligência ...
O relatório "AI 2027", que imagina um futuro quase distópico para a inteligência artificial (IA), tornou-se uma espécie de leitura obrigatória na indústria de tecnologia e entre pesquisadores. Para os críticos, trata-se de uma narrativa especulativa que exagera riscos e, no fim, reforça a ideia de um poder insuperável das big techs. Seus autores dizem que o objetivo é estimular o debate.
Publicado pela organização sem fins lucrativos AI Futures, o texto projeta que, em até dois anos, modelos avançados de IA superarão humanos em diversas tarefas. No pior cenário, descrito até o fim da década, a inteligência artificial leva à erosão de instituições e provoca uma corrida armamentista baseada em sistemas autônomos.
O grupo, agora, prepara uma continuação, com o que poderia ser feito hoje para evitar os piores desfechos. A publicação deve ocorrer nos próximos meses.
Assim como no "AI 2027", quem lidera o novo relatório é Daniel Kokotajlo, ex-pesquisador da OpenAI, criadora do ChatGPT. Ao deixar a empresa, ele se tornou uma espécie de dissidente da indústria.
Em entrevista ao GLOBO, Jonas Vollmer, diretor de Operações do AI Futures, antecipa alguns pontos do texto e faz um alerta: para ele, estamos muito perto de delegar decisões demais a sistemas que não entendemos e que respondem a interesses corporativos, não ao bem coletivo.
O pós-‘AI 2027’
Desde sua publicação, o "AI 2027" tem chamado a atenção pela forma detalhada com que antecipa cenários e aponta para futuros possíveis do mundo a partir de um descontrole da IA. Seus autores vêm mantendo diálogos com empresas e formuladores de políticas públicas. O objetivo, diz Vollmer, é fornecer análises independentes que ajudem a garantir um futuro mais seguro para a IA.
Para o pós-2027, há dois cenários: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção e governança global. Vollmer conta que a primeira expectativa, mais alarmista, não é consenso entre o grupo de cinco pesquisadores, mas representa um alerta:
" Nem todos concordam com tudo, mas muitos especialistas com quem conversamos também acham que o cenário de aceleração merece atenção. Então, a proposta não é dizer "isso vai acontecer", mas sim "isso pode acontecer e devemos nos preparar".
Próximas recomendações
Segundo Vollmer, entre as principais recomendações no novo relatório está a exigência de maior transparência das empresas que lideram o desenvolvimento da tecnologia. Isso inclui a publicação dos documentos que detalham como os sistemas de IA são treinados e quais princípios devem seguir.
" Ou seja, cada empresa deveria ser obrigada a divulgar um documento explicando quais são os riscos e os motivos pelos quais acreditam que seus sistemas são seguros " diz Vollmer.
Outra proposta é a criação de mecanismos de proteção a denunciantes, para assegurar anonimato a funcionários que desejem alertar sobre condutas potencialmente perigosas. Para Vollmer, o público está no escuro sobre o que acontece dentro dessas empresas:
" Acreditamos que o mundo precisa saber.
Ele cita ainda a necessidade de algum grau de coordenação internacional, ainda que informal. Uma das propostas é um acordo voluntário entre as empresas mais avançadas para que, durante um período, foquem em mitigar riscos em vez de acelerar suas capacidades. O formato, porém, ainda está em debate.
Crises e disrupções sociais
No relatório, o ponto de inflexão ocorre quando os sistemas passam a escrever códigos, testar hipóteses e projetar novos modelos de IA com mais eficiência do que humanos. Isso gera um ciclo de autoaperfeiçoamento que escapa do controle institucional. A partir daí, decisões econômicas, militares e diplomáticas críticas são delegadas a agentes algorítmicos.
" Estamos confiando cada vez mais nessas IAs, entregando a elas mais influência e poder. Alguns anos atrás, dizíamos que as IAs não deveriam se conectar à internet. Agora, elas já vêm conectadas por padrão. E isso só tende a crescer. Vamos acabar entregando a esses sistemas que não compreendemos o controle de grandes partes da sociedade " diz Vollmer.
O cenário-base do relatório projeta um mundo mais desigual, com riqueza e influência política cada vez mais concentradas. Na projeção de descontrole, essa transformação desencadeia disrupções sociais e intensificação de crises políticas, com espionagem entre potências e uso militar de IA.
O lugar do Brasil
O documento foca em EUA e China. Para Vollmer, países como o Brasil dificilmente terão infraestrutura para competir no desenvolvimento das IAs mais avançadas. Mas vê espaço para protagonismo político e diplomático:
" O Brasil pode exercer influência pressionando por acordos multilaterais, participando de discussões regulatórias e garantindo que os benefícios e riscos da IA sejam compartilhados globalmente.
Ele diz ainda que o país pode influenciar o debate sobre justiça distributiva, para que os benefícios da tecnologia não fiquem restritos a poucas nações ou empresas.