O ano é 2027. Sistemas de inteligência artificial avançados ultrapassam a inteligência humana e já causam estragos na ordem global. Espiões chineses roubaram os segredos de IA dos Estados Unidos, e a Casa Branca está se apressando para retaliar. Dentro de um laboratório de IA de ponta, engenheiros ficam assustados ao descobrir que seus modelos estão começando a enganá-los, levantando a possibilidade de que eles se tornem incontroláveis.
Estas são cenários imaginados por uma organização sem fins lucrativos em Berkeley, Califórnia, chamada AI Futures Project, que passou o último ano tentando projetar como será o mundo nos próximos anos, à medida que inteligências artificiais cada vez mais sofisticadas são desenvolvidas.
O projeto está sob o comando de Daniel Kokotajlo, um ex-pesquisador da OpenAI. Ele deixou a empresa no ano passado devido a preocupações de que a gestão agia imprudentemente.
Enquanto estava na OpenAI, onde fazia parte da equipe de governança, Kokotajlo escreveu relatórios internos detalhados sobre como a corrida pela inteligência artificial geral (AGI) —um termo pouco definido para o momento quem a inteligência das máquinas chegarem ao nível humano— poderia se concretizar.
Depois de sair, ele se uniu a Eli Lifland, um pesquisador de IA que tinha um histórico de previsões precisas de eventos mundiais. Eles começaram a trabalhar para tentar prever a próxima onda da IA.
O resultado é “AI 2027”, um relatório e site lançados esta semana que descrevem, em um cenário fictício detalhado, o que poderia acontecer se os sistemas de IA superarem a inteligência humana —o que os autores esperam que aconteça nos próximos dois a três anos.
“Prevemos que as IAs continuarão a melhorar até o ponto em que serão agentes totalmente autônomos, melhores que humanos em tudo, até o final de 2027”, disse Kokotajlo em entrevista ao New York Times.
Não falta especulação sobre IA atualmente. San Francisco foi tomada pelo fervor da IA, e a cena tecnológica da Bay Area se tornou uma coleção de tribos em guerra e seitas dissidentes, cada uma convencida de que sabe como o futuro será.
Algumas previsões de IA tomaram a forma de um manifesto, como “Machines of Loving Grace”, um ensaio de 14 mil palavras escrito no ano passado por Dario Amodei, o diretor executivo da Anthropic, ou “Situational Awareness”, um relatório do ex-pesquisador da OpenAI Leopold Aschenbrenner que foi amplamente lido em círculos políticos.
As pessoas do AI Futures Project projetaram o seu como um cenário de previsão —essencialmente, uma peça de ficção científica rigorosamente pesquisada que usa suas melhores estimativas sobre o futuro como pontos de enredo.
O grupo passou quase um ano refinando centenas de previsões sobre IA. Então, eles trouxeram um escritor —Scott Alexander, que escreve o blog Astral Codex Ten— para ajudar a transformar sua previsão em uma narrativa.
“Pegamos o que achávamos que aconteceria e tentamos torná-lo envolvente”, disse Lifland.
Críticos dessa abordagem podem argumentar que histórias fictícias de IA são melhores para assustar as pessoas do que educá-las. Alguns especialistas em IA, sem dúvida, vão se opor à afirmação central do grupo de que a inteligência artificial ultrapassará a inteligência humana.
Ali Farhadi, CEO do Allen Institute for Artificial Intelligence, um laboratório de IA em Seattle, revisou o relatório “AI 2027” e disse que não ficou impressionado.
“Sou a favor de projeções e previsões, mas esta previsão não parece estar fundamentada em evidências científicas, ou na realidade de como as coisas estão evoluindo na IA”, disse ele.
Não há dúvida de que algumas das visões do grupo são extremas. (Kokotajlo, por exemplo, disse no ano passado que acreditava haver 70% de chance de que a IA destruiria ou prejudicaria catastroficamente a humanidade.)
Kokotajlo e Lifland têm laços com o altruísmo eficaz, outro movimento filosófico popular entre trabalhadores de tecnologia que tem feito advertências terríveis sobre IA há anos.
Mas também vale a pena notar que algumas das maiores empresas do Vale do Silício estão planejando para um mundo além da AGI, e que muitas das previsões aparentemente loucas feitas sobre IA no passado —como a visão de que as máquinas passariam no Teste de Turing, um experimento mental que determina se uma máquina pode parecer se comunicar como um humano— se tornaram realidade.
Em 2021, o ano antes do lançamento do ChatGPT, Kokotajlo escreveu um post no blog intitulado “Como será 2026”, delineando sua visão de como os sistemas de IA progrediriam. Várias de suas previsões se mostraram perspicazes, e ele se convenceu de que esse tipo de previsão era valioso, e que ele era bom nisso.
“É uma maneira elegante e conveniente de comunicar sua visão para outras pessoas”, disse ele.
Na semana passada, Kokotajlo e Lifland me convidaram para seu escritório —uma pequena sala em um espaço de coworking em Berkeley chamado Constellation, onde várias organizações de segurança de IA mantêm presença— para me mostrar como eles operam.
Kokotajlo, vestindo uma jaqueta estilo militar bege, pegou um marcador e escreveu quatro abreviações em um grande quadro branco: “SC (programador sobre-humano)> SAR (IA pesquisadora sobre-humana)> SIAR (IA pesquisadora superinteligente)> ASI (superinteligência artificial)”. Cada uma, explicou ele, representava um marco no desenvolvimento da IA.
Primeiro, disse ele, em algum momento no início de 2027, se as tendências atuais se mantiverem, a IA será uma programadora sobre-humana. Então, em meados de 2027, será um pesquisadora sobre-humana —um agente autônomo que pode supervisionar equipes de programadores de IA e fazer novas descobertas. Então, no final de 2027 ou início de 2028, se tornará uma pesquisadora superinteligente —uma inteligência de máquina que sabe mais do que nós sobre a construção de IA avançada, e pode automatizar sua própria pesquisa e desenvolvimento, essencialmente construindo versões mais inteligentes de si mesma. A partir daí, disse ele, é um pequeno salto para a superinteligência artificial, momento em que todas as apostas estão encerradas.
Se tudo isso parece fantástico, é mesmo. Nada remotamente parecido com o que Kokotajlo e Lifland estão prevendo é possível com as ferramentas de IA atuais, que mal conseguem pedir um burrito no DoorDash sem travar.
Mas eles estão confiantes de que esses pontos cegos diminuirão rapidamente, à medida que os sistemas de IA se tornem bons o suficiente em programação para acelerar a pesquisa e o desenvolvimento de IA.
Seu relatório se concentra na OpenBrain, uma empresa fictícia de IA que constrói um poderoso sistema de IA conhecido como Agent-1. (Eles decidiram não destacar uma empresa específica de IA, criando um composto das principais laboratórios americanos de IA.)
À medida que o Agent-1 melhora na programação, ele começa a automatizar grande parte do trabalho de engenharia na OpenBrain, o que permite que a empresa avance mais rapidamente e ajuda a construir o Agent-2, um pesquisador de IA ainda mais capaz. No final de 2027, quando o cenário termina, o Agent-4 está fazendo avanços de pesquisa de IA equivalentes a um ano a cada semana, e ameaça se tornar incontrolável.
Mesmo que eu concorde com os autores de “AI 2027” que sistemas poderosos de IA estão chegando em breve, não estou convencido de que programadores de IA sobre-humanos automaticamente adquirirão as outras habilidades necessárias para se impulsionar até a inteligência geral. Ainda sou cauteloso com previsões que assumem que o progresso da IA será suave e exponencial, sem grandes gargalos ou obstáculos ao longo do caminho.
Mas acho que esse tipo de previsão vale a pena, mesmo que eu discorde de algumas previsões específicas. Se uma IA poderosa realmente estiver próxima, todos nós precisaremos começar a imaginar futuros muito estranhos.