Pedir respostas mais concisas do ChatGPT —ou de outros modelos de inteligência artificial generativa— pode reduzir o consumo de energia em 54%, de acordo com testes feitos por University College London (UCL) e Unesco. Diminuir o tamanho do pedido pela metade reduz o gasto de eletricidade em 5%.
Por isso, citar um limite de parágrafos ou palavras pode economizar muito mais energia do que deixar de ser educado com a inteligência artificial —o CEO da OpenAI, Sam Altman, já disse nas redes sociais que a empresa gasta “dezenas de milhões de dólares” com a cortesia de seus usuários que digitam “obrigado” ou “por favor”.
Os pesquisadores fizeram testes com IAs de código aberto da Meta, rodando em máquinas próprias —isso permitiu acompanhar a demanda de eletricidade dos computadores e chegar aos resultados apresentados no artigo.
A Unesco recomenda, além da promoção de campanhas de conscientização dos usuários, que as empresas também adotem ferramentas para comprimir os resultados entregues pelos modelos de IA. Trata-se de uma tecnologia que já está no mercado e reduz o tempo de processamento sem comprometer a qualidade, diz o relatório.
“A responsabilidade por uma IA energeticamente eficiente não deveria recair apenas sobre os usuários”, diz a autora do estudo e especialista da Unesco, Leona Verdadero. “Porém, se isso for adotado em escala, o pedido de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais”, disse a especialista.
A Unesco estima que o ChatGPT gasta, hoje, cerca de 310 GWh por ano apenas respondendo a pedidos para gerar texto —isto é, sem considerar os gastos com vídeos e imagens. É um consumo comparável ao de mais de 3 milhões de etíopes, onde o uso médio per capita é de 96 kWh por ano.
Para isso, a organização usou como referência o valor de 0,34 Wh gasto em média por pedido —o citado foi citado em artigo assinado por Altman— e a estatística de 1 bilhão de acessos diários, divulgada pela OpenAI.
Os cálculos incluem apenas o custo de inferência, o momento em que o usuário interage com a ferramenta de IA. Outros milhares de GWh são gastos a fim de treinar os modelos para que entreguem os resultados esperados.
“O ônus realmente deveria estar mais do lado dos desenvolvedores e implementadores desses sistemas de IA”, afirma Verdadero. Por isso, a especialista da Unesco defende a criação de ferramentas que ajudem os consumidores a fazer escolhas mais conscientes.
“É como os rótulos nutricionais nos alimentos, que moldaram nossas escolhas alimentares. Acreditamos que rótulos de energia para IA podem ajudar os usuários a fazer escolhas mais informadas”, explica.
‘PEQUENO É PODEROSO’, DIZ UNESCO
Mais eficiente ainda, de acordo com Verdadero, é preferir os modelos de linguagem pequenos e especializados, que entregam precisão com 10% do consumo de eletricidade exigido por um grande IA generalista, como ChatGPT, Claude ou Gemini.
A pesquisadora, porém, reconhece que há um desafio de financiamento, uma vez que projetos focados no desenvolvimento de IAs generalistas, capazes de realizar uma ampla gama de tarefas, conquistaram a atenção de capitalistas de riscos e outros investidores.
“É o que estamos vendo com avanços nos modelos de raciocínio e no pensamento de que ‘maior é melhor’”, afirma Verdadeiro.
No entanto, a pesquisadora afirma que os testes feitos no estudo indicam que os modelos pequenos se saem tão bem quanto os grandes em tarefas como tradução, criação de resumos e resposta de dúvidas, desde que recebam um treinamento posterior para certas tarefas. “Em algumas situações, até superam os grandes modelos”, diz a pesquisadora.
A Unesco também destaca que os pequenos modelos de linguagem abrem uma possibilidade para países com menor infraestrutura computacional, em regiões como a África e a América Latina, desenvolverem as próprias ferramentas de inteligência artificial.
É o caso da startup brasileira Dharma AI, que já desenvolve versões especializadas dos pequenos modelos de linguagem para empresas. O chinês Qwen 2.5b, uma das IAs utilizadas pela Dharma, tem, por exemplo, 2,5 bilhões de parâmetros (como se fossem os neurônios da rede neural), contra mais de 1 trilhão no caso de modelos como o GPT-4, que está sob o capô do ChatGPT.
Incubada no Porto Maravalley, da Prefeitura do Rio de Janeiro, a Dharma AI já apresentou uma versão do Qwen treinada com base em textos jurídicos brasileiros. Em um teste feito pela empresa, a sua ferramenta obteve sucesso em 85% das simulações, contra um índice de 68% do ChatGPT. O preço para executar a tarefa no pequeno modelo brasileiro foi de US$ 0,003, contra US$ 0,608 no ChatGPT.
Em artigo publicado em junho, a Nvidia defendeu que os pequenos modelos de linguagem são mais adequados e economicamente necessários no desenvolvimento de sistemas de inteligência artificial mais complexos.
“Embora capacidades conversacionais gerais sejam essenciais, sistemas autônomos que usam múltiplos modelos diferentes são a escolha natural em termos de eficiência”, diz o gigante da tecnologia, que despontou como empresa mais valiosa do mundo por projetar os chips usados no desenvolvimento de IA.
O relatório da Nvidia, diz a própria companhia, busca estimular discussões sobre uso eficaz de recursos de IA e reduzir os custos atuais da tecnologia.
A Unesco apresenta dados da Agência Internacional de Energia (IEA) para destacar a urgência do debate: o consumo de eletricidade com IA está dobrando a cada cem dias, pressionando a infraestrutura global de transmissão energética e abastecimento hídrico.