O dado curioso do título é o resultado de análises recentes do Washington Post e da Universidade da Califórnia, que entregam mais: além da água, há também um consumo considerável de energia elétrica – cada resposta do ChatGPT demanda cerca de 0,14 kWh, o equivalente a manter 14 lâmpadas LED acesas por uma hora.
Os mais de meio litro de recursos híbridos se baseiam na geração de 100 palavras. O consumo é utilizado, principalmente, para resfriar os servidores dos datacenters já que é necessário manter a temperatura adequada dos equipamentos, que processam as requisições dos usuários.
Embora 519 ml pareçam pouco, o impacto se torna expressivo quando consideramos o volume de interações diárias com a IA. No ano passado, por exemplo, o Brasil ficou acima da média global no uso de Inteligência Artificial – 54% dos brasileiros relataram que utilizaram IA generativa enquanto a média global ficou em 48%, de acordo com pesquisa da Ipsos em parceria com o Google.
Nesse cenário, especialistas alertam para a necessidade de maior transparência por parte das empresas de tecnologia quanto ao consumo de recursos naturais por suas IAs.
Em resposta às preocupações ambientais, algumas big techs anunciaram iniciativas para reduzir o impacto de suas atividades.
A Microsoft, por exemplo, firmou um acordo para adquirir toda a energia gerada pelo reator nuclear de Three Mile Island (Pensilvânia – EUA), desativado desde 2019, com o objetivo de mitigar o consumo elétrico de seus centros de dados. No entanto, ele só deverá entrar em operação em 2028, e as preocupações quanto à gestão dos resíduos radioativos persistem. Já o Google, por sua vez, comprometeu-se a repor 120% da água que utiliza até 2030.