O CEO da OpenAI, Sam Altman, não está preocupado com o consumo cada vez mais evidente de recursos pela IA, e argumenta que os humanos também precisam de muitos recursos.
Vídeo Recomendado
Numa entrevista no palco na cimeira India AI Impact, ele adotou uma postura defensiva após ser questionado sobre as necessidades de água do ChatGPT.
Ele rejeitou as alegações de que o chatbot usa galões de água por consulta como “completamente falsas, totalmente insanas”, de acordo com um vídeo publicado pelo The Indian Express, explicando que os centros de dados que alimentam o ChatGPT têm, em grande parte, migrado de sistemas de “resfriamento evaporativo” que consomem muita água, para evitar o superaquecimento.
Altman foi então questionado sobre a eletricidade necessária para a IA. Em contraste com a questão da água, ele afirmou que era “justo” levantar a questão do consumo energético da tecnologia, dizendo que “Precisamos avançar rapidamente para energia nuclear, eólica ou solar.”
Porém, destacou que comparar as necessidades de energia da IA às dos humanos não é exatamente uma comparação justa.
“Também consome muita energia para treinar um humano,” disse, fazendo alguns na audiência rirem. “Leva, tipo, 20 anos de vida, e toda a comida que você consome nesse período, antes de você ficar inteligente.”
Altman aprofundou ainda mais, observando que os humanos de hoje nem sequer estariam aqui se não fosse pelos seus antepassados, que remontam a centenas de milhares de anos, quando os humanos modernos surgiram.
“Não só isso, levou, como, a evolução muito difundida dos 100 bilhões de pessoas que já viveram, que aprenderam a não ser comidos por predadores e a descobrir ciência ou algo assim para te produzir,” acrescentou.
Ao comparar humanos com o potencial do ChatGPT, é preciso levar esse contexto em consideração, argumentou. Uma comparação justa seria a energia que um humano usa para responder a uma consulta, após o treinamento da IA. Nesse critério, “provavelmente, a IA já alcançou uma eficiência energética nesse sentido.”
Num post de blog de junho de 2025, Altman afirmou que cada consulta ao ChatGPT consome cerca de 0,34 watt-horas de eletricidade, ou aproximadamente o que um forno usa em cerca de um segundo. Ainda assim, ele publicou essa informação antes de a OpenAI lançar seu mais recente modelo GPT-5 e suas atualizações subsequentes. O consumo de energia também pode variar dependendo da complexidade da consulta, por exemplo, responder a uma pergunta versus criar uma imagem.
Especialistas alertaram que a IA como um todo aumentará significativamente seu consumo cumulativo de energia e água nos próximos 20 anos ou mais. De acordo com um relatório de janeiro da empresa de tecnologia de água Xylem e da consultora de mercado Global Water Intelligence, o uso de água pela IA deve crescer cerca de 130%, ou cerca de 30 trilhões de litros (7,9 trilhões de galões) até 2050.
Nesse mesmo período, a crescente demanda por eletricidade deve aumentar o uso de água para geração de energia dos centros de dados em cerca de 18%, atingindo aproximadamente 22,3 trilhões de litros (5,8 trilhões de galões) por ano. Além disso, os chips cada vez mais complexos utilizados pelos centros de dados precisarão de mais água durante o processo de fabricação, o que fará com que a quantidade necessária aumente em 600%, chegando a 29,3 trilhões de litros (7,7 trilhões de galões) por ano, partindo de cerca de 4,1 trilhões de litros (1,8 trilhões de galões) atualmente.
Embora a OpenAI tenha abandonado o resfriamento evaporativo, 56% de todos os centros de dados globais ainda utilizam esse método de alguma forma, segundo o relatório da Xylem e da Global Water Intelligence.
O próprio centro de dados da OpenAI, com 800 acres em Abilene, Texas, deverá usar água, embora de forma mais eficiente, num sistema de circuito fechado que recircula continuamente a água para resfriar o centro de dados, relatou o Texas Tribune. Inicialmente, o centro de dados usará 8 milhões de galões de água da cidade de Abilene para encher seu sistema de resfriamento.
Junte-se a nós na Cimeira de Inovação no Local de Trabalho Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão se reunir para explorar como IA, humanidade e estratégia se convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Sam Altman fica na defensiva sobre o enorme consumo de eletricidade da IA: ‘Também leva muita energia para treinar um humano’
O CEO da OpenAI, Sam Altman, não está preocupado com o consumo cada vez mais evidente de recursos pela IA, e argumenta que os humanos também precisam de muitos recursos.
Vídeo Recomendado
Numa entrevista no palco na cimeira India AI Impact, ele adotou uma postura defensiva após ser questionado sobre as necessidades de água do ChatGPT.
Ele rejeitou as alegações de que o chatbot usa galões de água por consulta como “completamente falsas, totalmente insanas”, de acordo com um vídeo publicado pelo The Indian Express, explicando que os centros de dados que alimentam o ChatGPT têm, em grande parte, migrado de sistemas de “resfriamento evaporativo” que consomem muita água, para evitar o superaquecimento.
Altman foi então questionado sobre a eletricidade necessária para a IA. Em contraste com a questão da água, ele afirmou que era “justo” levantar a questão do consumo energético da tecnologia, dizendo que “Precisamos avançar rapidamente para energia nuclear, eólica ou solar.”
Porém, destacou que comparar as necessidades de energia da IA às dos humanos não é exatamente uma comparação justa.
“Também consome muita energia para treinar um humano,” disse, fazendo alguns na audiência rirem. “Leva, tipo, 20 anos de vida, e toda a comida que você consome nesse período, antes de você ficar inteligente.”
Altman aprofundou ainda mais, observando que os humanos de hoje nem sequer estariam aqui se não fosse pelos seus antepassados, que remontam a centenas de milhares de anos, quando os humanos modernos surgiram.
“Não só isso, levou, como, a evolução muito difundida dos 100 bilhões de pessoas que já viveram, que aprenderam a não ser comidos por predadores e a descobrir ciência ou algo assim para te produzir,” acrescentou.
Ao comparar humanos com o potencial do ChatGPT, é preciso levar esse contexto em consideração, argumentou. Uma comparação justa seria a energia que um humano usa para responder a uma consulta, após o treinamento da IA. Nesse critério, “provavelmente, a IA já alcançou uma eficiência energética nesse sentido.”
Num post de blog de junho de 2025, Altman afirmou que cada consulta ao ChatGPT consome cerca de 0,34 watt-horas de eletricidade, ou aproximadamente o que um forno usa em cerca de um segundo. Ainda assim, ele publicou essa informação antes de a OpenAI lançar seu mais recente modelo GPT-5 e suas atualizações subsequentes. O consumo de energia também pode variar dependendo da complexidade da consulta, por exemplo, responder a uma pergunta versus criar uma imagem.
Especialistas alertaram que a IA como um todo aumentará significativamente seu consumo cumulativo de energia e água nos próximos 20 anos ou mais. De acordo com um relatório de janeiro da empresa de tecnologia de água Xylem e da consultora de mercado Global Water Intelligence, o uso de água pela IA deve crescer cerca de 130%, ou cerca de 30 trilhões de litros (7,9 trilhões de galões) até 2050.
Nesse mesmo período, a crescente demanda por eletricidade deve aumentar o uso de água para geração de energia dos centros de dados em cerca de 18%, atingindo aproximadamente 22,3 trilhões de litros (5,8 trilhões de galões) por ano. Além disso, os chips cada vez mais complexos utilizados pelos centros de dados precisarão de mais água durante o processo de fabricação, o que fará com que a quantidade necessária aumente em 600%, chegando a 29,3 trilhões de litros (7,7 trilhões de galões) por ano, partindo de cerca de 4,1 trilhões de litros (1,8 trilhões de galões) atualmente.
Embora a OpenAI tenha abandonado o resfriamento evaporativo, 56% de todos os centros de dados globais ainda utilizam esse método de alguma forma, segundo o relatório da Xylem e da Global Water Intelligence.
O próprio centro de dados da OpenAI, com 800 acres em Abilene, Texas, deverá usar água, embora de forma mais eficiente, num sistema de circuito fechado que recircula continuamente a água para resfriar o centro de dados, relatou o Texas Tribune. Inicialmente, o centro de dados usará 8 milhões de galões de água da cidade de Abilene para encher seu sistema de resfriamento.
Junte-se a nós na Cimeira de Inovação no Local de Trabalho Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão se reunir para explorar como IA, humanidade e estratégia se convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.