如果从环保角度反对人工智能的理由不够充分,那么新出现的大量数据可能会改变人们对这一问题的看法。
根据国际能源署(International Energy Agency)的预测,到 2026 年,全球数据中心的电力需求可能会增加一倍以上,“达到能源消耗大国的水平”。具有讽刺意味的是,“当我们利用人工智能解决从气候建模到医疗保健突破等一些世界级挑战的同时,也在制造新的环境危机,”科技公司创始人兼首席执行官克里斯·格拉德温在给《财富》杂志的撰文中写道。
近期,《华盛顿邮报》(Washington Post)与加州大学河滨分校(University of California, Riverside)的合作研究发现,OpenAI 的 ChatGPT使用 GPT-4 语言模型,写一封100字的电子邮件消耗的水量比一瓶500毫升的普通矿泉水还多一点,达到了519毫升。
如果一个人每周使用ChatGPT写一封这样的电子邮件,那么一年将消耗27 升水。《华盛顿邮报》写道,这意味着如果每 10 个美国人中仅一人(总数达到1600 万人)使用 ChatGPT 每周写一封邮件,那么耗水量将超过 4.35 亿升。
尽管人们已经对ChatGPT惊人的电力消耗进行了大量讨论,但近几个月来,受到更多关注的却是人工智能的水足迹问题。
正如《华盛顿邮报》所解释的,用户在ChatGPT中输入的每一个提示都被迅速转化为代码,并 “在服务器上进行数千次计算,以确定最佳的回答用词”。所有这些计算都会在世界各地大型数据中心的服务器中进行。在生成回答或执行命令时,服务器会像超负荷运转的老式笔记本一样产生热量。
此时水便派上用场:为了防止这些至关重要的服务器因过热而损坏或崩溃,数据中心会采取冷却机制,通常是使用 “冷却塔”来降低温度,而冷却塔本身就需要消耗水资源。其用水和用电量会根据所处地区的气候情况而有所不同。爱荷华州的西得梅因气候适宜,不需要太多冷却干预,正迅速成为数据中心的热门选址地。
加州大学河滨分校工程学副教授任绍磊多年来一直试图量化人工智能对气候的影响,他写道:“我们最重要的天然水资源还没到被人工智能明显夺走的地步”。尽管如此,任绍磊还是认为人工智能用水量的增加 “绝对令人担忧”。
他在2023年11月写道,随着人口的快速增长和气候的变化,“水资源枯竭和水利基础设施老化 ”将称为最突出的挑战。“令人担忧的不仅仅是人工智能模型的绝对用水量,还有人工智能模型开发者如何应对全球水资源短缺的共同挑战"。
他指出,干旱是气候变化最直接的后果之一,企业有责任解决自身运营中的用水问题,尤其是使用生成式人工智能的科技公司。“我们已经看到人工智能数据中心和当地社区在用水问题上的紧张关系,"任绍磊写道,“如果放任人工智能模型大量耗水问题存在,这些紧张对立将变得更加频繁,并可能导致社会动荡。”
根据微软(Microsoft)去年的可持续发展报告,该公司在2021年至2022年间的全球用水量激增了34%。谷歌(Google)在自己的报告中也提到,在同一时间段内,其用水量上升了20%。对此,任绍磊向美联社(AP)表示:“可以说,两家公司大部分的用水量增长都是人工智能造成的。” (据《华盛顿邮报》报道,微软的数据中心在训练 GPT-3 时用掉了 70 万升水)。
霍莉·阿尔派恩曾任微软数据中心社区环境可持续发展高级项目经理,她在给《财富》杂志的撰文中写道,因不满公司在人工智能研发中对生态不负责任的行为,她今年早些时候选择了辞职。
“分析报告显示,人工智能或机器学习等先进技术有可能推动化石燃料产量提高 15%,从而导致石油重新崛起,并有可能推迟全球向可再生能源的过渡,"阿尔派恩写道,“现实世界的影响是惊人的: 微软和埃克森美孚(ExxonMobil)之间的单笔此类交易产生的排放量可能超过微软 2020 年年度碳减排承诺的 600% 以上。”
她写道,当她还是一名微软员工时,她目睹了 “数十起 ”此类交易。(财富中文网)
译者:梁宇
审校:夏林
如果从环保角度反对人工智能的理由不够充分,那么新出现的大量数据可能会改变人们对这一问题的看法。
根据国际能源署(International Energy Agency)的预测,到 2026 年,全球数据中心的电力需求可能会增加一倍以上,“达到能源消耗大国的水平”。具有讽刺意味的是,“当我们利用人工智能解决从气候建模到医疗保健突破等一些世界级挑战的同时,也在制造新的环境危机,”科技公司创始人兼首席执行官克里斯·格拉德温在给《财富》杂志的撰文中写道。
近期,《华盛顿邮报》(Washington Post)与加州大学河滨分校(University of California, Riverside)的合作研究发现,OpenAI 的 ChatGPT使用 GPT-4 语言模型,写一封100字的电子邮件消耗的水量比一瓶500毫升的普通矿泉水还多一点,达到了519毫升。
如果一个人每周使用ChatGPT写一封这样的电子邮件,那么一年将消耗27 升水。《华盛顿邮报》写道,这意味着如果每 10 个美国人中仅一人(总数达到1600 万人)使用 ChatGPT 每周写一封邮件,那么耗水量将超过 4.35 亿升。
尽管人们已经对ChatGPT惊人的电力消耗进行了大量讨论,但近几个月来,受到更多关注的却是人工智能的水足迹问题。
正如《华盛顿邮报》所解释的,用户在ChatGPT中输入的每一个提示都被迅速转化为代码,并 “在服务器上进行数千次计算,以确定最佳的回答用词”。所有这些计算都会在世界各地大型数据中心的服务器中进行。在生成回答或执行命令时,服务器会像超负荷运转的老式笔记本一样产生热量。
此时水便派上用场:为了防止这些至关重要的服务器因过热而损坏或崩溃,数据中心会采取冷却机制,通常是使用 “冷却塔”来降低温度,而冷却塔本身就需要消耗水资源。其用水和用电量会根据所处地区的气候情况而有所不同。爱荷华州的西得梅因气候适宜,不需要太多冷却干预,正迅速成为数据中心的热门选址地。
加州大学河滨分校工程学副教授任绍磊多年来一直试图量化人工智能对气候的影响,他写道:“我们最重要的天然水资源还没到被人工智能明显夺走的地步”。尽管如此,任绍磊还是认为人工智能用水量的增加 “绝对令人担忧”。
他在2023年11月写道,随着人口的快速增长和气候的变化,“水资源枯竭和水利基础设施老化 ”将称为最突出的挑战。“令人担忧的不仅仅是人工智能模型的绝对用水量,还有人工智能模型开发者如何应对全球水资源短缺的共同挑战"。
他指出,干旱是气候变化最直接的后果之一,企业有责任解决自身运营中的用水问题,尤其是使用生成式人工智能的科技公司。“我们已经看到人工智能数据中心和当地社区在用水问题上的紧张关系,"任绍磊写道,“如果放任人工智能模型大量耗水问题存在,这些紧张对立将变得更加频繁,并可能导致社会动荡。”
根据微软(Microsoft)去年的可持续发展报告,该公司在2021年至2022年间的全球用水量激增了34%。谷歌(Google)在自己的报告中也提到,在同一时间段内,其用水量上升了20%。对此,任绍磊向美联社(AP)表示:“可以说,两家公司大部分的用水量增长都是人工智能造成的。” (据《华盛顿邮报》报道,微软的数据中心在训练 GPT-3 时用掉了 70 万升水)。
霍莉·阿尔派恩曾任微软数据中心社区环境可持续发展高级项目经理,她在给《财富》杂志的撰文中写道,因不满公司在人工智能研发中对生态不负责任的行为,她今年早些时候选择了辞职。
“分析报告显示,人工智能或机器学习等先进技术有可能推动化石燃料产量提高 15%,从而导致石油重新崛起,并有可能推迟全球向可再生能源的过渡,"阿尔派恩写道,“现实世界的影响是惊人的: 微软和埃克森美孚(ExxonMobil)之间的单笔此类交易产生的排放量可能超过微软 2020 年年度碳减排承诺的 600% 以上。”
她写道,当她还是一名微软员工时,她目睹了 “数十起 ”此类交易。(财富中文网)
译者:梁宇
审校:夏林
If there weren’t enough of an argument against AI from an environmental standpoint, a new waterfall of data might push even the most ambivalent consumer over the edge.
Per the International Energy Agency, energy consumption by global data centers could more than double by 2026, “reaching levels that exceed large nations.” Ironically, “while we’re using AI to solve some of the world’s biggest challenges—from climate modeling to health-care breakthroughs—we’re also contributing to an environmental crisis of a different kind,” Chris Gladwin, a tech founder and CEO, wrote for Fortune recently.
Now, new reporting finds that OpenAI’s ChatGPT—which uses the GPT-4 language model—consumes 519 milliliters or just over one bottle of water, to write a 100-word email. That’s according to the Washington Post in a research collaboration with the University of California, Riverside.
In order to shoot off one email per week for a year, ChatGPT would use up 27 liters of water, or about one-and-a-half jugs. Zooming out, WaPo wrote, that means if one in 10 U.S. residents—16 million people—asked ChatGPT to write an email a week, it’d cost more than 435 million liters of water.
While much has been made about the power usage each ChatGPT prompt immediately necessitates, the water conversation has gained additional steam in recent months.
As WaPo explained, every prompt a user enters into ChatGPT is quickly turned into code, and “flows through a server that runs thousands of calculations to determine the best words to use in a response.” All those calculations go through real, physical servers which are housed in enormous data centers around the world. Spitting out an answer—or answering a command—makes the servers heat up, like an under-duress old laptop.
This is where water comes into keep those ever-important servers from overheating and breaking down, the data centers rely on cooling mechanisms, often via “cooling towers” that themselves require water. Each facility, depending on the climate where it’s based, uses a different amount of water and electricity. West Des Moines, Iowa, is quickly becoming a popular destination, owing to a temperate climate that calls for fewer cooling interventions.
“We haven’t come to the point yet where AI has tangibly taken away our most essential natural water resources,” wrote Shaolei Ren, an associate professor of engineering at UC Riverside who has been trying for years to quantify AI’s climate impact. Nonetheless, Ren called AI’s increasing water usage “definitely concerning.”
Amid rapid population growth and a changing climate, “depleting water resources and aging water infrastructures” are some of the most preeminent challenges, he wrote in November. “The concern is not only about the absolute amount of AI models’ water usage, but also about how AI model developers respond to the shared global challenge of water shortage.”
Droughts, he noted, are among the most immediate consequences of climate change, and it’s incumbent upon businesses to address water usage in their operations—and tech firms using generative AI top that list. “We already see heated tensions over water usage between AI data centers and local communities,” Ren wrote. “If AI models keep on guzzling water, these tensions will become more frequent and could lead to social turbulence.”
In Microsoft’s sustainability report last year, the company said its global water consumption had spiked 34% between 2021 and 2022. Over the same period, Google’s water usage rose 20%, it wrote in its own report. “It’s fair to say” that the majority of that growth at both companies “is due to AI,” Ren told the AP at the time. (Microsoft’s data center used up 700,000 liters of water in training GPT-3, WaPo reported.)
Holly Alpine, who was once Microsoft’s senior program manager of Datacenter Community Environmental Sustainability, resigned from the company earlier this year on principle, she wrote for Fortune, due to the company’s ecologically irresponsible AI development.
“Analyst reports suggest that advanced technologies—such as AI or machine learning—have the potential to increase fossil fuel yield by 15%, contributing to a resurgence of oil and potentially delaying the global transition to renewable energy,” Alpine wrote. “The real-world impacts are staggering: A single such deal between Microsoft and ExxonMobil could generate emissions that exceed Microsoft’s 2020 annual carbon removal commitments by over 600%.”
When she was a Microsoft employee, she wrote, she witnessed “dozens” of such deals.