首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

OpenAI要建5千兆瓦数据中心,专家斥其痴人说梦

David Meyer
2024-10-13

OPENAI表示,它下步要建的数据中心,每一个的电力需求都达到了5千兆瓦。

文本设置
小号
默认
大号
Plus(0条)

OpenAI公司CEO山姆·奥特曼。DAVID PAUL MORRIS—BLOOMBERG/GETTY IMAGES

为了研发能达到真人水平的新一代人工智能系统,OpenAI希望美国政府能够帮助它开展大型数据中心的建设,但这种数据中心的耗电量是极其惊人的,甚至不亚于一些美国大城市的全部用电量。有专家甚至表示,现阶段美国不可能有人能够满足这种等级的能源需求。

几个星期前,奥特曼等AI领域的专家在白宫参加了一场关于基建问题的会议。拜登政府随后宣布,政府各部门将协调一致,加快建设新的人工智能数据中心,“以符合经济、国家安全和环境目标”。

那么,OpenAI到底需要美国政府提供哪些帮助?9月下旬,彭博社和《纽约时报》陆续披露了更多细节。其中有一点格外引人关注——OpenAI表示,它下步要建的数据中心,每一个的电力需求都达到了5千兆瓦。

5千兆瓦是什么概念?这是一个极其惊人的用电量,大概相当于5个核反应堆的输出,约等于迈阿密这样一个大城市的用电量。这几乎相当于目前一个标准的大型数据中心100倍的耗电量。据《纽约时报》报道,OpenAI在提出自己的提案后,甚至引来了一名日本官员的笑声。

能源公司Constellation Energy的CEO乔·多明格斯对彭博社表示,他已经听说了奥特曼想建5到7个这样的数据中心。科技能源研究公司Digiconomist的创始人亚历克斯·德弗里斯指出,7台5千兆瓦机组的发电量“相当于纽约州总用电量的2倍。”

他还表示:“这是一个非常极端的数字,从全球发电量的角度来看,光是这几个数据中心,就要消耗全球1%以上的用电量。”

奥特曼9月下旬还发表了一篇博文,描绘了这个世界在AI的加持下,将迎来怎样光明的未来。所以不难看出,他为什么要这么认真地推动这些数据中心的建设。(我们向OpenAI提出多次置评请求,但对方并未回应。)

在生成式人工智能领域,OpenAI目前是当之无愧的领军者,但是除非这个领域出现了某些重大的技术革新,否则OpenAI要想保住自己的优势地位,就要持续不断地“堆算力”。据《纽约时报》报道,这些新一代数据中心每个将耗资约1000亿美元,它包含了200万个AI芯片,这也就是为什么它的耗电量会高达恐怖的5千兆瓦。

1000亿美元和5千兆瓦这两个数字都指向了一个答案——那就是微软和OpenAI正在为下一代AI技术研发的“星际之门”超级计算集群。无独有偶,谷歌母公司Alphabet也在9月19日宣布,它将斥资33亿美元在南卡罗来纳州建设两个尖端数据中心。

德弗里斯在研究AI之前,主要研究的是虚拟货币的用电量问题。他指出,为了管理用电需求的高峰,电力公司的电网一般是有备用容量的,但是数据中心却需要持续运行。“现在整个迈阿密能有多少电网一直处于闲置状态呢?”他问道。

虽然这些数据中心尚未开建,但是OpenAI的这个用电需求无疑是迄今为止所有科技公司里最大的。但它并非唯一的用电大户,其他一些AI也表示,自己需要更大、更耗电的数据中心。今年3月份,亚马逊网络服务(Amazon Web Services)收购了宾夕法尼亚州的一个数据中心,这个数据中心就建在美国的萨斯奎哈纳核电站,该核电站的发电量为2.5千兆瓦。该数据中心的卖主Talen能源公司表示,亚马逊网络服务在这里的用电量高达960兆瓦。而就在9月下旬,微软刚刚与与Constellation能源公司达成协议,重启位于美国宾州的三里岛核电站。从2028年起,它将为微软数据中心提供835兆瓦的核电。

Constellation能源公司CEO多明格斯当时表示,核电是“唯一能满足超大规模数据中心的用电需求的无碳能源。”

对于OpenAI提出的5千兆瓦的需求,多明格斯对彭博社表示:“我们现在所谈的这个问题,不仅以前没有被解决过,而且我本人作为一名工程师,作为在这个行业里成长起来的人,我认为这是不可能实现的。特别是在要解决国家安全问题的这么一个时间框架下,这肯定是不可能的。”

在大型科技公司不遗余力地推动大型数据中心建设的同时,美国各地乃至世界各国却在帮着他们踩刹车,因为他们担心这会给当地的用电和用水造成影响——这些数据中心不仅耗电量巨大,而且还需要不间断地用风冷或水冷技术给数据中心的设备降温,而水冷显然更适合这些现代化的高性能设备。

在美国,弗吉尼亚州、佐治亚州、亚利桑那州、阿肯色州和伊利诺伊州等地近期都出台了新的地方性法律,或者是用增税等政策来“劝退”那些想在当地建数据中心的公司。白宫此前曾表示,那些已经退役的火电厂可以再次“披挂上阵”,为数据中心提供必要电力——而且重要的是,这些火电厂本来就已经连上了电网。但是从目前来看,这种可操作的空间仍然是相当有限的。

德弗里斯表示:“这些科技公司之所以大力推动数据中心建设,是因为他们在扩张上面临着越来越多的困难。”他指出,欧洲斯堪的纳维亚半岛地区近年来的经验表明,数据中心并没有像那些科技公司声称的那样,为当地创造大量的就业机会。“而且数据中心行业发现,它们创造出的价值可能还没有它们攫取的多。”

还有一个问题也值得注意,那就是奥特曼在说数字的时候,也是一个经常“语不惊人死不休”的人。早在今年2月份,《华尔街日报》就报道称,奥特曼要融资7万亿美元,来采购AI技术所需的AI芯片和电力。《纽约时报》9月下旬的报道也表示,据最新消息来源证实,奥特曼本人确实吹过这个数字,但是OpenAI公司则否认了有这么一个万亿美元级别的大项目。

“7万亿”这个数字也因此遭到了不少人的嘲笑。《纽约时报》还报道称,奥特曼“已经将他的目标下调到了几千亿美元级。”(财富中文网)

译者:朴成奎

OpenAI公司CEO山姆·奥特曼。DAVID PAUL MORRIS—BLOOMBERG/GETTY IMAGES

为了研发能达到真人水平的新一代人工智能系统,OpenAI希望美国政府能够帮助它开展大型数据中心的建设,但这种数据中心的耗电量是极其惊人的,甚至不亚于一些美国大城市的全部用电量。有专家甚至表示,现阶段美国不可能有人能够满足这种等级的能源需求。

几个星期前,奥特曼等AI领域的专家在白宫参加了一场关于基建问题的会议。拜登政府随后宣布,政府各部门将协调一致,加快建设新的人工智能数据中心,“以符合经济、国家安全和环境目标”。

那么,OpenAI到底需要美国政府提供哪些帮助?9月下旬,彭博社和《纽约时报》陆续披露了更多细节。其中有一点格外引人关注——OpenAI表示,它下步要建的数据中心,每一个的电力需求都达到了5千兆瓦。

5千兆瓦是什么概念?这是一个极其惊人的用电量,大概相当于5个核反应堆的输出,约等于迈阿密这样一个大城市的用电量。这几乎相当于目前一个标准的大型数据中心100倍的耗电量。据《纽约时报》报道,OpenAI在提出自己的提案后,甚至引来了一名日本官员的笑声。

能源公司Constellation Energy的CEO乔·多明格斯对彭博社表示,他已经听说了奥特曼想建5到7个这样的数据中心。科技能源研究公司Digiconomist的创始人亚历克斯·德弗里斯指出,7台5千兆瓦机组的发电量“相当于纽约州总用电量的2倍。”

他还表示:“这是一个非常极端的数字,从全球发电量的角度来看,光是这几个数据中心,就要消耗全球1%以上的用电量。”

奥特曼9月下旬还发表了一篇博文,描绘了这个世界在AI的加持下,将迎来怎样光明的未来。所以不难看出,他为什么要这么认真地推动这些数据中心的建设。(我们向OpenAI提出多次置评请求,但对方并未回应。)

在生成式人工智能领域,OpenAI目前是当之无愧的领军者,但是除非这个领域出现了某些重大的技术革新,否则OpenAI要想保住自己的优势地位,就要持续不断地“堆算力”。据《纽约时报》报道,这些新一代数据中心每个将耗资约1000亿美元,它包含了200万个AI芯片,这也就是为什么它的耗电量会高达恐怖的5千兆瓦。

1000亿美元和5千兆瓦这两个数字都指向了一个答案——那就是微软和OpenAI正在为下一代AI技术研发的“星际之门”超级计算集群。无独有偶,谷歌母公司Alphabet也在9月19日宣布,它将斥资33亿美元在南卡罗来纳州建设两个尖端数据中心。

德弗里斯在研究AI之前,主要研究的是虚拟货币的用电量问题。他指出,为了管理用电需求的高峰,电力公司的电网一般是有备用容量的,但是数据中心却需要持续运行。“现在整个迈阿密能有多少电网一直处于闲置状态呢?”他问道。

虽然这些数据中心尚未开建,但是OpenAI的这个用电需求无疑是迄今为止所有科技公司里最大的。但它并非唯一的用电大户,其他一些AI也表示,自己需要更大、更耗电的数据中心。今年3月份,亚马逊网络服务(Amazon Web Services)收购了宾夕法尼亚州的一个数据中心,这个数据中心就建在美国的萨斯奎哈纳核电站,该核电站的发电量为2.5千兆瓦。该数据中心的卖主Talen能源公司表示,亚马逊网络服务在这里的用电量高达960兆瓦。而就在9月下旬,微软刚刚与与Constellation能源公司达成协议,重启位于美国宾州的三里岛核电站。从2028年起,它将为微软数据中心提供835兆瓦的核电。

Constellation能源公司CEO多明格斯当时表示,核电是“唯一能满足超大规模数据中心的用电需求的无碳能源。”

对于OpenAI提出的5千兆瓦的需求,多明格斯对彭博社表示:“我们现在所谈的这个问题,不仅以前没有被解决过,而且我本人作为一名工程师,作为在这个行业里成长起来的人,我认为这是不可能实现的。特别是在要解决国家安全问题的这么一个时间框架下,这肯定是不可能的。”

在大型科技公司不遗余力地推动大型数据中心建设的同时,美国各地乃至世界各国却在帮着他们踩刹车,因为他们担心这会给当地的用电和用水造成影响——这些数据中心不仅耗电量巨大,而且还需要不间断地用风冷或水冷技术给数据中心的设备降温,而水冷显然更适合这些现代化的高性能设备。

在美国,弗吉尼亚州、佐治亚州、亚利桑那州、阿肯色州和伊利诺伊州等地近期都出台了新的地方性法律,或者是用增税等政策来“劝退”那些想在当地建数据中心的公司。白宫此前曾表示,那些已经退役的火电厂可以再次“披挂上阵”,为数据中心提供必要电力——而且重要的是,这些火电厂本来就已经连上了电网。但是从目前来看,这种可操作的空间仍然是相当有限的。

德弗里斯表示:“这些科技公司之所以大力推动数据中心建设,是因为他们在扩张上面临着越来越多的困难。”他指出,欧洲斯堪的纳维亚半岛地区近年来的经验表明,数据中心并没有像那些科技公司声称的那样,为当地创造大量的就业机会。“而且数据中心行业发现,它们创造出的价值可能还没有它们攫取的多。”

还有一个问题也值得注意,那就是奥特曼在说数字的时候,也是一个经常“语不惊人死不休”的人。早在今年2月份,《华尔街日报》就报道称,奥特曼要融资7万亿美元,来采购AI技术所需的AI芯片和电力。《纽约时报》9月下旬的报道也表示,据最新消息来源证实,奥特曼本人确实吹过这个数字,但是OpenAI公司则否认了有这么一个万亿美元级别的大项目。

“7万亿”这个数字也因此遭到了不少人的嘲笑。《纽约时报》还报道称,奥特曼“已经将他的目标下调到了几千亿美元级。”(财富中文网)

译者:朴成奎

To support its ambitions to develop AI systems that would be as intelligent as people, OpenAI wants the U.S. government to help streamline the construction of massive data centers that would suck up as much power as major American cities. But experts are skeptical that anyone is in a position to meet those kind of energy demands.

Two weeks ago, Altman and an assortment of other top AI players had a meeting about infrastructure at the White House. The Biden administration subsequently announced a coordinated push across government to speed up the build-out of new AI data centers “in line with economic, national security, and environmental goals.”

But in the past couple of days, reports from Bloomberg and the New York Times have provided more details about what OpenAI in particular is trying to get from the government: support in its quest to build data centers with power requirements of five gigawatts each.

Five gigawatts is an astonishingly large amount of power. It’s the output of around five nuclear reactors—the kind of power you need for a whole major city like Miami. It’s as much as 100 times the requirement of a standard large data center. The Times reported that OpenAI’s 5GW proposal drew laughter from a Japanese official.

Constellation Energy CEO Joe Dominguez told Bloomberg that he had heard Altman wanted five to seven such data centers. According to Alex de Vries, the founder of tech energy research company Digiconomist, seven 5GW units would have “twice the power consumption of New York State combined.”

“It’s an extreme amount and, from a global electricity perspective, at that point you’re talking about more than 1% of global electricity consumption for just those data centers alone,” he said.

It’s not hard to see why Altman—who this week published a blog post outlining a glorious AI-powered future for humanity—is making this push now. (OpenAI did not respond to multiple requests for comment on the reports.)

OpenAI is currently the leader in generative AI, but—barring some major shift in how the technology works—maintaining that position will require an ever-increasing amount of computing power. Per the Times, each of these futuristic data centers would cost around $100 billion and contain 2 million AI chips, which is where those 5GW of power become necessary.

The $100 billion and 5GW figures strongly suggest that the facilities being pitched here are intended to house the “Stargate” supercomputing clusters that Microsoft and OpenAI have reportedly been planning for OpenAI’s future models. To give some sense of the scale of capital outlay here, Alphabet on Thursday announced that it will spend $3.3 billion building two cutting-edge data centers in South Carolina.

Power companies may have spare capacity in their grids to manage peaks in demand, but data centers need to run continuously, noted de Vries, who focused on the energy demands of the cryptocurrency sector before turning his attention to AI. “How many grids have an entire Miami in spare capacity, all the time?” he asked.

Although OpenAI’s power demand is the biggest that any tech company has so far expressed, some other AI players are also anticipating the need for larger, more power-hungry data centers. In March, Amazon Web Services bought a data center in Pennsylvania that is co-located with the Susquehanna nuclear power station; the plant produces 2.5 gigawatts and the data center’s seller, Talen Energy, said AWS would use up to 960 megawatts. And a week ago, Microsoft struck a deal with Constellation that will see the restart of a Three Mile Island reactor, providing 835 megawatts of carbon-free energy for Microsoft’s data centers from 2028.

Constellation’s Dominguez said at the time that nuclear plants are “the only energy sources that can consistently deliver” on the promise of carbon-free power for the hyperscalers’ new demands.

But regarding OpenAI’s five-gigawatt proposal, he told Bloomberg this week: “Whatever we’re talking about is not only something that’s never been done, but I don’t believe it’s feasible as an engineer, as somebody who grew up in this. It’s certainly not possible under a time frame that’s going to address national security and timing.”

This push for more bigger data centers is also taking place at a time of increasing resistance from local and national governments around the world, who are worried about the impact on their power grids and water supplies—the equipment in data centers needs to be constantly cooled using either air or liquid, with the latter being better suited to cooling modern, high-performance equipment.

In the U.S., new laws and tax rises have recently been used to stymie data-center developments in Virginia, Georgia, Arizona, Arkansas, and Illinois. The White House said last week that retired coal plants would provide useful brownfield sites for data center development—crucially, they already have connections to the grid in place—but for now, space remains scarce.

“One of the reasons [tech companies are] pushing for this is they’re facing increasing difficulties in expanding,” said de Vries. The researcher pointed to recent experiences in Scandinavia that suggest data centers do not create the significant amounts of jobs that their developers claim will come, adding: “The data center industry is getting found out that it’s not delivering as much as is promised for everything that they’re taking.”

It is worth remembering that Altman isn’t shy about coming up with big numbers that end up proving unfeasible. Back in February, the Wall Street Journal reported that he was looking for as much as $7 trillion in funding for new AI chips and for the power needed to run them. This week’s Times article maintains, based on fresh sourcing, that Altman did float that figure, though OpenAI denies that multitrillion-dollar projects were ever on the table.

The $7 trillion figure was widely scoffed at, and the Times reported this week that Altman had “since scaled his ambition down to hundreds of billions of dollars.”

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开