首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

马斯克准备开发超级人工智能

Rachel Shin
2023-07-23

埃隆·马斯克宣称,自己的人工智能公司xAI将与OpenAI展开竞争。

文本设置
小号
默认
大号
Plus(0条)

特斯拉首席执行官埃隆·马斯克。图片来源:NATHAN LAINE—BLOOMBERG/GETTY IMAGES

埃隆·马斯克是OpenAI的联合创始人,这家公司开发出热门人工智能聊天机器人ChatGPT。后来因为与首席执行官萨姆·奥尔特曼和董事会的冲突,马斯克离开了这家公司。现在,他宣称自己的人工智能公司xAI将与OpenAI展开竞争,实现开发超级人工智能这个崇高的目标。

7月14日,全球首富马斯克在Twitter Spaces接近两个小时的访谈中,谈论了公司创造通用人工智能(AGI)的目标,即智力水平至少不低于人类的人工智能。

马斯克在访谈里说:“xAI的首要目标是开发一款良好的通用人工智能,主要目标只是努力了解宇宙。开发人工智能最安全的方法实际上是创造拥有最大限度好奇心和追求真相精神的人工智能。”

这位特斯拉(Tesla)的首席执行官还表示,影响未来是他经营xAI的出发点之一,因为他不想在这场人工智能竞赛中成为旁观者。他解释称,观众无法决定“结果”。

通用人工智能的概念通常是可以执行人类可执行的任何任务的机器,且其智力水平与人类相当。通用人工智能一直是科幻小说中的主题,被描绘成对人类生存的威胁,它的智慧和自主意识足够毁灭人类。马斯克认为通用人工智能的出现是“不可避免的”,因此他希望参与其中,确保通用人工智能的开发符合他的标准。

马斯克还指出,一家公司垄断人工智能的“单极”未来并不可取。在他发表这番言论之前,OpenAI于7月5日发布了一篇有关超级人工智能的博客,文中也预测通用人工智能是不可避免的,甚至可能在十年内诞生。

OpenAI的联合创始人伊利亚·苏茨克维尔和同事简·莱克写道:“目前,我们没有操控或控制超级人工智能和避免其行为失常的解决方案。人类无法可靠地监控比我们更聪明的人工智能系统。”

OpenAI的奥尔特曼对于他协助开发的技术,也发表了类似的世界末日般的言论,他把超级人工智能的威胁与新冠疫情和核战争相提并论。他还担心“独裁政权”获取这项技术,可能利用它危害全世界。

马斯克的观点却截然相反。他认为,超级智能的通用人工智能只要对人类产生好感,它实际上将是对人类最友好的技术。

马斯克在Twitter Spaces的访谈中说:“我之所以认为拥有最大限度好奇心和追求真相精神的人工智能是最安全的,是因为我的理论是对超级人工智能而言,人类远比非人类有趣。太阳系的所有行星、月亮以及小行星,这一切加起来都没有人类有趣。”

这位亿万富翁表示,如果xAI创造的机器聪明到认为人类比太空中的陨石更有趣的程度,我们就有生存的机会。他的理论让人回想起1967年的短篇小说《无声狂啸》(I Have No Mouth, and I Must Scream)。这篇小说讲述了一台名为AM的超级计算机摧毁了整个世界,消灭了所有人类,最后只有五位不幸的幸存者。AM消灭并彻底掌控全世界之后,将不断折磨五位人类幸存者作为唯一的娱乐(或复仇)形式。

马斯克努力开发的“拥有最大限度好奇心”的超级人工智能,可能会发现人类是有趣的,但如果生活像艺术作品中的场景一样,最终人类可能依旧要面临负面的后果。(财富中文网)

译者:刘进龙

审校:汪皓

埃隆·马斯克是OpenAI的联合创始人,这家公司开发出热门人工智能聊天机器人ChatGPT。后来因为与首席执行官萨姆·奥尔特曼和董事会的冲突,马斯克离开了这家公司。现在,他宣称自己的人工智能公司xAI将与OpenAI展开竞争,实现开发超级人工智能这个崇高的目标。

7月14日,全球首富马斯克在Twitter Spaces接近两个小时的访谈中,谈论了公司创造通用人工智能(AGI)的目标,即智力水平至少不低于人类的人工智能。

马斯克在访谈里说:“xAI的首要目标是开发一款良好的通用人工智能,主要目标只是努力了解宇宙。开发人工智能最安全的方法实际上是创造拥有最大限度好奇心和追求真相精神的人工智能。”

这位特斯拉(Tesla)的首席执行官还表示,影响未来是他经营xAI的出发点之一,因为他不想在这场人工智能竞赛中成为旁观者。他解释称,观众无法决定“结果”。

通用人工智能的概念通常是可以执行人类可执行的任何任务的机器,且其智力水平与人类相当。通用人工智能一直是科幻小说中的主题,被描绘成对人类生存的威胁,它的智慧和自主意识足够毁灭人类。马斯克认为通用人工智能的出现是“不可避免的”,因此他希望参与其中,确保通用人工智能的开发符合他的标准。

马斯克还指出,一家公司垄断人工智能的“单极”未来并不可取。在他发表这番言论之前,OpenAI于7月5日发布了一篇有关超级人工智能的博客,文中也预测通用人工智能是不可避免的,甚至可能在十年内诞生。

OpenAI的联合创始人伊利亚·苏茨克维尔和同事简·莱克写道:“目前,我们没有操控或控制超级人工智能和避免其行为失常的解决方案。人类无法可靠地监控比我们更聪明的人工智能系统。”

OpenAI的奥尔特曼对于他协助开发的技术,也发表了类似的世界末日般的言论,他把超级人工智能的威胁与新冠疫情和核战争相提并论。他还担心“独裁政权”获取这项技术,可能利用它危害全世界。

马斯克的观点却截然相反。他认为,超级智能的通用人工智能只要对人类产生好感,它实际上将是对人类最友好的技术。

马斯克在Twitter Spaces的访谈中说:“我之所以认为拥有最大限度好奇心和追求真相精神的人工智能是最安全的,是因为我的理论是对超级人工智能而言,人类远比非人类有趣。太阳系的所有行星、月亮以及小行星,这一切加起来都没有人类有趣。”

这位亿万富翁表示,如果xAI创造的机器聪明到认为人类比太空中的陨石更有趣的程度,我们就有生存的机会。他的理论让人回想起1967年的短篇小说《无声狂啸》(I Have No Mouth, and I Must Scream)。这篇小说讲述了一台名为AM的超级计算机摧毁了整个世界,消灭了所有人类,最后只有五位不幸的幸存者。AM消灭并彻底掌控全世界之后,将不断折磨五位人类幸存者作为唯一的娱乐(或复仇)形式。

马斯克努力开发的“拥有最大限度好奇心”的超级人工智能,可能会发现人类是有趣的,但如果生活像艺术作品中的场景一样,最终人类可能依旧要面临负面的后果。(财富中文网)

译者:刘进龙

审校:汪皓

Elon Musk was a cofounder of OpenAI—the maker of the popular A.I. chatbot ChatGPT—before pulling out of the company due to conflicts with CEO Sam Altman and the board. Now he claims that his own A.I. venture, xAI, will rival OpenAI in achieving the lofty goal of artificial superintelligence.

In a nearly two hour-long Twitter Spaces talk on July 14, the world’s richest man discussed his company’s goal of creating an AGI (artificial general intelligence), meaning an A.I. that is at least as smart as a human.

“The overarching goal of xAI is to build a good AGI with the overarching purpose of just trying to understand the universe,” Musk said during the talk. “The safest way to build an A.I. is actually to make one that is maximally curious and truth-seeking.”

The Tesla CEO added that influencing the future was part of his motivation in running xAI, as he didn’t want to be sidelined in the current A.I. race. Spectators don’t get to decide “the outcome,” he explained.

AGI is often conceptualized as a machine that can perform any task a human can and is as intelligent as a human. It has long been a theme in science fiction, framed as an existential threat with enough intelligence and autonomy to destroy humanity. Musk thinks AGI is “inevitable,” so he wants to have a hand in making sure it’s developed according to his standards, he said.

Musk added that a “unipolar” future in which one company monopolizes A.I. would be undesirable. His comments come after OpenAI’s July 5 blog post about superintelligence, which also predicted that AGI is inevitable and could even arrive within the decade.

“Currently, we don’t have a solution for steering or controlling a potentially superintelligent AI, and preventing it from going rogue,” OpenAI cofounder Ilya Sutskever and colleague Jan Leike wrote. “Humans won’t be able to reliably supervise AI systems much smarter than us.”

OpenAI’s Altman has made similar doomsday remarks about the technology he helped pioneer, comparing the threat of superintelligence to pandemics and nuclear war. He’s also expressed fear that an “autocratic regime” with access to the technology could use it to harm the world.

Musk takes an opposite approach, though—he thinks superintelligent AGI would actually be the most-human friendly, if it took a liking to us.

“My sort of theory behind the maximally curious, maximally truthful as being probably the safest approach is that I think to a superintelligence, humanity is much more interesting than not humanity,” Musk said on Twitter Spaces. “Look at the various planets in our solar system, the moons and the asteroids, and really probably all of them combined are not as interesting as humanity.”

If xAI creates a machine smart enough to find humans more amusing than rocks in space, we might just stand a chance at survival, according to the billionaire. His theory calls to mind the classic 1967 short story “I Have No Mouth, and I Must Scream” about a supercomputer called AM has consumed the entire world and destroyed all of humanity, sparing only five unlucky survivors. Having already eradicated and gained complete control of the world, AM tortures the five human survivors for eternity as its only form of entertainment (or revenge).

It’s likely the “maximally curious” superintelligence that Musk strives for would indeed find humanity interesting—but that may still end up as a net negative for humans, if life imitates art.

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开