首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

谷歌前CEO:当AI开始自我提升时,“我们就要认真考虑关掉它”

PAOLO CONFINO
2024-12-21

AI可能给人类带来全新的、更严重的威胁

文本设置
小号
默认
大号
Plus(0条)

谷歌前董事长兼首席执行官埃里克·施密特。CHRISTOPHE MORIN—IP3/GETTY IMAGES

• 硅谷前辈埃里克·施密特表示,当AI系统开始自我提升时,必须有人做好准备可以将其关闭,这样才能保证它们的安全性。

前谷歌(Google)首席执行官埃里克·施密特警告称,AI系统可能需要有一个紧急关机装置,以免它们变得过于强大。施密特认为,随着AI系统的自动化程度越来越高,它们可能给人类带来全新的、更严重的威胁。

施密特周日在接受ABC News采访时表示:“最终你会对电脑说:‘学习所有知识,完成一切任务’。这是一个危险的临界点。当AI系统可以自我提升时,我们就需要认真考虑关掉它。”

施密特预测,AI将从任务型助理,如微软(Microsoft)的Copilot,进化成可以自主决策的更加复杂的系统。施密特认为,当AI达到这个阶段时,人类就应该介入,并考虑关闭系统。人类需要确保在需要关闭AI系统时,不会遭到它的抵抗。

施密特说道:“理论上,最好有人可以随时将其关闭。”

施密特在硅谷工作了数十年。2001年,谷歌创始人谢尔盖·布林和拉里·佩奇将他招入麾下,帮助拓展他们的业务规模。当时,布林和佩奇认为他们需要一位具有高管经验的稳重人物来管理公司,而他们自己则专注于技术研发。在他的职业生涯中,施密特见证了科技行业的多次创新浪潮。施密特对最坏情况的担忧,也得到了其他AI领域知名人士的认同。

诺贝尔奖得主杰弗里·辛顿在2023年表示,他“看不到一条保证安全的路径”,因为人工智能可以自行思考。辛顿凭借他的发现被誉为“AI教父”。OpenAI首席执行官萨姆·奥尔特曼表示,通用人工智能最糟糕的情况是“人类彻底灭亡”。OpenAI的联合创始人、现已成为竞争对手的埃隆·马斯克警告说,人工智能可能对人类文明造成毁灭性影响。

马斯克在10月份表示,人工智能“很可能会很棒,但也有10%到20%的可能性会变得很可怕,这并非毫无可能。”

施密特也强调了AI积极的方面。

施密特对ABC的乔治·斯特凡诺普洛斯表示:“重要的是,人工智能的力量意味着每个人都会随身携带一个相当于‘全才’的助手。除了你的笔记和撰稿人,还会有爱因斯坦和达芬奇来为你的节目提供建议。这对地球上的每个人来说都是如此。”

为了确保人类在不遭受重大损害的情况下获得这些好处,施密特认为政府必须开始对AI进行监管。施密特提到他与已故的亨利·基辛格曾讨论过这个话题,并与他合著了《创世纪:人工智能、希望与人类精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一书。

施密特表示:“政府应该发挥作用。基辛格博士非常强烈地认为,人工智能的未来不应该由像我这样的人来决定,也不应该只由技术人员来决定。”

到目前为止,美国尚未在联邦层面实施任何AI监管。然而,加利福尼亚州提出了一系列保护电影行业的AI法案,并打击了使用该技术制作的深度伪造视频。但加州州长加文·纽瑟姆否决了一项名为SB 1047的综合性法案,该法案因对开发人员的严格报告要求而遭到风险投资者和科技公司高管的强烈反对。(财富中文网)

译者:刘进龙

审校:汪皓

谷歌前董事长兼首席执行官埃里克·施密特。CHRISTOPHE MORIN—IP3/GETTY IMAGES

• 硅谷前辈埃里克·施密特表示,当AI系统开始自我提升时,必须有人做好准备可以将其关闭,这样才能保证它们的安全性。

前谷歌(Google)首席执行官埃里克·施密特警告称,AI系统可能需要有一个紧急关机装置,以免它们变得过于强大。施密特认为,随着AI系统的自动化程度越来越高,它们可能给人类带来全新的、更严重的威胁。

施密特周日在接受ABC News采访时表示:“最终你会对电脑说:‘学习所有知识,完成一切任务’。这是一个危险的临界点。当AI系统可以自我提升时,我们就需要认真考虑关掉它。”

施密特预测,AI将从任务型助理,如微软(Microsoft)的Copilot,进化成可以自主决策的更加复杂的系统。施密特认为,当AI达到这个阶段时,人类就应该介入,并考虑关闭系统。人类需要确保在需要关闭AI系统时,不会遭到它的抵抗。

施密特说道:“理论上,最好有人可以随时将其关闭。”

施密特在硅谷工作了数十年。2001年,谷歌创始人谢尔盖·布林和拉里·佩奇将他招入麾下,帮助拓展他们的业务规模。当时,布林和佩奇认为他们需要一位具有高管经验的稳重人物来管理公司,而他们自己则专注于技术研发。在他的职业生涯中,施密特见证了科技行业的多次创新浪潮。施密特对最坏情况的担忧,也得到了其他AI领域知名人士的认同。

诺贝尔奖得主杰弗里·辛顿在2023年表示,他“看不到一条保证安全的路径”,因为人工智能可以自行思考。辛顿凭借他的发现被誉为“AI教父”。OpenAI首席执行官萨姆·奥尔特曼表示,通用人工智能最糟糕的情况是“人类彻底灭亡”。OpenAI的联合创始人、现已成为竞争对手的埃隆·马斯克警告说,人工智能可能对人类文明造成毁灭性影响。

马斯克在10月份表示,人工智能“很可能会很棒,但也有10%到20%的可能性会变得很可怕,这并非毫无可能。”

施密特也强调了AI积极的方面。

施密特对ABC的乔治·斯特凡诺普洛斯表示:“重要的是,人工智能的力量意味着每个人都会随身携带一个相当于‘全才’的助手。除了你的笔记和撰稿人,还会有爱因斯坦和达芬奇来为你的节目提供建议。这对地球上的每个人来说都是如此。”

为了确保人类在不遭受重大损害的情况下获得这些好处,施密特认为政府必须开始对AI进行监管。施密特提到他与已故的亨利·基辛格曾讨论过这个话题,并与他合著了《创世纪:人工智能、希望与人类精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一书。

施密特表示:“政府应该发挥作用。基辛格博士非常强烈地认为,人工智能的未来不应该由像我这样的人来决定,也不应该只由技术人员来决定。”

到目前为止,美国尚未在联邦层面实施任何AI监管。然而,加利福尼亚州提出了一系列保护电影行业的AI法案,并打击了使用该技术制作的深度伪造视频。但加州州长加文·纽瑟姆否决了一项名为SB 1047的综合性法案,该法案因对开发人员的严格报告要求而遭到风险投资者和科技公司高管的强烈反对。(财富中文网)

译者:刘进龙

审校:汪皓

• Once AI systems start to self-improve their capabilities, ensuring they remain safe will require someone who is ready and able to shut them down, according to Silicon Valley veteran Eric Schmidt.

Former Google CEO Eric Schmidt cautioned that AI systems might need a kill switch if they get too powerful. As the systems become increasingly autonomous, they could present new and graver threats to humanity, according to Schmidt.

“Eventually you say to the computer, ‘Learn everything and do everything,’” Schmidt said Sunday in an interview with ABC News. “And that’s a dangerous point. When the system can self-improve, we need to seriously think about unplugging it.”

Schmidt predicted that AI will advance from the sort of task-specific agents like Microsoft Copilot, to more complex systems that can make decisions on their own. When AI reaches that stage, it will be time for humans to step in and consider turning off the system, said Schmidt. Humans need to ensure that the AI itself can’t counteract efforts to shut it down.

“In theory, we better have somebody with the hand on the plug, metaphorically,” Schmidt said.

Schmidt worked in Silicon Valley for decades. In 2001, Google founders Sergey Brin and Larry Page brought him in to help scale their business. At the time, Brin and Page felt they needed a steady hand with high-profile executive experience to shepherd their company, while they dedicated themselves to research and development. Over his career, Schmidt had a front-row seat to the tech industry’s many waves of innovation. Schmidt’s fears about this worst-case scenario are shared by other AI luminaries.

Nobel laureate Geoffrey Hinton, whose discoveries earned him the moniker “the Godfather of AI,” said in 2023 he “couldn’t see a path that guaranteed safety” because AI could think for itself. OpenAI CEO Sam Altman said the worst-case scenario of artificial general intelligence is “lights out for all of us.” Elon Musk, an OpenAI cofounder turned rival, warned AI could lead to the destruction of civilization.

AI is “most likely going to be great,” Musk said in October. “There’s this sub chance, that could be 10% to 20%, that it goes bad. The chances aren’t zero that it goes bad.”

Schmidt, too, highlighted the positives of AI.

“The important thing is that the power of this intelligence means that each and every person is going to have the equivalent of a polymath in their pocket,” Schmidt told ABC’s George Stephanopoulos. “In addition to your notes and writers, you’re going to have an Einstein and a Leonardo da Vinci to give you advice on your show. That will be true for everyone on the planet.”

To ensure mankind reaps those benefits without incurring significant damages, Schmidt believes governments will have to start regulating AI. Schmidt referenced conversations on the topic he’d had with the late Henry Kissinger, with whom he cowrote Genesis: Artificial Intelligence, Hope, and the Human Spirit.

“Government has a role,” Schmidt said. “Dr. Kissinger felt very strongly that the future of intelligence should not be left to people like me. The technologists should not be the only ones making these decisions.”

So far, the U.S. has not implemented any AI regulation at the federal level. However, California put forth a series of AI bills to protect the film industry and cracked down on deepfakes made using the technology. But California Gov. Gavin Newsom vetoed a comprehensive bill known as SB 1047 that venture capital and tech executives heavily opposed owing to the stringent reporting requirements it would have imposed on developers.

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开