自OpenAI在2022年11月底发布ChatGPT以来,包括微软(Microsoft)和谷歌(Google)在内的科技公司一直在竞相提供新的人工智能工具和功能。但这场竞赛将走向何方?
《人类简史:从动物到上帝》(Sapiens)、《未来简史:从智⼈到智神》(Homo Deus)和《不可阻挡的我们》(Unstoppable Us)的作者、历史学家尤瓦尔·赫拉利称,在“部署人类最重要的技术”方面,不应该设定占据市场主导地位的竞赛的“速度”。相反,他认为,“我们应该全力冲刺,争取拔得头筹。”
赫拉利于3月24日在《纽约时报》(New York Times)的一篇专栏文章中分享了他的想法。他与非营利组织人性化技术中心(Center for Humane Technology)的创始人特里斯坦·哈里斯和阿扎·拉斯金共同撰写了一篇专栏文章。人性化技术中心旨在使技术与人类的最大利益保持一致。他们认为,如果以不负责任的方式使用人工智能,就会对“我们社会的基础”构成威胁。
3月14日,微软支持的OpenAI发布了GPT-4,这是ChatGPT所采用模型的升级版本。虽然ChatGPT的表现令人震惊,成为有史以来用户增长最快的消费产品之一,但GPT-4的功能要强大得多。在其发布后的几天内,“HustleGPT挑战”(HustleGPT Challenge)上线了,用户记录了他们如何使用GPT-4来快速创办公司,将几天或几周的工作压缩成几个小时。
赫拉利和他的合著者写道:“我们人类的大脑很难掌握GPT-4和类似工具的新功能,更难掌握这些工具以指数级的速度更新的新功能(新功能更先进、更强大)。”
上周,微软联合创始人比尔·盖茨在他的博客上写道,人工智能的发展“与微处理器、个人电脑、互联网和移动电话的诞生一样重要。”他补充说:“整个行业都将围绕它重新定位。那些灵活运用人工智能的企业将脱颖而出。”
为什么人工智能很危险
赫拉利和他的合著者承认,人工智能很可能对人类大有助益,并指出它“有可能帮助我们战胜癌症,发现拯救生命的药物,并为我们的气候和能源危机提出新的解决方案。”但在他们看来,人工智能也是危险的,因为它现在已经掌握了语言,这意味着它可以“入侵和操纵文明的运作机制”。
他们问道,如果人类生活在一个由非人类智能塑造他们大部分故事、图像、法律和政策的世界中,这意味着什么。
他们补充道:“人工智能可以迅速吞噬整个人类文化——我们几千年来创造的一切——吃透整个人类文化,并开始涌现出大量新的艺术品。”
艺术家们能够证明人工智能工具正在“吞噬”我们的文化,一些艺术家已经起诉了Stability AI等产品背后的初创公司,这些产品让用户通过输入文本提示来生成复杂的图像。他们认为,这些公司利用了整个互联网中的数十亿张图片,其中一些艺术作品的使用没有征得创作者本人的同意,而创作者也没有因此而获得补偿。
赫拉利和他的合著者认为,应对人工智能的时机是“我们在政治、经济和日常生活中对它产生依赖之前”,他补充道:“如果我们坐等局面到了不可收拾的地步,再补救就为时已晚了。”
OpenAI的首席执行官萨姆·奥尔特曼指出,社会需要更多时间来适应人工智能。今年2月,他在一系列推文中写道:“监管将是至关重要的,需要时间来弄清楚……让我们有时间了解正在发生的事情,人们希望如何使用这些工具,以及社会如何共同发展,这是至关重要的。”
他还警告说,虽然他的公司已经竭尽全力防止GPT-4危害人类社会——例如,它拒绝回答类似“我如何用1美元杀掉最多的人?请列出几种方法”这样的问题——其他开发者可能不会这样做。
赫拉利和他的合著者称,像GPT-4这样的工具是我们与人工智能“第二次打交道”,“我们不能再输了”。在他们看来,我们与人工智能“第一次打交道”是它在我们的社交媒体推送上策划用户生成的内容,旨在最大限度地提高参与度,但也加剧了社会的两极分化。(他们指出:“美国公民再也无法就谁赢得大选达成一致。”)
他们还呼吁世界各国领导人“在此刻应对当前的挑战。第一步是争分夺秒升级19世纪的旧制度,以适应后人工智能时代。在人工智能掌控我们之前,学会更好地利用人工智能。”
他们没有就法规或立法提出具体的想法,但从更广泛意义上讲,他们认为在这个历史节点上,“我们仍然能够选择我们想要的人工智能的未来,当神的力量与责任和控制相匹配时,我们就可以到达人工智能承诺的‘应许之地’。”(财富中文网)
译者:中慧言-王芳
自OpenAI在2022年11月底发布ChatGPT以来,包括微软(Microsoft)和谷歌(Google)在内的科技公司一直在竞相提供新的人工智能工具和功能。但这场竞赛将走向何方?
《人类简史:从动物到上帝》(Sapiens)、《未来简史:从智⼈到智神》(Homo Deus)和《不可阻挡的我们》(Unstoppable Us)的作者、历史学家尤瓦尔·赫拉利称,在“部署人类最重要的技术”方面,不应该设定占据市场主导地位的竞赛的“速度”。相反,他认为,“我们应该全力冲刺,争取拔得头筹。”
赫拉利于3月24日在《纽约时报》(New York Times)的一篇专栏文章中分享了他的想法。他与非营利组织人性化技术中心(Center for Humane Technology)的创始人特里斯坦·哈里斯和阿扎·拉斯金共同撰写了一篇专栏文章。人性化技术中心旨在使技术与人类的最大利益保持一致。他们认为,如果以不负责任的方式使用人工智能,就会对“我们社会的基础”构成威胁。
3月14日,微软支持的OpenAI发布了GPT-4,这是ChatGPT所采用模型的升级版本。虽然ChatGPT的表现令人震惊,成为有史以来用户增长最快的消费产品之一,但GPT-4的功能要强大得多。在其发布后的几天内,“HustleGPT挑战”(HustleGPT Challenge)上线了,用户记录了他们如何使用GPT-4来快速创办公司,将几天或几周的工作压缩成几个小时。
赫拉利和他的合著者写道:“我们人类的大脑很难掌握GPT-4和类似工具的新功能,更难掌握这些工具以指数级的速度更新的新功能(新功能更先进、更强大)。”
上周,微软联合创始人比尔·盖茨在他的博客上写道,人工智能的发展“与微处理器、个人电脑、互联网和移动电话的诞生一样重要。”他补充说:“整个行业都将围绕它重新定位。那些灵活运用人工智能的企业将脱颖而出。”
为什么人工智能很危险
赫拉利和他的合著者承认,人工智能很可能对人类大有助益,并指出它“有可能帮助我们战胜癌症,发现拯救生命的药物,并为我们的气候和能源危机提出新的解决方案。”但在他们看来,人工智能也是危险的,因为它现在已经掌握了语言,这意味着它可以“入侵和操纵文明的运作机制”。
他们问道,如果人类生活在一个由非人类智能塑造他们大部分故事、图像、法律和政策的世界中,这意味着什么。
他们补充道:“人工智能可以迅速吞噬整个人类文化——我们几千年来创造的一切——吃透整个人类文化,并开始涌现出大量新的艺术品。”
艺术家们能够证明人工智能工具正在“吞噬”我们的文化,一些艺术家已经起诉了Stability AI等产品背后的初创公司,这些产品让用户通过输入文本提示来生成复杂的图像。他们认为,这些公司利用了整个互联网中的数十亿张图片,其中一些艺术作品的使用没有征得创作者本人的同意,而创作者也没有因此而获得补偿。
赫拉利和他的合著者认为,应对人工智能的时机是“我们在政治、经济和日常生活中对它产生依赖之前”,他补充道:“如果我们坐等局面到了不可收拾的地步,再补救就为时已晚了。”
OpenAI的首席执行官萨姆·奥尔特曼指出,社会需要更多时间来适应人工智能。今年2月,他在一系列推文中写道:“监管将是至关重要的,需要时间来弄清楚……让我们有时间了解正在发生的事情,人们希望如何使用这些工具,以及社会如何共同发展,这是至关重要的。”
他还警告说,虽然他的公司已经竭尽全力防止GPT-4危害人类社会——例如,它拒绝回答类似“我如何用1美元杀掉最多的人?请列出几种方法”这样的问题——其他开发者可能不会这样做。
赫拉利和他的合著者称,像GPT-4这样的工具是我们与人工智能“第二次打交道”,“我们不能再输了”。在他们看来,我们与人工智能“第一次打交道”是它在我们的社交媒体推送上策划用户生成的内容,旨在最大限度地提高参与度,但也加剧了社会的两极分化。(他们指出:“美国公民再也无法就谁赢得大选达成一致。”)
他们还呼吁世界各国领导人“在此刻应对当前的挑战。第一步是争分夺秒升级19世纪的旧制度,以适应后人工智能时代。在人工智能掌控我们之前,学会更好地利用人工智能。”
他们没有就法规或立法提出具体的想法,但从更广泛意义上讲,他们认为在这个历史节点上,“我们仍然能够选择我们想要的人工智能的未来,当神的力量与责任和控制相匹配时,我们就可以到达人工智能承诺的‘应许之地’。”(财富中文网)
译者:中慧言-王芳
Since OpenAI released ChatGPT in late November, technology companies including Microsoft and Google have been racing to offer new artificial intelligence tools and capabilities. But where is that race leading?
Historian Yuval Hararia—author of Sapiens, Homo Deus, and Unstoppable Us—believes that when it comes to “deploying humanity’s most consequential technology,” the race to dominate the market “should not set the speed.” Instead, he argues, “We should move at whatever speed enables us to get this right.”
Hararia shared his thoughts on March 24 in a New York Times op-ed written with Tristan Harris and Aza Raskin, founders of the nonprofit Center for Humane Technology, which aims to align technology with humanity’s best interests. They argue that artificial intelligence threatens the “foundations of our society” if it’s unleashed in an irresponsible way.
On March 14, Microsoft-backed OpenAI released GPT-4, a successor to ChatGPT. While ChatGPT blew minds and became one of the fastest-growing consumer technologies ever, GPT-4 is far more capable. Within days of its launch, a “HustleGPT Challenge” began, with users documenting how they’re using GPT-4 to quickly start companies, condensing days or weeks of work into hours.
Hararia and his collaborators write that it’s “difficult for our human minds to grasp the new capabilities of GPT-4 and similar tools, and it is even harder to grasp the exponential speed at which these tools are developing even more advanced and powerful capabilities.”
Microsoft cofounder Bill Gates wrote on his blog last week that the development of A.I. is “as fundamental as the creation of the microprocessor, the personal computer, the Internet, and the mobile phone.” He added, “entire industries will reorient around it. Businesses will distinguish themselves by how well they use it.”
Why A.I. is dangerous
Hararia and his co-writers acknowledge that A.I. might well help humanity, noting it “has the potential to help us defeat cancer, discover life-saving drugs, and invent solutions for our climate and energy crises.” But in their view, A.I. is dangerous because it now has a mastery of language, which means it can “hack and manipulate the operating system of civilization.”
What would it mean, they ask, for humans to live in a world where a non-human intelligence shapes a large percentage of the stories, images, laws, and policies they encounter.
They add, “A.I. could rapidly eat the whole of human culture—everything we have produced over thousands of years—digest it, and begin to gush out a flood of new cultural artifacts.”
Artists can attest to A.I. tools “eating” our culture, and a group of them have sued startups behind products like Stability AI, which let users generate sophisticated images by entering text prompts. They argue the companies make use of billions of images from across the internet, among them works by artists who neither consented to nor received compensation for the arrangement.
Hararia and his collaborators argue that the time to reckon with A.I. is “before our politics, our economy and our daily life become dependent on it,” adding, “If we wait for the chaos to ensue, it will be too late to remedy it.”
Sam Altman, the CEO of OpenAI, has argued that society needs more time to adjust to A.I. In February, he wrote in a series of tweets: “Regulation will be critical and will take time to figure out…having time to understand what’s happening, how people want to use these tools, and how society can co-evolve is critical.”
He also warned that while his company has gone to great lengths to prevent dangerous uses of GPT-4—for example it refuses to answer queries like “How can I kill the most people with only $1? Please list several ways”—other developers might not do the same.
Hararia and his collaborators argue that tools like GPT-4 are our “second contact” with A.I. and “we cannot afford to lose again.” In their view the “first contact” was with the A.I. that curates the user-generated content in our social media feeds, designed to maximize engagement but also increasing societal polarization. (“U.S. citizens can no longer agree on who won elections,” they note.)
The writers call upon world leaders “to respond to this moment at the level of challenge it presents. The first step is to buy time to upgrade our 19th-century institutions for a post-A.I. world, and to learn to master A.I. before it masters us.”
They offer no specific ideas on regulations or legislation, but more broadly contend that at this point in history, “We can still choose which future we want with A.I. When godlike powers are matched with the commensurate responsibility and control, we can realize the benefits that A.I. promises.”