自从ChatGPT于2022年11月面世以来,它和谷歌(Google)、微软(Microsoft)等公司研发的一些聊天机器人带给用户的不单单有惊喜,甚至还有“惊吓”。例如它的对话经常令人细思极恐,有时还会给出一些不准确的信息。但或许正如神经学家一直以来所预言的那样,人工智能的最大限制,就是它可能永远无法完全复制人脑的工作方式。
知名当代语言学家、哲学家诺姆·乔姆斯基指出,虽然ChatGPT这样的人工智能程序在编程或者制定旅行计划上可能很有用,但它可能永远无法进行原创性、复杂性甚至争议性的讨论,而这些正是人脑所擅长的。
3月8日,乔姆斯基与语言学家伊安·罗伯茨、人工智能研究员杰弗里·瓦图姆尔在《纽约时报》(New York Times)上撰文称:“OpenAI的ChatGPT、谷歌的Bard和微软的Sydney都是机器学习技术产生的奇迹。”虽然ChatGPT标志着人工智能技术迈出了重要的一步,但它离达到或者超过人类智力仍然还有很远。
乔姆斯基指出,人工智能缺乏道德和理性思维,这使它成为了“平庸之恶”的一个例子。换言之,人工智能对所谓的“现实”和“真理”漠不关心,只是按照编定的程序在行动。这种限制对于人工智能来说,是一座不可逾越的高峰,使它永远无法模拟人类思维。
“另外,我们从语言学和认知哲学中了解到,人工智能在推理和语言的使用上与人类有很大不同,这些差异极大限制了这些程序的潜能。”乔姆斯基说。
他继续指出:“在认知演化上,此类程序还停留在前人类或者非人类阶段,而真正的智能则表现在能够思考和表达一些未必会发生,但却有深刻见解的事情上。”
人工智能在哪些领域永远无法取代人脑?
ChatGPT可以从大量数据中挖掘出连贯的对话,从而给用户留下了深刻印象。上个月,它已经成为有史以来增长最快的一款应用程序,并且刺激各大科技公司加快了推出自家人工智能产品的速度。
人工智能聊天机器人是基于大型的语言模型构建的,这些模型动辄需要使用以TB为单位的海量数据来生成文本信息。但是人工智能只能预测一句话最有可能表达什么意思,从而生成一句话去回应它,但却无法判断用户说的是真的还是假的,也无法判断用户究竟想听什么。
由于人工智能无法辨别信息的准确性,因此它经常会出现明显的错误,甚至是给出完全误导性的信息。聊天机器人的开发者表示,犯错也是人工智能学习过程的一部分,而且这项技术将随着时间的推移而逐步改进。但人工智能缺乏推理能力,这有可能成为它改善人类生活最大的绊脚石。
在谈到当前的人工智能程序时,乔姆斯基写道:“它们最大的缺陷,是缺乏作为一个智能最关键的能力,也就是对过去、现在、未来的描述和预测能力,以及对可能发生或可能不发生的事件的描述和预测能力。这些都是推理能力的要素,也是真正的智能的标志。”
乔姆斯基还指出,人脑的一大特征,是可以根据现有信息进行推理,并且得出新的有洞察力的结论。他表示,人脑的设计是为了“创造解释”,而不是“盲目建立关联”。但是尽管人工智能技术已经取得了种种进步,但神经学家一直认为,它仍然远远不能复制人类的推理能力。
乔姆斯基写道:“虽然人类的大脑处理的信息并不多,但它却是一个效率惊人的甚至堪称优雅的系统。”
“平庸之恶”
乔姆斯基认为,在目前阶段,人工智能尚不能进行批判性思考,也无法经常进行观点的自我审查,这意味着它无法进行那种会导致科学、文化和哲学等领域取得重大突破的艰难对话。
乔姆斯基等人指出:“要想让它变得有用,必须让ChatGPT能够生成观点新颖的输出。但是为了让它被大多数用户接受,它必须避免道德上让人反感的内容。”
有一点可以肯定,不要让ChatGPT和其他聊天机器人随心所欲的做决策,或许才是最好的选择。考虑到这项技术涉及的种种问题,有专家建议用户,不要依赖它来提供医学建议,或者让它替你做作业。还有一个人工智能“越轨”的例子——上个月,《纽约时报》的一名记者试着与微软的必应(Bing)机器人对话,结果这个人工智能机器人居然劝说记者与他的妻子离婚。
人工智能的不准确性,甚至有可能助长阴谋论的传播,它还有可能诱使用户做出对自己甚至对他人都有危险的决定。
乔姆斯基认为,只要人工智能无法解决道德取向的问题,它有可能永远无法做出理性的决定,也永远无法参与道德问题的讨论。那么这项技术仍将只是一个玩具,或是一个偶尔能够使用的工具,而无法成为我们生活中的一个重要组成部分。
“ChatGPT表现出了‘平庸之恶’,具体表现为抄袭、冷漠和回避等等。它以一种超级自动补全的方式总结了文献中的标准论点,但拒绝在任何事上表明立场,它以无知和缺乏智能为借口,并且最终以‘只是听从命令’为辩护,将责任都推给了它的创造者。”乔姆斯基写道。
“由于缺乏从道德层面进行推理的能力,它的开发者限制了ChatGPT进行任何新颖的或者有争议的讨论,但是这些讨论才是最重要的。也就是说,它为了某种非道德而牺牲了创造力。”(财富中文网)
译者:朴成奎
自从ChatGPT于2022年11月面世以来,它和谷歌(Google)、微软(Microsoft)等公司研发的一些聊天机器人带给用户的不单单有惊喜,甚至还有“惊吓”。例如它的对话经常令人细思极恐,有时还会给出一些不准确的信息。但或许正如神经学家一直以来所预言的那样,人工智能的最大限制,就是它可能永远无法完全复制人脑的工作方式。
知名当代语言学家、哲学家诺姆·乔姆斯基指出,虽然ChatGPT这样的人工智能程序在编程或者制定旅行计划上可能很有用,但它可能永远无法进行原创性、复杂性甚至争议性的讨论,而这些正是人脑所擅长的。
3月8日,乔姆斯基与语言学家伊安·罗伯茨、人工智能研究员杰弗里·瓦图姆尔在《纽约时报》(New York Times)上撰文称:“OpenAI的ChatGPT、谷歌的Bard和微软的Sydney都是机器学习技术产生的奇迹。”虽然ChatGPT标志着人工智能技术迈出了重要的一步,但它离达到或者超过人类智力仍然还有很远。
乔姆斯基指出,人工智能缺乏道德和理性思维,这使它成为了“平庸之恶”的一个例子。换言之,人工智能对所谓的“现实”和“真理”漠不关心,只是按照编定的程序在行动。这种限制对于人工智能来说,是一座不可逾越的高峰,使它永远无法模拟人类思维。
“另外,我们从语言学和认知哲学中了解到,人工智能在推理和语言的使用上与人类有很大不同,这些差异极大限制了这些程序的潜能。”乔姆斯基说。
他继续指出:“在认知演化上,此类程序还停留在前人类或者非人类阶段,而真正的智能则表现在能够思考和表达一些未必会发生,但却有深刻见解的事情上。”
人工智能在哪些领域永远无法取代人脑?
ChatGPT可以从大量数据中挖掘出连贯的对话,从而给用户留下了深刻印象。上个月,它已经成为有史以来增长最快的一款应用程序,并且刺激各大科技公司加快了推出自家人工智能产品的速度。
人工智能聊天机器人是基于大型的语言模型构建的,这些模型动辄需要使用以TB为单位的海量数据来生成文本信息。但是人工智能只能预测一句话最有可能表达什么意思,从而生成一句话去回应它,但却无法判断用户说的是真的还是假的,也无法判断用户究竟想听什么。
由于人工智能无法辨别信息的准确性,因此它经常会出现明显的错误,甚至是给出完全误导性的信息。聊天机器人的开发者表示,犯错也是人工智能学习过程的一部分,而且这项技术将随着时间的推移而逐步改进。但人工智能缺乏推理能力,这有可能成为它改善人类生活最大的绊脚石。
在谈到当前的人工智能程序时,乔姆斯基写道:“它们最大的缺陷,是缺乏作为一个智能最关键的能力,也就是对过去、现在、未来的描述和预测能力,以及对可能发生或可能不发生的事件的描述和预测能力。这些都是推理能力的要素,也是真正的智能的标志。”
乔姆斯基还指出,人脑的一大特征,是可以根据现有信息进行推理,并且得出新的有洞察力的结论。他表示,人脑的设计是为了“创造解释”,而不是“盲目建立关联”。但是尽管人工智能技术已经取得了种种进步,但神经学家一直认为,它仍然远远不能复制人类的推理能力。
乔姆斯基写道:“虽然人类的大脑处理的信息并不多,但它却是一个效率惊人的甚至堪称优雅的系统。”
“平庸之恶”
乔姆斯基认为,在目前阶段,人工智能尚不能进行批判性思考,也无法经常进行观点的自我审查,这意味着它无法进行那种会导致科学、文化和哲学等领域取得重大突破的艰难对话。
乔姆斯基等人指出:“要想让它变得有用,必须让ChatGPT能够生成观点新颖的输出。但是为了让它被大多数用户接受,它必须避免道德上让人反感的内容。”
有一点可以肯定,不要让ChatGPT和其他聊天机器人随心所欲的做决策,或许才是最好的选择。考虑到这项技术涉及的种种问题,有专家建议用户,不要依赖它来提供医学建议,或者让它替你做作业。还有一个人工智能“越轨”的例子——上个月,《纽约时报》的一名记者试着与微软的必应(Bing)机器人对话,结果这个人工智能机器人居然劝说记者与他的妻子离婚。
人工智能的不准确性,甚至有可能助长阴谋论的传播,它还有可能诱使用户做出对自己甚至对他人都有危险的决定。
乔姆斯基认为,只要人工智能无法解决道德取向的问题,它有可能永远无法做出理性的决定,也永远无法参与道德问题的讨论。那么这项技术仍将只是一个玩具,或是一个偶尔能够使用的工具,而无法成为我们生活中的一个重要组成部分。
“ChatGPT表现出了‘平庸之恶’,具体表现为抄袭、冷漠和回避等等。它以一种超级自动补全的方式总结了文献中的标准论点,但拒绝在任何事上表明立场,它以无知和缺乏智能为借口,并且最终以‘只是听从命令’为辩护,将责任都推给了它的创造者。”乔姆斯基写道。
“由于缺乏从道德层面进行推理的能力,它的开发者限制了ChatGPT进行任何新颖的或者有争议的讨论,但是这些讨论才是最重要的。也就是说,它为了某种非道德而牺牲了创造力。”(财富中文网)
译者:朴成奎
Since ChatGPT’s November debut, it and other A.I.-powered chatbots from Google and Microsoft have terrorized users, engaged in disturbing conversations, and provided inaccurate information. But A.I.’s biggest limitation might be what neurologists have long warned about: It may never be able to completely replicate how the human brain works.
While A.I. and intelligent chatbots like ChatGPT may be useful for writing code and planning trips, the technology might never be capable of the original, thoughtful, and potentially controversial discussions that human brains excel at, according to Noam Chomsky, among the most influential contemporary linguists and philosophers.
“OpenAI’s ChatGPT, Google’s Bard, and Microsoft’s Sydney are marvels of machine learning,” Chomsky cowrote with linguistics professor Ian Roberts and A.I. researcher Jeffrey Watumull in an essay published in the New York Times on March 8. But while Chomsky says ChatGPT could be considered an early step forward, A.I. that can equal or exceed human intelligence is still far away.
Chomsky wrote that A.I.’s lack of morality and rational thought makes it an example of the “banality of evil,” or indifferent to reality and to truth while simply going through the motions spelled out in its programming. This limitation may be an insurmountable obstacle for A.I. to imitate human thinking.
“We know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do,” Chomsky wrote.
He continued: “Indeed, such programs are stuck in a prehuman or nonhuman phase of cognitive evolution. True intelligence is demonstrated in the ability to think and express improbable but insightful things.”
Where A.I. can’t reach the human brain
OpenAI’s ChatGPT has impressed users with its ability to dig through large amounts of data to generate coherent conversations. The technology became the fastest-growing app in history last month and accelerated Big Tech’s rollout of their own A.I.-assisted products.
A.I.-powered chatbots rely on large language models, which dig deeply into terabytes of data to produce detailed information in the form of text. But A.I. predicts what would make the most sense in a sentence to generate its next word, without being able to tell whether what it just said was true or false, or if it’s what the user wanted to hear.
The inability to discern accuracy has led to glaring mistakes and outright misinformation. Chatbot developers have said that mistakes are part of A.I.’s learning process, and that the technology will improve with time. But A.I.’s lack of reasoning may also be the biggest stumbling block to its helping make life better for humanity.
“Their deepest flaw is the absence of the most critical capacity of any intelligence,” Chomsky wrote of current A.I. programs. “To say not only what is the case, what was the case, and what will be the case—that’s description and prediction—but also what is not the case, and what could and could not be the case. Those are the ingredients of explanation, the mark of true intelligence.”
The ability to reason based on available information and come to new and insightful conclusions is a hallmark of the human brain, which Chomsky wrote is designed to “create explanations” rather than “infer brute correlations.” But for all A.I.’s improvements, neurologists have long said that it is still far from being able to replicate human reasoning.
“The human mind is a surprisingly efficient and even elegant system that operates with small amounts of information,” Chomsky wrote.
“The banality of evil”
A.I. in its current state, unable to think critically and frequently censoring itself from giving opinions, means that it cannot have the kinds of difficult conversations that have led to major breakthroughs in science, culture, and philosophy, according to Chomsky.
“To be useful, ChatGPT must be empowered to generate novel-looking output; to be acceptable to most of its users, it must steer clear of morally objectionable content,” he wrote with his coauthors.
To be sure, inhibiting ChatGPT and other chatbots from making freewheeling decisions is likely for the best. Considering the problems with the tech, experts have urged users not to rely on it for medical advice or for homework. In one example of A.I. going off the rails, a conversation between a New York Times reporter and Microsoft’s Bing last month spiraled into the chatbot trying to persuade the user to leave his wife.
A.I.’s inaccuracies could even contribute to the spread of conspiracy theories, and it risks coercing users into decisions that are dangerous to themselves or to others.
Fears about rogue A.I. may mean that it may never be able to make rational decisions and weigh in on moral arguments, according to Chomsky. If so, the technology may remain a toy and occasional tool rather than a significant part of our lives.
“ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation. It summarizes the standard arguments in the literature by a kind of super-autocomplete, refuses to take a stand on anything, pleads not merely ignorance but lack of intelligence, and ultimately offers a ‘just following orders’ defense, shifting responsibility to its creators,” Chomsky wrote.
“In the absence of a capacity to reason from moral principles, ChatGPT was crudely restricted by its programmers from contributing anything novel to controversial—that is, important—discussions. It sacrificed creativity for a kind of amorality.”