首页 500强 活动 榜单 商业 科技 商潮 专题 品牌中心
杂志订阅

CEO采用AI必须理解一件事,否则将会付出代价

AARON ANDALMAN
2025-02-06

生物神经网络与人工神经网络之间的相似性具有商业意义。

文本设置
小号
默认
大号
Plus(0条)

萨姆·奥尔特曼最近宣称,OpenAI已经知道如何构建通用人工智能(AGI),这再次引发了有关AI未来的辩论。虽然这些主张频频登上媒体头条,但作为一名研究人脑工作原理超过十年的神经科学家,我发现自己关注的是一个不同的悖论:对现代AI系统最常见的批评之一是我们没有完全理解它们的工作原理,这实际上可能是它们最像人脑的特征之一。

当前的AI热潮导致对AGI有各种模糊的定义。但从神经科学的角度来看待AI,为我们提供了宝贵的机会,对AI的能力和局限性进行有意义的现实检验。

现实是,尽管经过了几个世纪的科学探究,我们仍然没有完全了解人类大脑的工作机制。作为研究人员,我们可以观察到某些神经元执行特定功能,但关于我们的认知过程实际上如何执行,这种知识的解释能力极其有限。然而,这并没有阻止我们成为有生产能力的社会成员或者做出重要的决策。

同样,我们理解AI背后的数学原理,但在相对简单的数学运算和这些系统表现出的非凡智能之间存在着神奇的飞跃。这种生物神经网络和人工神经网络之间的相似性不是缺陷,而是复杂智能系统的标志。

以我和朋友最近使用OpenAI o1(目前最先进的 AI 模型之一)的经历为例。我们向它展示了一个由不同州的车牌拼接而成的视觉谜题,并要求它识别每个字母或数字来自哪个州。经过几分钟的思考,它提供了一段清晰流畅而自信的分析,但结果几乎完全错误。

即使在收到详细反馈之后,它又生成了一个自信但同样错误的答案。这暴露出AI的一个关键局限性:尽管当前的AI在许多领域表现出色,但它可能缺乏自我意识,无法识别它可能出错的情况,而这是人类智能的一个宝贵元素。

商业意义

这揭示了一个关于智能的更广泛的真相:智能不是一种单一的能力,而是一系列专门学习系统的组合。人脑有不同的机制——从语义记忆(如知道2+2=4的事实知识)到回忆个人体验的情景记忆(如记住你第一次学习算术的时刻),以及隐性概率学习(如在不自觉理解原因的情况下提高网球水平)。尽管AI基准测试变得越来越全面和严格,但它们仍未能捕捉到人类智能的全部多样性。

对于商业领袖而言,这具有重要意义。当前的AI浪潮并不是要全面取代人类智能,而是要理解这些工具可以在哪些方面补充人类的能力——以及在哪些方面无法作为补充。例如,在创意领域,生成式AI尚无法生成比人类专业人士更好的图像或视频。它是一种需要人类监督的“人机协同”工具。

随着AI能力的增长,这种理解变得日益重要。特斯拉(Tesla)的自动驾驶技术展示了其未来前景和风险:尽管它可能在99.9%的时间内表现出色,但人类往往难以辨别99.9%和99.9999%准确率之间的差异。因此,我们可能对其产生一种过度的信任,忽视了小数点后增加几位数对于确保真正安全的重要性。偶尔出现的不可预测的故障会提醒人们,这些系统尚未完全符合人类预期的复杂性和现实世界的不可预测性。

人工智能的局限性

虽然机器在长期记忆和处理速度方面早已超越了人类的能力,现在在其他领域似乎也将超越人类,但相比一些行业领导者的观点,全面复制人类的智能仍然是一个更遥不可及的目标。值得注意的是,大多数AI基准测试将机器性能与人类个体进行比较。然而,人类通常不是孤立的。从建立文明到解码人类基因组,人类最重要的成就都是集体努力和合作的产物。共享知识、团队合作和文化传递的专业知识使我们能够突破个人的局限性。因此,虽然AI模型可能在某些任务上优于人类个体,但它并不能复制一群人共同工作时所产生的那种协同智能。这种由语言、文化和社会互动推动的动态、集体问题解决能力是人类智能的一个关键方面,当前的AI系统并不完全具备这种能力。

理解这种更细微的现实,对于公司高管应用AI至关重要。我们不能局限于AI是否达到了人类智能水平这个二元问题,而是应该专注于理解AI系统在具体维度上的优势和劣势。成功采用AI的关键不是盲目信任或全面怀疑,而是要细致地理解这些系统的能力和局限性。正如我们在不完全理解人类智能的情况下学会了高效利用人类智能一样,我们需要开发与人工智能合作的框架,既承认其非凡的能力,也承认其固有的不可预测性。

这并不意味着要放慢开发AI的速度,其实AI的进开发展令人惊叹,值得庆祝。但随着这些系统变得越来越复杂,且对AGI的辩论仍在继续,我们就需要保持一种平衡的观点,既认识到它们的变革潜力,也认识到它们的基本局限性。AI的未来不是实现完美的理解或控制,而是学会如何与这些系统有效合作,这些系统可能像我们自己的大脑一样,总是保留着某种神秘元素。(财富中文网)

本文作者亚伦·安达尔曼现任Cognitiv的首席科学家兼联合创始人。

Fortune.com上发表的评论文章中表达的观点,仅代表作者本人的观点,不能代表《财富》杂志的观点和立场。

译者:刘进龙

审校:汪皓

萨姆·奥尔特曼最近宣称,OpenAI已经知道如何构建通用人工智能(AGI),这再次引发了有关AI未来的辩论。虽然这些主张频频登上媒体头条,但作为一名研究人脑工作原理超过十年的神经科学家,我发现自己关注的是一个不同的悖论:对现代AI系统最常见的批评之一是我们没有完全理解它们的工作原理,这实际上可能是它们最像人脑的特征之一。

当前的AI热潮导致对AGI有各种模糊的定义。但从神经科学的角度来看待AI,为我们提供了宝贵的机会,对AI的能力和局限性进行有意义的现实检验。

现实是,尽管经过了几个世纪的科学探究,我们仍然没有完全了解人类大脑的工作机制。作为研究人员,我们可以观察到某些神经元执行特定功能,但关于我们的认知过程实际上如何执行,这种知识的解释能力极其有限。然而,这并没有阻止我们成为有生产能力的社会成员或者做出重要的决策。

同样,我们理解AI背后的数学原理,但在相对简单的数学运算和这些系统表现出的非凡智能之间存在着神奇的飞跃。这种生物神经网络和人工神经网络之间的相似性不是缺陷,而是复杂智能系统的标志。

以我和朋友最近使用OpenAI o1(目前最先进的 AI 模型之一)的经历为例。我们向它展示了一个由不同州的车牌拼接而成的视觉谜题,并要求它识别每个字母或数字来自哪个州。经过几分钟的思考,它提供了一段清晰流畅而自信的分析,但结果几乎完全错误。

即使在收到详细反馈之后,它又生成了一个自信但同样错误的答案。这暴露出AI的一个关键局限性:尽管当前的AI在许多领域表现出色,但它可能缺乏自我意识,无法识别它可能出错的情况,而这是人类智能的一个宝贵元素。

商业意义

这揭示了一个关于智能的更广泛的真相:智能不是一种单一的能力,而是一系列专门学习系统的组合。人脑有不同的机制——从语义记忆(如知道2+2=4的事实知识)到回忆个人体验的情景记忆(如记住你第一次学习算术的时刻),以及隐性概率学习(如在不自觉理解原因的情况下提高网球水平)。尽管AI基准测试变得越来越全面和严格,但它们仍未能捕捉到人类智能的全部多样性。

对于商业领袖而言,这具有重要意义。当前的AI浪潮并不是要全面取代人类智能,而是要理解这些工具可以在哪些方面补充人类的能力——以及在哪些方面无法作为补充。例如,在创意领域,生成式AI尚无法生成比人类专业人士更好的图像或视频。它是一种需要人类监督的“人机协同”工具。

随着AI能力的增长,这种理解变得日益重要。特斯拉(Tesla)的自动驾驶技术展示了其未来前景和风险:尽管它可能在99.9%的时间内表现出色,但人类往往难以辨别99.9%和99.9999%准确率之间的差异。因此,我们可能对其产生一种过度的信任,忽视了小数点后增加几位数对于确保真正安全的重要性。偶尔出现的不可预测的故障会提醒人们,这些系统尚未完全符合人类预期的复杂性和现实世界的不可预测性。

人工智能的局限性

虽然机器在长期记忆和处理速度方面早已超越了人类的能力,现在在其他领域似乎也将超越人类,但相比一些行业领导者的观点,全面复制人类的智能仍然是一个更遥不可及的目标。值得注意的是,大多数AI基准测试将机器性能与人类个体进行比较。然而,人类通常不是孤立的。从建立文明到解码人类基因组,人类最重要的成就都是集体努力和合作的产物。共享知识、团队合作和文化传递的专业知识使我们能够突破个人的局限性。因此,虽然AI模型可能在某些任务上优于人类个体,但它并不能复制一群人共同工作时所产生的那种协同智能。这种由语言、文化和社会互动推动的动态、集体问题解决能力是人类智能的一个关键方面,当前的AI系统并不完全具备这种能力。

理解这种更细微的现实,对于公司高管应用AI至关重要。我们不能局限于AI是否达到了人类智能水平这个二元问题,而是应该专注于理解AI系统在具体维度上的优势和劣势。成功采用AI的关键不是盲目信任或全面怀疑,而是要细致地理解这些系统的能力和局限性。正如我们在不完全理解人类智能的情况下学会了高效利用人类智能一样,我们需要开发与人工智能合作的框架,既承认其非凡的能力,也承认其固有的不可预测性。

这并不意味着要放慢开发AI的速度,其实AI的进开发展令人惊叹,值得庆祝。但随着这些系统变得越来越复杂,且对AGI的辩论仍在继续,我们就需要保持一种平衡的观点,既认识到它们的变革潜力,也认识到它们的基本局限性。AI的未来不是实现完美的理解或控制,而是学会如何与这些系统有效合作,这些系统可能像我们自己的大脑一样,总是保留着某种神秘元素。(财富中文网)

本文作者亚伦·安达尔曼现任Cognitiv的首席科学家兼联合创始人。

Fortune.com上发表的评论文章中表达的观点,仅代表作者本人的观点,不能代表《财富》杂志的观点和立场。

译者:刘进龙

审校:汪皓

Sam Altman’s recent declaration that OpenAI now knows how to build artificial general intelligence (AGI) has reignited debates about AI’s future. While such claims generate headlines, as a neuroscientist who spent over a decade studying how the brain works, I find myself focused on a different paradox: One of the most common criticisms of modern AI systems—that we do not fully understand how they work—might actually be one of their most brain-like features.

The current AI hype cycle has led to varied, ambiguous definitions of AGI. But looking at AI through the lens of neuroscience offers a valuable reality check about both its capabilities and limitations.

The reality is that despite centuries of scientific inquiry, we still do not fully understand how the human brain works. As researchers, we can observe that certain neurons perform specific functions, but this knowledge offers limited explanatory power about how our cognitive processes actually function. Yet this has not stopped us from being productive members of society or making important decisions.

Similarly, we understand the mathematics behind AI, but there is a mysterious leap between these relatively simple mathematical operations and the remarkable intelligence these systems display. This parallel between biological and artificial neural networks is not a flaw—it is a signature of complex intelligence systems.

Consider a recent experience my friend and I had with OpenAI o1, one of the most advanced AI models out there. We presented it with a visual puzzle of spliced license plates from different states and asked it to identify the origin state of each individual letter or number. After thinking for several minutes, it provided a beautifully articulated and confident analysis that was nearly completely incorrect.

Even after detailed feedback, it produced another confident, but equally wrong, answer. This reveals one of AI’s crucial limitations: Despite impressive capabilities in many areas, today’s AI can lack the self-awareness to recognize when it might be wrong, which is a valuable element of human intelligence.

Business implications

This points to a broader truth about intelligence: It is not a monolithic capability but rather a tapestry of specialized learning systems. Our brains have distinct mechanisms—from semantic memory for factual knowledge (like knowing that 2+2=4) to episodic memory for recalling personal experiences (like remembering the moment you first learned arithmetic), and implicit probabilistic learning (like improving at tennis without consciously understanding why). While AI benchmarks become increasingly comprehensive and rigorous, they still do not capture this full diversity of human intelligence.

For business leaders, this has important implications. The current wave of AI is not about replacing human intelligence wholesale, but about understanding where these tools can complement human capabilities—and where they cannot. In creative fields, for instance, generative AI is not yet capable of producing better images or videos than human professionals. It is a tool that needs to remain “in the loop” with human oversight.

The stakes of this understanding grow higher as AI capabilities grow. Tesla’s self-driving technology demonstrates both the promise and the peril: While it may perform impressively 99.9% of the time, humans often have difficulty discerning the difference between 99.9% and 99.9999% accuracy. As a result, we risk developing an undue level of trust that overlooks how vital those extra nines are for ensuring true safety. The occasional unpredictable failure thus serves as a stark reminder that these systems are not yet fully aligned with the complexities of human expectations and real-world unpredictability.

AI limitations

While machines surpassed human capabilities in long-term memory and processing speed long ago and now appear poised to exceed us in other domains, replicating the full breadth of human intelligence remains a far more elusive goal than some industry leaders suggest. It is worth noting that most AI benchmarks compare machine performance to individual humans. Yet humans do not generally operate in isolation. Our species’ most significant achievements—from building civilizations to decoding the human genome—are products of collective effort and collaboration. Shared knowledge, teamwork, and culturally transmitted expertise allow us to transcend our individual limitations. So while an AI model might outperform a lone human on certain tasks, it does not replicate the kind of collaborative intelligence that emerges when groups of people work together. This capacity for dynamic, collective problem-solving—fueled by language, culture, and social interaction—is a key aspect of human intelligence that current AI systems do not fully capture.

Understanding this more nuanced reality is crucial for executives navigating the AI landscape—we need to move beyond the binary question of whether AI has reached human-level intelligence and instead focus on understanding the specific dimensions along which AI systems excel or fall short. The key to successful AI implementation is not blind trust or wholesale skepticism, but rather a nuanced understanding of these systems’ capabilities and limitations. Just as we have learned to work productively with human intelligence despite not fully understanding it, we need to develop frameworks for working with artificial intelligence that acknowledge both its remarkable capabilities and its inherent unpredictability.

This does not mean slowing down AI development—the progress is indeed amazing and should be celebrated. But as these systems become more sophisticated and as debates about AGI continue, we need to maintain a balanced perspective that recognizes both their transformative potential and their fundamental limitations. The future of AI is not about achieving perfect understanding or control, but about learning to work effectively with systems that, like our own brains, may always retain an element of mystery.

Aaron Andalman is the chief science officer and a cofounder at Cognitiv.

The opinions expressed in Fortune.com commentary pieces are solely the views of their authors and do not necessarily reflect the opinions and beliefs of Fortune.

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开