三年前的一幕让人印象深刻。
当时,商汤科技联合创始人、CEO徐立坐在我对面。说到兴奋处,他在桌子上凭空画了一条线。“你瞧,这一条线是科技的发展。”然后他立刻反问:“我们如何去定义一个时代?”
大约在2秒钟后,他自己开始解释:“如果去查时代这个词的定义,都说是以政治、经济、文化等为依据而划分的某个时期。但事实上,铁器时代、蒸汽时代、电气时代、甚至信息时代,我们所熟悉的所有时代的命名都与政治、经济、文化无关。只跟科技有关。”
接着,他又凭空画了一条线。“这一条线是工业发展。”他说:“科技和工业发展始终并行。但什么时候这两条线产生交集?”
徐立提出一个概念:“工业红线”。在人工智能诞生的60年里,AI技术很难跨越这条工业红线,即没有实质上提高生产效率。他的观点是,工业发展往往是跨越式的,而那个跳跃的节点往往就是技术突破了“工业红线”,即规模化工业使用的标准。
三年过后,商汤继续在人工智能的道路上高歌猛进。在刚过去的2021世界人工智能大会上,商汤推出了可以奔向“元宇宙”,实现虚实结合全新交互体验的基础设施SenseCore商汤AI大装置;商汤车载业务亦在5年多的行业全栈能力积累上,推出智能汽车解决方案的独立新品牌SenseAuto绝影。
松禾资本创始人厉伟曾表示,商汤创立之初,AI还不是一个受人关注的领域,但短短数年,人工智能对各个行业的改变已全面铺开。
然而,从零到一的突破从来都伴随巨大挑战。在可以看到的有关技术突破、商业落地等表层问题之外,对于人工智能最深层次的担忧来自于伦理的怀疑。苹果CEO库克在麻省理工学院毕业典礼上说:“我不担心人工智能像人类一样思考问题,我担心的是人类像计算机一样思考问题——摒弃同情心和价值观并且不计后果。”
一些发人深省的问题正在发生。我们是否到达了一个探讨人工智能伦理的时刻?如果已经该讨论这个问题,那么这些伦理的原则和基础都是什么?徐立有一套自己的思考方法。
《财富》(中文版):三年之前有一次交流,当时你说人工智能超过了一条工业红线就将迎来爆发式的增长。你觉得现在人工智能超越了那条工业红线吗?
徐立:我们其实获益于两波人工智能发展的红利。第一波就是你刚才提到的,五年前技术突破第一次证明了AI能够在一些领域超过“工业红线”,通常可以认为是超越了人的准确率。但彼时我们也面临另外一个困境,就是当技术逐步深入行业,会发现人工智能本身生产的成本非常高。
举一个简单的例子,如果我们把“下围棋”假设为一个生产过程。我们可以认为阿尔法狗(AlphaGo)超越了工业红线,即人的水平。但如果投入阿尔法狗的目的仅是让他以下棋为主业,那它的投入可能要比中国现役近三百名职业棋手投入总和都高。所以第一波红利通常带来的只是在某些特定行业率先采用了AI技术。大规模的应用还有赖于降低AI本身的生产成本。
人工智能发展的第二个红利,就是随着底层AI基础设施的不断投入,神经网络技术训练通用模型的能力正在逐步突破。目前,自动化、规模化、集约化的AI模型量产正在逐步实现。
商汤在创立之初,就开始投入并训练通用的大模型。简单来说,通用大模型具备触类旁通的能力,在建立通用的能力之后,在不同行业领域的细分场景中,只需依靠小样本,就能迭代出优质的模型算法,真正突破人力密集型的投入,实现对长尾应用需求的满足。这就像类比于人的能力,人的感知和认知能力是很通用的,对于一些新问题的理解我们只需要小数据就可以了。
《财富》(中文版):前一段我看你参加了一个公开的活动,你说真正的颠覆式创新都不是从传统创新范式中来,是从天才灵光一现的脑洞或思想实验而来,你相信天才的灵光闪现是偶然还是必然?
徐立:首先人类历史上很多颠覆性的科学创新和重大突破,都是通过人类非常偶然的发现,或是偶然的思想实验来完成,多源于“天才的猜想”,这种完成不可预测。
那么背后的原因是什么呢?
重大创新都是反共识的,只要是反共识的就不可能规划,所以没法用范式来规范。人类不可能用固定的方法论去规划一个普罗大众没有共识性的东西,并预测未来的发生。造成这种现象的原因,在于人类对未知世界的认知有局限性。
但在今天的人工智能时代,机器也可以进行猜想,不依赖于人类的认知,有望帮助我们更早地发现科学规律的本质,更快地探索和发现未知,这正是人工智能所带来的创新新范式。
我上次提到,假设机器能够猜想出来牛顿定律,人类会不会用这个定律?这是我们面临的一个问题。当然人类鉴别机器有效的猜想本身就是一个很难的题目。
我读过一本大刘(刘慈欣)的小说,很强的智能体想要了解人类写诗这件事情。最后发现即使能够穷尽所有的诗的可能,仍无法得知哪一首诗是好的,所以在不能完全理解的情况下鉴别机器猜想的优劣在这个情境下也充满挑战。
《财富》(中文版):我的理解这是智能与智慧的真正区别。
徐立:比如我们对于一些未来的可能性和技术突破会有很多的机器的猜想,这些猜想有一些是可以在未来极大推动技术进步的,但是有一些不行。那么究竟如何去甄别这些猜想的有效性、可靠度,会是留给未来的问题。
《财富》(中文版):那么我们今天这个主题是探讨未来人工智能的下一步,在未来可见的范围内,你觉得人工智能的下一步是什么?
徐立:刚才也讲到近年来人工智能的两大红利,也正是在这样的认知下,商汤累计近百亿投入,建设了人工智能算法规模化生产所必备的AI基础设施,我们称之为人工智能大装置。
给它起名大装置的原因是类比物理的粒子对撞机,就是希望寓意人工智能助力一种创新范式的转换,通过“人工智能的粒子对撞机”,对海量数据甚至是构建的巨大解空间进行拆解和碰撞,用一定的随机性来打破人类认知和应用的边界。
我认为一些行业如果未知领域较多,比如地球科学、生命科学、制药学、大气科学的探究等,这些领域机器猜想或许会给我们一些意想不到的惊喜。
《财富》(中文版):这个随机的实验是不是就是你刚才说的偶然性的问题?
徐立:举一个例子,最近我们看到人工智能在蛋白质结构解析方面有很多突破。人类要完成这样的工作可能需要很长时间,但机器就可以在很短的时间之内做到。
现在的假设是氨基酸的序列是决定蛋白质结构的唯一因素。但接下来我们还可以做很多类似于粒子对撞机的随机撞击实验。比如将更多的输入因素放入实验,看看有没有提升预测的结果。而预测变得更准确时,我们又可以借助于这样的结果来重新理解决定蛋白质结构的核心要素。这就是通过随机的撞击来加速科学研究了。研发的结果会加速生物制药以及其他科学的进展。
当然,有时候相关的突破或许在当下这个时代没有办法解释,可能需要等到机器猜出牛顿定律的一百年之后出现一个“牛顿”来真正解释这背后的原因。
《财富》(中文版):这些也是商汤科技在做的吗?比如说你刚才说的蛋白质的组合。
徐立:商汤AI大装置提供了一个底层的能力平台。正如前面所提,正如粒子对撞机。在这个拥有一定随机性的过程中,可探索的空间非常大。对于基础设施,特别是算力的需求,其实是指数级增长。有数据显示,在过去的十年之内,最好的人工智能算法对于算力需求的增长超过了100万倍。
这和很多人的认知都相反,大家都觉得算法越精妙应该算的越少,其实并不是。算法越好反而算的越多,它其实是在验证不同的可能性以及探究应用的边界。
《财富》(中文版):就是你刚才说的反共识。
徐立:对,反共识。
《财富》(中文版):如果我们再拉近一点,元宇宙可能是最近一年科技圈最火的一个话题,人工智能在元宇宙里面扮演了什么样的角色?你怎么理解元宇宙?
徐立:我觉得元宇宙一直存在于各种我们日常的应用中,包括说我们原来说的游戏,其实都是元宇宙的某种形式。
但是最近元宇宙很火爆的核心原因,其实和人工智能被大家关注的原因一样,因为它正逐渐接近于真实的世界。
如果虚拟世界非常不真实,就像你每天玩游戏,玩的内容和现实世界完全没有连接,你不会觉得它是一个宇宙。只有当他更像真实世界,当真实世界所有东西都能够被反映和连接到元宇宙当中,并能够因此产生交互,你会觉得它给了我第二种可能性,从而带来了第二、第三甚至更多的宇宙。
在这个过程当中,人工智能扮演的角色就是连接真实世界和虚拟世界,让用户在不同的宇宙中生活。在真实世界中每个人有自己的身份,而在虚拟世界,你亦可以通过另外的角色完成与周围环境的实时互动。
《财富》(中文版):真实和虚拟世界之间的转换是可以通过算力来完成的吗?
徐立:是的。算力可以帮助将真实世界投射到虚拟世界中。通常第一步是把相关信息采集下来,并没有真正语义上的东西,仅完成了所谓的空间数据化。但是通过AI与算力的突破,每一件东西正逐步被赋予人类能理解的含义,不仅是空间数据化,还有要素结构化、流程交互化,进而对应到虚拟世界当中。让人们不仅可以访问、还可以使用、修改真实世界相关的内容甚至进行互动。
所以有关真正的元宇宙,我的理解是人们可以在其中对真实世界进行交互,并且也可以将虚拟世界中的种种体验投射到现实世界中。否则它的意义只是一个游戏,或者说只是一个APP。
《财富》(中文版):那么如果再上升一步,首先我先想跟你探讨一个假设和前提,你觉得我们现在是不是到了应该探讨人工智能伦理问题的时刻?这个话题首先你同意这个假设吗?
徐立:我觉得非常值得去探讨。人工智能的创新来源于对过往认知的颠覆,因此行业应用中的伦理治理问题就愈发重要。同时,科学发展的路径之一是演绎,即给一个基点,不停的推到边界。既然今天对这个伦理治理上有一些核心原则的话,我们完全可以通过原则往前演进,去探索一下我们伦理和机器可触达的边界是什么。
《财富》(中文版):你刚才说到了原则,这个原则如果给人工智能来制定的话你会如何制定?
徐立:对于世界范围内人工智能伦理治理的框架,商汤曾做过一个比较全面的研究。
我们发现大部分的伦理治理框架都可以被归类为三大类:一类就是以人为本,无论是人的公平性、身份性问题、尊严性问题或者是确认主权问题,数据安全问题等,都属于以人为本的范畴;第二类叫技术可控,包含透明计算、可解释性、技术安全的边界等;第三点就是可持续发展,寻求绿色的,长期的发展。
我认为未来的人工智能伦理治理其实就是在这三大支柱当中求得平衡。
当然,我们一直强调的是要秉承“发展”的人工智能伦理观。最容易满足所有治理框架要求的,就是什么都不去突破,但这样大家就会忘了我们最初出发目标是什么,我们的初心就是用人工智能去推动社会的发展,这是目标。以数学优化来举例,我们的优化函数是人工智能推动社会的进步,下面有三个约束条件需要满足。但是很多时候,如果我们只谈约束条件,而忽略了优化函数的目标,那么这个优化是不成功的。
《财富》(中文版):如果这么来说,你觉得人工智能会更加剧人和人之间的不平等还是平等?这个美好世界的定义在哪儿?人工智能如何达到这个所谓的美好世界?
徐立:谈人工智能的公平性基本是谈论数据样本的偏差可能带来人工智能算法的偏差,这个随着技术演进都能得到改善。而我认为更大层面上的公平来自可能的少数人能获益于人工智能带来的便利,这将会带来不平等。
而我的理解,人工智能作为一个通用技术从量变到质变的核心要素,是其能否真正降低其生产要素的成本。如果说某项技术特别高精尖,需要非常高成本投入才能完成的话,那必然是少数人、头部企业、头部场景才能够使用到这样的技术,那么势必带来不平等。
回看历史,无论是铁器时代、蒸汽时代、电气时代、甚至信息时代,所有的时代都是以技术命名的。而命名这个时代的技术有一个很核心的共同点,就是他们都大幅度降低了当时生产要素的价格,从而显著提高了生产效率。
人工智能技术如果要带来普适、普惠、公平,那一定是它将我们时代的生产要素的成本成百倍下降,例如真正意义上使得原本我们获取不到的教育资源、医疗资源等,更好、更廉价、更公平地开放给全社会。(财富中文网)