首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

“加速派”赢了之后,如何确保AI“爱对齐”?

王昉
2023-12-21

《财富》MPW峰会聚焦负责任AI

文本设置
小号
默认
大号
Plus(0条)

OpenAI董事会之争似已告一段落,但它预示着,AI技术带给人类社会的冲击以及人类围绕它的思辨,才刚刚开始。

这场争议被总结为“加速派”与“对齐派”之争。前者认为应当加速AI研发及应用,让它尽快造福人类,在发展中解决可能出现的问题;后者则认为应当谨慎行事,先要确保AI“对齐”人类利益,并为之设置足够护栏后,再推进技术进步。两派意见都有着大量拥趸。

一位接近OpenAI的知情者引述一位前董事会成员说:“我们每向人工智能靠近一步,每个人都会承受十分的精神错乱”——那些站在AI技术最前沿、有可能在可见的未来为通用人工智能(AGI)“接生”的技术公司决策者们肩负的巨大责任,从这句话中可窥一斑。

这些技术人今天所做的思考与决策,将决定未来人类与AI的共处方式。

在近日于上海举办的2023年《财富》MPW女性峰会上,三位来自技术企业的女性高管以及一位女性技术学者同台,围绕AI路线之争、如何构建负责任的AI、女性在AI研发中的作用等议题分享了思考与实践。以下为编辑后的对话实录:

2023年12月8日,2023年《财富》MPW女性峰会。从左至右分别为:《财富》上海执行主编王昉;IBM中国系统开发中心首席技术官孟繁晶;ZTE中兴通讯股份有限公司首席发展官崔丽;清华大学中国科技政策研究中心研究员、科技史作家董洁林;南京硅基智能科技有限公司高级副总裁、联合创始人陈莉萍。

王昉:我想从最近大热的电影《奥本海默》谈起。奥本海默是个天才物理学家,发明了核弹,但后来悲哀地发现核弹可以被用来毁灭人类。很多人认为,在这一点上,AI 与核技术高度类似。请问董老师,您同意吗?

董洁林:AI和核技术完全不同。核技术的边界非常清晰,它对人类的好处和坏处,大家也都理解得很明白。另外它的制造门槛非常高。各个国家一旦认识到它的负面破坏力,可以用政策和手段来控制它的扩散。

但是AI不一样,它带来的善和恶是混搭的。研发大模型的技术门槛比较高一点,但没有那么高,应用这个技术的门槛则比较低,所以它非常容易扩散。现在的开源模式下,它已经扩散得到处都是了。在这个情况下,AI在未来行善作恶的可能性,让很多人充满期待的同时,让另一些人忧心忡忡。所以AI与核是非常不同的两类科技。

王昉:在OpenAI之争中,代表“对齐派”的OpenAI首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)打过一个让我印象深刻的比方。他说,未来AI将会监管人类,那时的AI对于人类,就像今天的人类对宠物一样,人类并不憎恨宠物,但是当人类决定在城市与城市之间修建高速公路的时候,也不会向宠物们征求意见;当未来的AI可以自行其是的时候,也不会来向人类征求意见。我们该怎么看这个比喻?

董洁林:AI与人的关系,和人与宠物的关系还是非常不一样的,因为宠物不是人创造的,而AI是人创造的。宠物顶多是在跟人互动的过程中形成了某一种关系,这个关系一直在演化。但AI是人创造的,在创造的过程中,我们有主动权来决定它能做什么、不能做什么。即使将来有一天它有了某种“自主性”,人类依然可以为它设置负面清单,使得它在做“决策”时无法做一些事情,必须人来做。所以这个事情还是可控的,没有必要自己吓自己。

王昉:伊利亚认为,AGI,也就是通用人工智能技术,一旦问世,将不断进化。如果它诞生之初的代码没写对,它将在歧路上越走越远。那么,我们现在怎么才能把代码“写对”?

崔丽:首先,大模型或生成式AI还处于技术发展初期,技术、生态、市场都在快速迭代之中,因此,仅凭预判和思考来提前解决未来可能出现的问题是非常困难的。所以我主张在发展中去发现问题,解决问题,去摸着石头过河。

其次,技术没有善恶,善恶在人。AI的本质依然是硅基、无机、数学范畴。而人类则是碳基、有机生物,除了自然科学还有社会科学,人类的认知、决策和行为都有深刻的文化、历史、价值观等背景。AI甚至不理解什么叫“责任”,更谈不上“负责”,因此,应当是由人类去负责任地构建、使用和监管AI。

目前产业界已经为AI设定了一个3H的理想目标:Helpful,即帮助使用者解决他们的问题;Honest即不捏造资讯或误导使用者;Harmless即不能对人或环境造成物理、心理、社会危害,与人类价值观对齐。

然而这些原则非常宽泛,我们需要更具体地考虑诸如幻觉(hallucination)、黑盒带来的不可解释性和不可控性,隐私、偏见、滥用和资源消耗等等问题。为应对这些挑战,我们需要在四大方面去努力,依次是安全、公平、透明和高效。

此外,还需结合应用场景来考虑问题,比如面向大规模公众的应用,要更多关注安全和公平,而面向特定领域的应用则需要同时关注准确、安全、透明和高效。比如说,如果AI给出的答案用在创意领域,那没太大关系,但是如果用在专业领域,比如医疗或电信行业,我们当然不希望它一拍脑袋整个网络就宕机了。

王昉:幻觉(hallucination)是生成式AI目前存在的比较突出的问题。我们应当如何更好地训练AI?

崔丽:一是“换位思考,因材施教”,比如将我们虚拟的概念或对齐要求,转化成AI的语境,压缩空间或联合概率,彻底回归到对它更有效的工作方式上,因材施教,提高输出更准确内容的概率。二是原型知识萃取,加强数据治理,比如在给予虚拟概念时需要谨慎,同时常识或原型类知识优先级应该提升,而不是完全平等地考虑精调。最后是“用魔法打败魔法”,我们可以采用Agent或多个优秀大模型联合决策,对各自形成制衡。合理的组织设计可以减少犯错的次数。

王昉:OpenAI战火告一段落之后,《纽约时报》发布了一篇文章,标题是“AI belongs to the capitalists now”,意思就是资本主义又一次获得了胜利。资本总是胜利吗?IBM也做很多与AI相关的研发,内部是如何思考AI发展方向的?

孟繁晶:IBM一直是AI技术的创造者和推动者,在我们看来,AI一定是要负责任的。我们最近与Meta以及50多家机构、大学、开源社区一起,构建了一个AI Alliance,承诺把所有的技术开放出去,让大家一起来避免出现一些负面的仇恨,或者对人类的威胁。

我认为,负责任AI有两个层面的含义。一是,如何负责任地研发AI技术?在IBM,我们开发了一个叫“watsonx”的平台,提供全生命周期的AI训练、验证以及部署,既监管数据——数据里如果就有偏见,就有仇恨,最后的模型一定会学到,又监管整个AI的模型——在运行过程当中,模型有没有出现偏移和仇恨?

负责任AI的另一层含义是,AI可以对我们的可持续发展作出巨大贡献。举个简单的例子,IBM和很多机构合作,尝试用AI来解决人口拐卖这个社会问题。人口拐卖80%的受害者是女性和儿童,为什么这个行业一直都存在?因为高暴利,利润高达1500亿美金,跟毒品、走私一样。我们可以把跟人口拐卖相关的各个利益链条上的所有数据,包含交通数据、卫星数据、银行间的转账数据,融合在一起后交给AI模型,就可以在交易发生的过程中甚至之前就发现风险,预防拐卖行为的发生。

王昉:围绕AI研发是尽量加速还是步伐慢一点,IBM内部有没有过争论?

孟繁晶:不仅是争论,IBM已经付诸行动。我们内部有一个AI伦理委员会,审查相关所有工作,我们决定做审慎的AI技术,也就是有所为有所不为。一个典型例子是,IBM做了一个决定,虽然人脸识别技术可以解决很多问题,但是因为我们没有办法确信它将只被用在向善的方面,所以我们放弃了人脸识别相关的所有研究工作。

王昉:来自南京的硅基智能站在AI应用的前沿,已经为全世界50万人他们制作了数字分身。你们是坚定的“加速派”?

陈莉萍:对,我们是科技加速派。只需看看,过去300多年的技术发展,并没有给人类造成非常大的冲击,而是给人类带来了很多的便利性。当然每个技术在初期会带来一些风险,比如汽车发明的时候会代替马车,但是也会发生交通事故。现在的新能源车也可能会引起火灾,但是大家还是会选择它,这是一个进化的方向。所以我们认为,发展中遇到的问题,一定是由发展来解决,也一定能够解决。

硅基智能是2017年成立的,那时大家对“硅基”两个字还比较陌生。我们认为AI基于硅基,是一种生命体,我们就是一家在实验室里造生命体的公司。我们的愿景是2025年为全球创造1亿硅基劳动力,为各行各业服务。

比如我们会生产数字老师,让成千上万的孩子拥有家庭教师的陪伴;我们可以生产数字医生,让更多的患者拥有医疗顾问,随时了解自己的医疗方案;我们也去做很多的数字律师,让更多人获取法律援助。我们认为这就是一种科技向善。

我们如何让AI负责任?首先,在大模型的训练过程中,我们遵循了阿希莫夫的“机器人三定律”:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。其次,在大模型的训练过程当中,我们增加了一个训练,叫“人类反馈强化学习”,通过人为标注,告诉它人类更喜欢哪些结果,这样训练出来的模型就更偏向于人类的价值观和选择偏好。

崔丽:对于如何让AI更负责,我补充一些看法。在立法及监管侧,我们可以强制要求对AI生成的内容做标识,同时应区别对待客观问题——比如幻觉、黑盒,和主观问题——包括隐私、IPR、滥用等。法规也要与时俱进,加强对偏主观问题的约束,而对于偏客观问题,应该给予一定的容错空间,以促进创新。此外,我们可以尝试将现有的大模型纳入立法建设中,尊重大模型的知识来赋能现有的监管体系。最后,我们普通人作为AI技术的使用者,不应该过度依赖AI,要保持独立思考和批判性思维。

王昉:虽然 OpenAI事件中,出现了一位短暂出任CEO的女性,但AI竞技场中的前台活跃人物,包括马斯克、扎克伯格、奥特曼,绝大多数还是男性。在AI技术的发展中,女性缺失会带来什么样的问题?

董洁林:女性缺失会造成很严重的女性歧视,女性现在马上应该做的就是参与。从学生时代开始,女生要大量进入理工科领域,进入计算机和与AI相关的行业,不参与就会受到歧视。等到歧视已经发生,再呼吁平权就太晚了。

实际上女性参与的主要障碍是我们自己,大学理工科一般并不歧视女生,但是女性自己选择不参与,可能因为缺乏兴趣,可能因为其他原因,这导致技术公司中女性程序员比较少,产品经理人也比较少,高管也比较少,董事会成员也比较少。女性要把自己的障碍去掉,从做学生开始参与到AI大潮中,我相信这样做的社会回报和个人经济回报都会是非常高的。

孟繁晶:呼应一下董老师的观点。IBM从2019年开始做 “千人百校AI启蒙季”,面对中小学生推开,要在他们心中种一个小种子。IBM中研发体系中,女性占50%,所以在技术研发那一刻起,男女生已经在一起了。

王昉:请问硅基智能的莉萍,找你们做数字人分身的,是女性多还是男性多?

陈莉萍:很多女性已经参与到这个行业里面来,用自己的数字分身做知识博主、做直播。数字世界特别适合展现美的文化,而女性更容易展示自己的美,所以她们更有优势利用数字化的平台展示自己,甚至不一定要掌握很多技术的女性都很容易在这个平台上找到自己的定位。

王昉:AI时代,女性管理者是否更有优势?

崔丽:在这个事情上,男人女人是共同体,大家应该把自己的优势贡献出来。女性的优势是非常敏感,可以获取多元的知识,本能意识到危机;容易有直觉,且往往是基于常识的判断;而且女性通常更包容及有同理心。如果能够有效的将这些特点与男性的优势相结合,可以共同推动AI向更好的方向发展。(财富中文网)

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开