最近美国社交媒体上一个持续发酵的话题是:AI因为太讲政治正确而翻车了。
事情是这样的:有人请谷歌的AI大模型Gemini作一幅“美国开国元勋”的肖像画,Gemini给出了四幅图,包括一位佩戴传统头饰的美洲原住民男子、一位黑人男子、一位肤色较深的非白人男子以及一位亚裔男子。
而我们都知道,从华盛顿到杰斐逊,一众美国开国元勋,全是白人。事实上,他们中的不少人当时还在自家庄园中蓄着黑奴,这在后世被视作他们政治生涯的污点。
这些图被分享到社交媒体后引发哗然,马斯克等一众意见领袖炮轰这是“反文明”、“疯狂的种族主义”。当然,这里的种族主义,指的是对白种人的反向歧视。
这又引发了一波仿效行动:网友们请Gemini生成各种人像图,结果发现它就像被施了魔咒,就是不大情愿画出白人形象。风暴愈演愈烈,谷歌公开道歉,并暂停了Gemini的人像作图功能。
这场风波,看似大模型犯的低级错误,实际上却可能源于人类的弄巧成拙。有技术专家分析,谷歌很可能是在“幕后”向用户的提示语中添加了更能体现种族多样性的关键词,比如把用户输入的“一位厨师的肖像”的提示语,调整成了“一位土著厨师的肖像”。
这样的干预,显然是为了纠正令人担心的“算法歧视”现象。
过去几十年间用于机器训练的数据中,白人的、男性的数据远比其他肤色的、女性的更丰富,导致机器在人脸识别时普遍“偏爱”白人中年男性。比如,早在2015年,谷歌就因其照片应用程序将两位黑人的照片标记为“大猩猩”而道歉。直到最近,一项调查发现,美国开发的算法对亚裔和非洲裔的人脸识别错误率要比对白人的高10倍以上;而亚洲开发的算法中,对白人和亚洲人的识别错误率差距较小。
再比如,亚马逊曾经试图开发一种自动化招聘系统,利用机器学习来分析求职者的简历并为他们打分。实践一年后,工程师们发现,这套算法“不喜欢女性”,因为基于数据,它得出了“男性更可靠”的观点,降低了女性简历的权重。
也就是说,假如放任不管,算法将加剧人类社会中的偏见和不平等。但是,人类若要干预,应该干预到什么程度?依据什么准则?
美国国父是真实存在过的人物,因此算法可以根据历史常识来减少错误。甚至有技术专家观察到,对于这类问题,人类越少干预,大模型越能产生更准确或更接近真相的结果。
但对于那些没有正确答案、需要体现某种价值判断的问题,算法处理起来就棘手得多。比如,算法完全可以根据俄乌两国的人口、经济、军力、地缘格局,精准高效地算出哪国更有可能在战争中获胜,但至于这场战争该不该发生,它必定给不出答案。AI代表了人类工具理性的新高峰,但问题一旦关涉价值理性和道德判断,就超出了它的能力范围。
那么我们是否可以为AI划出一个让它扬长避短的工作范围?简单说,由人类决定一件事情要不要做、怎么做之后,让AI帮忙,把这件事最高效地做成。
但这种想法将技术视作完全中性的工具,忽视了一点,那就是技术反过来会影响人,人无时无刻不受到技术的调节和改造。
美国技术哲学家唐·伊德(Don Ihde)举过伊甸园的例子:伊甸园中的人最初是赤身裸体的,用知觉直接感受这个世界,偷吃了智慧树上的果实后,人突然有了羞耻心,用无花果树的叶子做成衣服。于是,衣服成了人类历史上第一件技术制品,它的出现,加上后来出现的眼镜、汽车、手机等技术工具,完全重构了我们感知和理解世界的方式。
一个更现代的例子,是准妈妈在孕期的超声波检查。通过这项技术,一对夫妇能探查婴儿是否健康,如果有畸形,可能选择放弃分娩。因此,生不生孩子这样重大的道德决策,实际上是人和技术共同完成的。
最前沿的机器学习中,甚至已经开始嵌入道德取舍。比如,自动驾驶技术不仅要让机器学会转动车轮的角度、油门刹车的力度,还要学习在即将发生碰撞,不得不选择牺牲一方、保全另一方的紧急状况下,如何做出抉择。麻省理工学院的认知科学家伊亚德·拉万(Iyad Rahwan)就说过,每次自动驾驶汽车做出避让动作时,它已经“暗中决定了不同群体的危险程度”。
因此,技术哲学家主张,技术已经不再是一个中立的工具,人与技术的关系严格来说是一种交互关系,甚至可以说是交往关系。既然技术可以反过来影响人,我们就可以将伦理价值嵌入到技术中,使用技术来促使人按照道德规范来行动。
这么看来,Gemini“不愿画白人”风波,有它的积极意义。它说明算法工程师们意识到了数据内含的歧视与不公,并展开了积极行动;它矫枉过正引发的讨论,进一步提升了全社会的警觉,起码让我们不会在无意识中,任由技术进一步放大这种不公。
AI已不仅是执行命令的工具,它就是一面人类审视自我的“镜子”,倒映出了人类自己的价值观和道德标准。而且,它在某种程度上已经开始反过来塑造我们新的道德认知。
那么如何设计AI,才能使其成为促进社会正义和道德进步的积极力量?这不仅是工程师的责任,也是全社会共同面临的课题。伴随着这个问题,人类与技术的关系将进入一个新纪元。(财富中文网)