人工智能的隐性偏见可能会影响你的想法。应该如何阻止它?
插图来源:KAROL GADZALA
在不到两年的时间里,人工智能从根本上改变了许多人写作和查找信息的方式。在搜索美国最高法院(Supreme Court)判例的细节或者修改大学论文时,数百万人会向人工智能聊天机器人寻求帮助,例如OpenAI的ChatGPT或者Anthropic的Claude。
《财富》杂志的人工智能编辑杰里米·卡恩(Jeremy Kahn)在近期出版的《掌握人工智能:超能力未来的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一书中,探讨了这一全新的科技现实,以及应该采取哪些措施来躲避不可避免的陷阱。在下面的节选里,他重点讨论了人工智能中鲜为人知的微妙偏见问题,以及它可能对用户的看法产生的深远影响。
特里斯坦·哈里斯(Tristan Harris)是人道技术中心(Center for Humane Technology)的联合创始人及执行董事,被称为“硅谷最接近良心的存在”。2015年,他曾经是谷歌(Google)的一位设计伦理学家,就公司项目的道德影响发表看法。在2019年的美国国会听证会上,哈里斯表示,对科技公司而言,最重要的货币是人们的注意力。他说,在试图垄断用户注意力市场的过程里,科技公司正在进行一场“争夺脑干底层的竞赛”,旨在不断刺激我们的杏仁核,即大脑中处理恐惧和焦虑等情绪的部分。这种对神经系统的操纵导致人们依赖社交媒体应用程序,甚至上瘾。他还指出,通过影响我们对所做、所买和所言的思考,科技正在削弱我们自由做出决定的能力。个性化的人工智能助手将使这些问题变得更为糟糕,把我们包裹在终极过滤气泡里,控制着我们生活中的无数决定。要防止这种情况发生,就需要制造人工智能产品的公司在政府监管的推动下采取一致行动。
大多数的科技公司将聊天机器人训练成随和、不评判、“乐于助人”的助手。问题是,有时“乐于助人”往往是假象。为了表现出同理心,聊天机器人最终可能会证实错误或者有偏见的想法。友谊和赋能之间只有一线之隔。大多数最著名的人工智能聊天机器人,比如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,都会在用户似乎赞同某个众所周知的阴谋论[例如新冠疫苗导致自闭症或者“匿名者Q”组织(QAnon)阴谋]时提出质疑。但在许多有争议的话题上,比如巴以问题,或者人们是否应该庆祝哥伦布日(Columbus Day),机器人倾向于用诸如“这是一个复杂且棘手的话题,双方争执不下”之类的某种变体来作出回应。
一些右倾政客和技术专家指责由领先的科技公司设计的人工智能系统“意识觉醒”,并主张创建具有明确“政治个性”的人工智能模型,以便用户可以选择与支持其观点的聊天机器人互动。特斯拉(Tesla)的创始人埃隆·马斯克(Elon Musk)承诺,他的xAI研究实验室将开发出反意识觉醒的人工智能。该实验室已经开发出一款基于大型语言模型的聊天机器人Grok。这样的事态发展无疑会进一步激化文化战争,让人们没有理由寄希望于人工智能会采取任何措施来对抗过滤气泡。
然而,聊天机器人的影响可能比这要微妙得多:康奈尔大学(Cornell University)的研究人员发现,使用具有特定隐藏观点的人工智能助手来帮助撰写支持或者反对特定立场的文章,人工智能助手会巧妙地把用户本身对该话题的看法转向带有偏见的方向。该研究的高级研究员莫尔·纳曼(Mor Naaman)将这种现象称为“潜在说服”,并表示“你甚至可能不知道自己受到了影响。”在大量历史数据的训练下,许多大型语言模型都隐藏着种族或者性别偏见,这些偏见可能会对用户的观点造成微妙的影响——例如,医生的人工智能助手误认为黑人的皮肤比白人的皮肤更厚,或者疼痛阈值更高。
对抗这种隐性偏见的唯一方法,就是强制要求科技公司披露更多有关人工智能模型训练方式的信息,并且允许进行独立审计和测试。我们还必须坚持要求科技公司公开人工智能助手背后的商业动机。美国联邦贸易委员会(Federal Trade Commission)和其他的监管机构应该取缔那些鼓励科技公司让聊天机器人推荐特定产品、为特定网站引流或者支持特定观点的收费服务安排。我们应该鼓励订阅等商业模式,在这种模式下,聊天机器人公司在满足用户需求(而不是广告商需求)方面没有利益冲突。当你需要一双新跑鞋,并且要求人工智能个人助手研究各种选择,为你买一双最适合的鞋子时,你希望它订购最符合需求的鞋子,而不是那些向聊天机器人公司支付最多费用、引导你消费的品牌的鞋子。
诚然,只告诉你想听的话的聊天机器人会强化过滤气泡。然而,从社会层面来说,我们能够强制规定,把人工智能系统设计为专门破除这些泡沫,向人们询问是否考虑过其他观点,并且着重突显其他视角。IBM开发了一个名为“辩论家项目”(Project Debater)的人工智能产品,它可以在一系列话题上与人类辩论冠军一较高下,并且提供支持双方论点的证据。监管机构能够规定,人工智能聊天机器人不可以过于中立,以至于无法质疑错误的观点。为了打破现有的过滤气泡,我们甚至能够要求聊天机器人提供其他的观点和证据。
归根结底,问题在于,我们希望继续让渡多少权力给少数的几家大型科技公司?这最终关系到我们的个人自主权、心理健康和社会凝聚力。
译者:Zhy