13位OpenAI、Google 员工发布公开信
东木
OpenAI 近期可谓风波不断。多位重要人员离职,如丹尼尔因拒绝签署包含不贬损条款的文件而失去股权,这显示出公司在某些规定上的强硬以及与员工之间的矛盾。他曾希望公司在 AI 安全研究方面加大投入却未得到回应,这反映出公司在发展方向上可能存在一定的偏差。这些都可做为此次13位联名公开信的背景。无论公开信背后的原因有多少,但对AI安全这一点,还是再一次引发社会关注。
其实关于AI安全性的讨论,从AI研究开始就一直没间断。去年10月下旬,图灵奖得主、“人工智能三巨头”等学者爆发了一场关于人工智能管控的激烈争论,24名中外人工智能科学家签署一份声明,呼吁对人工智能技术实施更严格的控制。关于AI安全问题也是多次发生知名人士的联名信,包括“ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署的联名公开信,表达对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 • 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,而且联名的知名人士已经超过千人。
各国政府和相关组织也不断采取行动,应对AI安全。去年7月13日,国家网信办联合国家有关部门公布《生成式人工智能服务管理暂行办法》,10月18日,发布《全球人工智能治理倡议》;10月30日,美国总统拜登正式发布《安全、可靠及可信赖的人工智能》行政命令;当日,七国集团(G7)发布《开发先进人工智能系统组织的国际行为准则》。去年11月1日,首届全球人工智能(AI)安全峰会上,28国联署关于人工智能国际治理的《布莱切利宣言》,鼓励相关行为者采取适当措施,如安全测试、评估等,以衡量、监测和减轻AI潜在有害能力及其可能产生的影响。今年2月,美国商务部长宣布成立人工智能安全研究联盟(AISIC)。3月,一场关于人工智能安全的国际会议在北京隆重举行。包括图灵奖得主约书亚•本吉奥、杰弗里•辛顿以及著名学者姚期智在内的数十位中外专家齐聚一堂,共同签署了由智源研究院发起的《北京AI安全国际共识》。
当然也有另外的声音,如Meta 公司的首席人工智能科学家Yann LeCun说,对人工智能可能毁灭人类的担忧是 "荒谬的",这种担忧更多是基于科幻小说而非现实,在他看来,智能机器根本没有理由试图与人类竞争。尽管说法各异,但在 AI 快速发展的当下,安全问题至关重要。而 OpenAI 的这些问题若不能妥善解决,不仅会影响自身的发展,也可能对整个行业产生负面影响。如何平衡创新与安全,协调内部不同意见,将是 OpenAI 乃至整个行业需要深入思考和解决的问题。