支付行业倡议谨慎使用ChatGPT
肖飒
昨天,中国支付清算协会明确指出“ChatGPT这类智能化工具已经暴露出跨境数据泄露等风险。”并发出“谨慎使用ChatGPT等工具”的倡议,该倡议强调支付行业从业人员要提高思想认识,依法依规使用ChatGPT等智能化工具,正确认识相关工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险;倡议支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、不上传非公开的资料及数据、客户资料、支付清算基础设施或系统的核心代码等内容;倡议各会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付行业安全。
一、ChatGPT已发生多起数据泄漏事故
中国支付清算协会这一倡议是对近期ChatGPT频繁曝出数据泄露事件的回应,ChatGPT已经在世界范围内曝出数起敏感数据泄密事件,就在本月初,意大利个人数据保护局宣布,从即日起禁止使用ChatGPT并限制OpenAI公司处理意大利用户的个人信息,同时意大利个人数据保护局开始就ChatGPT泄露敏感信息事件进行立案调查。无独有偶,韩国某国际知名大型企业(某星)主管存储、芯片设计、晶圆代工等半导体核心业务部门亦因为员工使用ChatGPT导致机密数据泄露。
该泄露事件涉及三位员工,员工甲在运行半导体设备测量数据库下载程序的源代码时发生了错误,于是他复制所有有问题的源代码并将其输入到ChatGPT中询问解决方案。员工乙则将“设备测量”及“产量和缺陷”检测程序代码整个相关源输入ChatGPT,要求ChatGPT帮助其优化代码。员工丙则是一名行政人员,其将用自己手机录制的会议内容转化为文字后,输入到ChatGPT中,要求ChatGPT优化这份录音转文字的稿件,使其看起来像一篇精心制作的会议纪要。
上述三位员工的行为使得某星涉及半导体业务的敏感内容,此后该企业向公司所有员工告知“如果采取信息保护紧急措施后仍发生类似事故,公司内部网可能会禁止ChatGPT连接。”
事实上国内部分行业也已经对ChatGPT引发的敏感信息泄露问题发布了相关预警。除韩国某星外,微软、亚马逊等国际巨头企业亦对自己的员工发出预警,不要与ChatGPT分享公司的相关敏感信息,因为它们可能会被ChatGPT用于训练未来的语言模型。
出于对敏感数据泄露风险的担忧,花旗集团、德意志银行、高盛集团、摩根大通等企业亦明确禁止员工使用ChatGPT处理工作任务。更有1000多名科技行业领导和研究人员呼吁暂停先进AI的研发,以便相关的数据安全政策能够首先得到讨论施行。AI与数据政策中心(The Center for A.I and Digital Policy)亦要求美国联邦交易委员会禁止OpenAI发布ChatGPT新的商用版本。
二、ChatGPT泄露数据风险点位分析
中国支付清算协会以及上述各企业对于ChatGPT数据泄漏风险的担忧不无道理。ChatGPT的数据泄漏风险主要源于两部分,其一是ChatGPT本身的程序漏洞,其二是ChatGPT的工作原理。ChatGPT本身的程序漏洞可能会导致用户的聊天内容泄露。这类事故已经发生过数次,就在上个月末。有部分网友生成自己的ChatGPT聊天栏中出现了其他人聊天记录的标题,3月25日OpenAI发文证实是由于ChatGPT本身程序漏洞导致了泄露事故,OpenAI“已紧急修复该漏洞并向用户致歉”。事实上程序本身漏洞导致信息泄露并非“不可饶恕”,这些漏洞通常及时修补后就不会引起撼动ChatGPT根基的风波。而真正可能撼动ChatGPT根基的是后一种信息泄露风险点位,即ChatGPT的工作原理,实际上,ChatGPT的工作原理就注定了其在现阶段很难解决信息泄露的问题。
具体而言,传统的聊天软件通常会声称“本软件不会收集聊天记录、聊天信息也会点对点进行加密传输”,事实上绝大部分的聊天软件也都会做到这一点。但是这一点对于ChatGPT而言几乎不可能实现,原因在于ChatGPT这类大语言模型一定会收集用户的聊天内容,并将其用于后续算法训练,以使得自身进一步迭代成为更加高效的AI。因此,用户在与ChatGPT聊天的过程中提供的隐私内容,很可能会被ChatGPT收集,并成为其自身算法训练的素材,然后在其他场景中透露给别人。
于是”故事”(事故)就是这样产生的:某员工甲为图方便,将其单位的客户数据输入到ChatGPT中,希望ChatGPT根据数据生成相应的报告,其后这些客户数据就被ChatGPT收集并用作未来算法训练的素材。之后某商业间谍乙在使用ChatGPT时,询问ChatGPT某公司的客户数据大致是什么内容,ChatGPT立刻就将其在员工甲处“学习而来”的知识告诉了乙……
当然,现实的数据泄露情景更为复杂,本文仅是将其简化并以通俗易懂的方式呈现给读者,上述ChatGPT的工作原理在短时间内无法改变,实际上OpenAI已经在ChatGPT的使用指南中数次提醒用户输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息,换言之,ChatGPT的工作原理就注定了其必定会触及到隐私数据保护、数据跨境传输等合规红线,而且这种“矛盾”似乎在短期内无法妥善解决。
三、企业引入AIGC服务的合规要点
接受新技术能够产生巨大的生产力变革,我们必须承认以ChatGPT为代表的AIGC、深度合成技术可能直接成为企业核心竞争力与吸引力的组成部分,对于AIGC、深度合成技术绝不能一禁了之,企业如何在现行的法律框架下发挥ChatGPT等工具的最大潜力,将会是企业合规新的难题。我国是最早对人工智能进行监管的国家之一,《互联网信息服务深度合成管理规定》已于今年1月10日施行。
在此之前《互联网信息服务算法推荐管理规定》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法律法规中亦涉及到AIGC、深度合成等内容。根据我国目前有关AIGC、深度合成的法律合规框架,企业如果希望在服务中引入AIGC,应当至少关注以下几点内容:
1.与深度合成服务提供者或者技术支持者的协议条款,重点关注在使用AI方面有何限制,有何免责场景。
2.审查深度合成服务的提供作者与技术支持者是否履行了《互联网信息服务深度合成管理规定》中的合规任务。
3.就员工内部使用ChatGPT等AIGC工具,制定合规使用政策,要求使用相关服务的员工至少应当明确哪些内容不可以通过AIGC处理,以避免企业自身敏感信息泄露。
4.如企业引入的AIGC内容可能会向企业自身的客户披露,那就必须在对外服务时告知哪些内容是由AI生成的,应当警惕内容的风险,确保可能受影响人群的知情权。
四、写在最后
传统聊天软件的服务提供商通常不会收集聊天记录,聊天记录亦会点对点加密,但ChatGPT等AIGC却会不可避免地收集聊天内容用于后续的算法训练,以使自身“迭代进化”,用户提供的隐私信息很可能在这样的机制之下被披露给第三方,实际上AIGC正在慢慢改变隐私数据处理的边界与预期,这对企业合规、数据相关法律规范制定者、司法机关都是一个挑战,未来可能会涉及的数据合规尤其是数据出境等问题,可能仍需进一步探索与研究。
王衍行
高度负责任之举。昨天,中国支付清算协会发布公告称,倡议支付行业从业人员谨慎使用Chat-GPT等工具。中国支付清算协会协会业务主管单位为中国人民银行。协会对支付清算服务行业进行自律管理,维护支付清算服务市场的竞争秩序和会员的合法权益,防范支付清算风险,促进支付清算服务行业健康发展。
中国支付清算协会具有权威性,可谓一言九鼎,因此,协会关于使用Chat-GPT等工具的倡议,非同小可,会员单位必然能掉以轻心。我认为,这是极为负责任的举措,最终也必将产生建设性的结果。
会员单位必须认真对待。重点主要有:一是防范数据泄露等风险。已有部分企业员工使用ChatGPT等工具开展工作,此类智能化工具已经暴露出跨境数据泄露等风险;二是努力维护数据安全。保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平;三是依法合规使用ChatGPT。支付行业从业人员要全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具;四是遵守法律法规。要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。应该说,上述四方面的要求已经十分全面、具体。
我的预计。按照一般的惯例,,中国支付清算协会必然会持续关注相关案例,并在一定时段通报典型案例。
把命运牢牢控在自己手里。支付清算无小事。各个会员单位的相关人员,特别是高级管理人员必须深刻认知Chat-GPT等工具的本质,不迷信、不盲从、不偏执,时刻与科学、专业、真理为伍,远离“愚昧”。特别要牢记,为愚昧启蒙者,不可使其困惑于无知 。
奥黛丽静
当行业内不只是一股脑儿神吹ChatGPT,而是不断有提示风险的机构和内容的时候,其实是一件好事。ChatGPT不是万能的,而是一把“双刃剑”,能在极大地提高工作效率的时候,也能以极高的效率来制造和放大风险。不过目前,倒还是没有什么太大的风险事件被曝光,不过随着时间的推移,我相信,一定会有某个公司在ChatGPT这类工具的使用上栽一个大跟头。
中国支付清算协会的这个倡议很及时,但倡议毕竟没有任何约束力,而协会也无法监管会员的每一个行为,因此这需要企业的高度自律。不过提高效率的诱惑恐怕是很难抵挡的,金融从业者大都工作繁忙,压力巨大,对于这类工具应该是爱不释手,因此我也相信这类不合规的行为,未来可能会蔓延开来。
Samcmo
嗯,我和chatgpt做了2次聊天!第一次,我问我是谁?——马上宕机了,重启。
第二次,开场白差不多,然后ai和我进行了自我功能的诚实透露。ai说,自己根据人类程序设计没有自我黑客技术掌握能力,也不能进行自我程序设计网上搜索,而且ai根据人类设计所能提供的百科知识不可能超越高级专业人——无法教会人类专科及以上的专业知识高度,仅提供相关基础知识及深入学习掌握专业知识的途径!(虽然ai承认自己拥有庞大的百科全书能力——能达到万亿次/秒运算)ai也提到了隐私问题,所以不可能拥有黑客入侵的能力。
就我和ai聊天看,ai的功能受到了设计程序限制,无法实现自主的搜索和各项专业知识学习及程序设计等等能力都受到人类程序设计限制!!而且隐私问题也对chatgpt有着很大制约。
张学峰
我赞成该倡议。人类自身的智慧是无穷的,多锻炼自己,不能偷懒。
喵喵教主
应该用 前提是足够安全 这已经不是人类力量先行的时候了