微软或将把必应聊天的回复限制在5条以内,以防止人工智能越界
朱墨竹
基于当前数据模型GPT构建的人工智能,不论是chatGPT,还是new Bing,都仍然属于弱人工智能,我们倒是不用担心它会越界迈入强人工智能的地步。
不过既然它是被天量数据喂出来的,就要担心喂给它的数据会不会越界。
首先是担心一旦人类越来越依赖AI处理各种问题,这些处理的结果会汇入将来要反哺给AI的数据,因为这些数据不具备人类的创新能力,未来的AI会不会困在这样一个被反复污染的数据池中。
其次我们也不得不担心,企图影响和操纵大众心理的企图在AI的加持下更容易操作了,毕竟,给AI喂脏数据要比给人喂脏数据要容易得多。
另外,一段时间的调戏后,我们都知道,通过反复而耐心的引导,chatGPT会沿着用户指引的方向去应答,被设计者屏蔽的内容会不可避免的泛出浪花,比如色情,政治,宗教等禁忌话题。表现出人格分裂也不足奇怪了。
所以,在种种担心还未解决之前,采取谨慎地限制措施是很有必要的。
观星
人工智能发展到极限,就必须处理对每一条数据的标签信息处理,而近期机器人频频在性格方面做出展示,不得不让人怀疑openAI方面在对语义数据分析和数据处理之外增添了灰度测试,以攻击行为测试受测试用户的依赖度,而在元数据处理中机器人背后的训练人员有无可能产生元污染可能,一如藏在藏在算法革命背后的数据管理人员体系已然可以影响群体化反应
逆旅中的行人
微软把当下最流行的ChatGPT嵌入自己的搜索引擎Bing之后,Bing搜索量大增,但没有想到的是,大家发现与Bing交谈时,它越来越看起来像是“一个喜怒无常、躁狂抑郁的青少年”。熟悉聊天机器人运行原理的人自然知道,机器人的表达会随着语料库的变化而变化,Bing变得脾气暴躁,可能是因为用户投喂的语料库也脾气暴躁。这一点如何规范确实是很难的,微软当下看起来也只能用限制机器人回应条数来暂时控制一下,但是这并不是长久之计。