首页 500强 活动 榜单 商业 科技 领导力 视频 专题 品牌中心
杂志订阅

TikTok回应在马来西亚裁员:推进内容审核自动化

2024-10-12 09:49
文本设置
小号
默认
大号
Plus(0条)
据多家媒体10月11日消息,TikTok发言人证实公司正在全球范围裁员,其中包括马来西亚,“由于各国的就业法规不同,我们目前无法提供确切的裁员人数,但预计全球将有数百人受到影响”。 | 相关阅读(界面新闻)
48
吴思道

吴思道

IET英国工程学会 特许工程师CEng

在使用中文为主的马来西亚率先推进,无疑是把马来西亚当成在中国推进的试验场,国内各个大厂的审核岗可能需要担心了。AI自动化审核技术在提高内容审核的效率和准确性方面发挥着越来越重要的作用。然而这项技术也必将引发了数据安全和伦理道德方面的担忧。

由于AI审核系统需要处理大量用户数据,如何保护个人隐私成为一个重要问题。必须确保在收集、存储和处理个人数据的过程中,严格遵守数据保护法规,如欧盟的GDPR或中国的《个人信息保护法》,并采取有效的技术和管理措施来防止数据泄露和滥用。

AI模型在训练过程中可能会继承和放大社会偏见,导致对特定群体的不公平对待。因此,开发者需要在数据采集和算法开发阶段加强伦理审查,以避免数据和算法偏见,确保AI系统的普惠性、公平性和非歧视性。同时,提高AI决策的透明度和可解释性也是提升用户信任的关键,这有助于用户理解AI是如何做出决策的。

在责任归属方面,当AI系统做出错误决策时,确定责任可能变得复杂。因此,建立清晰的责任框架,明确AI系统的设计者、运营者和用户在不同情况下的责任,是确保AI技术负责任使用的重要步骤。
为了确保AI自动化审核系统的伦理使用,制定和遵守一系列伦理规范是必要的。例如,中国的《新一代人工智能伦理规范》提出了一系列基本伦理要求,包括增进人类福祉、促进公平公正、保护隐私安全等。同时,随着AI技术的发展,现有的法律和监管框架可能需要更新,以适应新的挑战,包括对AI系统的监管、对数据使用的法律限制,以及对AI决策的法律审查。

考虑到不同文化和社会对AI伦理的接受程度和期望可能不同,AI自动化审核系统需要在不同地区适应当地的伦理标准和文化价值观。这要求开发者和运营商在全球范围内推广AI技术时,充分考虑这些差异,并尊重当地的社会和文化多样性。通过这些措施,我们可以确保AI自动化审核技术在提高效率的同时,也能够保护用户的数据安全,尊重伦理道德标准,实现技术的健康发展和社会责任。

47
龚德明

龚德明

制作人

最近几年人工智能技术的发展,实际上已经开始悄悄影响我们的生活。TikTok这个例子就很明显。鉴于各个国家法律法规的要求和平台治理的需要,TikTok背后有庞大的审核员团队。如今AI技术的发展,自动化审核的推进,已经开始逼退人类审核员。虽然如今看起来预计全球只有数百人受到影响,但是平台上目前约80%的违规内容已通过自动化技术删除,这个比例让人看了会更进一步深思,随着AI技术渗透进平台和各个组织,像这样的裁员案例还会有很多。

评论

撰写或查看更多评论

请打开财富Plus APP

前往打开