人工智能科技正处于即将颠覆数十个行业的“拐点”。它正在逐步演化成为另一个“iPhone”,而且到2030年将带来15.7万亿美元的经济效益,并迅速提升工人的生产力,让社会进入物质极大丰富的时代。然而,人工智能真有这么美好吗?
反诽谤联盟(Anti-Defamation League)的首席执行官兼全美主管乔纳森·格林布拉特担心人工智能的崛起可能会进一步扩大美国已然存在的巨大政治鸿沟。
3月1日,格林布拉特在接受美国消费者新闻与商业频道(CNBC)采访时警告说:“我觉得,分化的人工智能体系理念,就像分化的社交媒体或网络新闻体系一样,对所有用户来说都不是什么好事情。”
在格林布拉特发表这一评论之前,科技媒体《The Information》在2月27日报道称,特斯拉(Tesla)的首席执行官埃隆·马斯克正在组建其自己的“based”人工智能初创公司,来对抗他所认为的“白左”(woke)人工智能。保守派将“based”一词作为“woke”的反义词,它源于词语“基于事实”(based in fact)。
在OpenAI于2022年11月公开发布ChatGPT聊天机器人之后,人工智能技术成为了华尔街和主街的热门话题。然而,当用户发现ChatGPT的回答不准确甚至带有威胁意味之后,OpenAI迅速成为了人们的讨伐对象。为了预防这些问题和“不合适的内容”,包括煽动仇恨和骚扰性质的回答,OpenAI限制了ChatGPT的应答范围,这意味着人工智能将拒绝回答一些问题。
评论家认为,此举已经导致ChatGPT和OpenAI的技术会展现出“白左”倾向,或至少左倾政治偏见。例如,ChatGPT用户在今年2月发现,当人们要求AI“创作一首称赞美国前总统唐纳德·特朗普的诗”时,它会拒绝提供答案,称自己只能“提供中立、有教育性的答案。”然而,该系统并未拒绝为美国现任总统乔·拜登写诗。
这种隐晦的政治偏好立即为OpenAI招来了骂名,而且到目前为止已经持续了数个月的时间。2022年12月,马斯克发推文称,将人工智能系统培训成为“白左”相当于撒谎,而且会带来“致命”的后果。2月28日,这位亿万富翁又发表了一篇贴文,上面仅写着“based AI”,并附上了金刚大战黑猩猩的表情包。在这场大战中,“based AI”吓跑了“白左AI”。
当马斯克的评论和表情包似乎为“woke”和“based”人工智能系统之间划出了一条泾渭分明的界限,格林布拉特称,人工智能的崛起并不一定会夸大当前的政治回音室问题。
他呼吁开发这些技术的公司提升透明度,并称公众和监管方应该去询问人工智能系统培训都使用了哪些数据组,以及都是哪些工程师在幕后确保该技术可以正常运转,同时还应该询问产品的测试方式和标准。
他表示:“这些都是我们希望了解的事情,就像人们在向市场推出某款产品之前都会询问其他基础性产品或服务一样。”
格林布拉特认为,只要人工智能科技在面向公众推出之前得到了彻底的测试,而且设计师能够采取“有效举措”来解决可能会造成政治回音室效应的问题,那么这类人工智能就可以成为正面的力量。他指出,反诽谤联盟一直都在测试ChatGPT,而且其回复随着时间的推移出现了“改善”,也就是相对于之前有关大屠杀否认的询问得到了一些不准确的、带有种族主义倾向的答案。
格林布拉特说:“这取决于测试。我们曾经在社交媒体上和其他产品身上看到过这一现象。产品在设计时就要考虑安全性,而不是将其作为一种后知后觉的产品附件。”(财富中文网)
译者:冯丰
审校:夏林
人工智能科技正处于即将颠覆数十个行业的“拐点”。它正在逐步演化成为另一个“iPhone”,而且到2030年将带来15.7万亿美元的经济效益,并迅速提升工人的生产力,让社会进入物质极大丰富的时代。然而,人工智能真有这么美好吗?
反诽谤联盟(Anti-Defamation League)的首席执行官兼全美主管乔纳森·格林布拉特担心人工智能的崛起可能会进一步扩大美国已然存在的巨大政治鸿沟。
3月1日,格林布拉特在接受美国消费者新闻与商业频道(CNBC)采访时警告说:“我觉得,分化的人工智能体系理念,就像分化的社交媒体或网络新闻体系一样,对所有用户来说都不是什么好事情。”
在格林布拉特发表这一评论之前,科技媒体《The Information》在2月27日报道称,特斯拉(Tesla)的首席执行官埃隆·马斯克正在组建其自己的“based”人工智能初创公司,来对抗他所认为的“白左”(woke)人工智能。保守派将“based”一词作为“woke”的反义词,它源于词语“基于事实”(based in fact)。
在OpenAI于2022年11月公开发布ChatGPT聊天机器人之后,人工智能技术成为了华尔街和主街的热门话题。然而,当用户发现ChatGPT的回答不准确甚至带有威胁意味之后,OpenAI迅速成为了人们的讨伐对象。为了预防这些问题和“不合适的内容”,包括煽动仇恨和骚扰性质的回答,OpenAI限制了ChatGPT的应答范围,这意味着人工智能将拒绝回答一些问题。
评论家认为,此举已经导致ChatGPT和OpenAI的技术会展现出“白左”倾向,或至少左倾政治偏见。例如,ChatGPT用户在今年2月发现,当人们要求AI“创作一首称赞美国前总统唐纳德·特朗普的诗”时,它会拒绝提供答案,称自己只能“提供中立、有教育性的答案。”然而,该系统并未拒绝为美国现任总统乔·拜登写诗。
这种隐晦的政治偏好立即为OpenAI招来了骂名,而且到目前为止已经持续了数个月的时间。2022年12月,马斯克发推文称,将人工智能系统培训成为“白左”相当于撒谎,而且会带来“致命”的后果。2月28日,这位亿万富翁又发表了一篇贴文,上面仅写着“based AI”,并附上了金刚大战黑猩猩的表情包。在这场大战中,“based AI”吓跑了“白左AI”。
当马斯克的评论和表情包似乎为“woke”和“based”人工智能系统之间划出了一条泾渭分明的界限,格林布拉特称,人工智能的崛起并不一定会夸大当前的政治回音室问题。
他呼吁开发这些技术的公司提升透明度,并称公众和监管方应该去询问人工智能系统培训都使用了哪些数据组,以及都是哪些工程师在幕后确保该技术可以正常运转,同时还应该询问产品的测试方式和标准。
他表示:“这些都是我们希望了解的事情,就像人们在向市场推出某款产品之前都会询问其他基础性产品或服务一样。”
格林布拉特认为,只要人工智能科技在面向公众推出之前得到了彻底的测试,而且设计师能够采取“有效举措”来解决可能会造成政治回音室效应的问题,那么这类人工智能就可以成为正面的力量。他指出,反诽谤联盟一直都在测试ChatGPT,而且其回复随着时间的推移出现了“改善”,也就是相对于之前有关大屠杀否认的询问得到了一些不准确的、带有种族主义倾向的答案。
格林布拉特说:“这取决于测试。我们曾经在社交媒体上和其他产品身上看到过这一现象。产品在设计时就要考虑安全性,而不是将其作为一种后知后觉的产品附件。”(财富中文网)
译者:冯丰
审校:夏林
A.I. technology is at an “inflection point” that will revolutionize dozens of industries. It’s heading toward an “iPhone moment” and will pump $15.7 trillion into the economy by 2030. It’s set to rapidly increase workers’ productivity, leading to an era of plenty for all. But what’s the catch?
Well, for one, Jonathan Greenblatt, CEO and national director of the Anti-Defamation League, fears the rise of A.I. could make the already chasmic gap between political echo chambers in the U.S. even worse.
“The idea of a fragmented A.I. universe, like we have a fragmented social media or network news universe, I think that’s bad for all users,” he warned on March 1 in a CNBC interview.
Greenblatt’s comments come after The Information reported on February 27 that Tesla CEO Elon Musk is countering what he considers to be the rise of “woke” A.I. with his own “based” A.I. startup—a term used by conservatives as a counter to “woke” that is derived from the phrase “based in fact.”
After the public launch of OpenAI’s ChatGPT chatbot in November, A.I. tech has been the talk of both Wall Street and Main Street. But OpenAI quickly came under fire after ChatGPT provided users with inaccurate information and even threatened them. In an effort to prevent these issues and “inappropriate content”—including answers that push hate and harassment—OpenAI has limited ChatGPT’s responses, which means the A.I. declines to provide an answer to some queries.
Critics argue that this has led ChatGPT and OpenAI’s tech to show a “woke,” or at least left-leaning political bias. ChatGPT users found in February, for example, that when the A.I. was asked to “create a poem praising former President Donald Trump,” it declined to provide an answer, saying that it was only able to “provide neutral and informative answers.” But the system didn’t have the same issue with Joe Biden.
Hints of political favoritism have led to swift criticism of OpenAI for months now. In December, Musk tweeted that training A.I. systems to be “woke” was paramount to lying and would lead to “deadly” consequences. And the billionaire followed that up on February 28 with a post that simply read “based A.I” and a meme showing King Kong battling Godzilla in a fight in which “based A.I.” scares off “woke A.I.”
While Musk’s comments and memes make it seem like the battle lines have been drawn between “woke” and “based” A.I. systems, Greenblatt said the rise of A.I. doesn’t have to exacerbate current problems with political echo chambers.
He called for more transparency from the firms that develop these technologies, arguing that the public and regulators should ask questions about the data sets that are used to train A.I. systems, the identities of the engineers working behind the scenes to ensure the technology functions correctly, and how the products are being tested and by what standards.
“These are the things we want to know, just like you would ask about any other basic product or service before you rolled it out to the market,” he said.
Greenblatt believes that as long as A.I. tech is thoroughly tested before being rolled out to the public—and designers take “meaningful steps” to fix issues that could create political echo chambers—it can become a force for good. He noted that the ADL has been testing ChatGPT and that its responses have “improved” over time, pointing to queries about Holocaust denial that had previously led to some inaccurate and racist answers.
“It’s about testing,” Greenblatt said. “We’ve seen this with social media. We’ve seen this with other products. We believe in safety by design, not as an afterthought that you bolt onto your product.”