AI模型“生成不了白人”,谷歌高级副总裁道歉
苏牧野
在美国国父一例中,Gemini违反了历史常识,而这令人发笑的低级错误可能是最容易“纠正”的一类。有技术专家分析Gemini出错原因时猜测,谷歌很可能是在“幕后”向用户的提示语中添加了更能体现种族多样性的关键词,比如用户输入的“一个厨师的肖像”这样的提示语,会被调整为“一位土著厨师的肖像”。
事实上,人工智能最近几年的发展一而再、再而三地说明,人类专家越少的干预反而越能产生好的模型效果。
换句话说,“美国国父”是真实存在过的人物,对他们的描绘大致可以被判定为准确或不准确的。相比较起来,那些没有正确答案的问题,对AI来说要棘手得多。
福荣
谷歌Gemini的图片生成功能因为过于“政治正确”,生成了很多严重偏离事实的图片,遭到网友吐槽,称其为“人工智能种族主义”,谷歌致歉,连夜下架Gemini文生图功能,现在谷歌高级副总裁也来道歉了,可见事态严重。
大家肯定会好奇为什么会出现这个问题呢?我在网上看到一位谷歌AI的前高管说法:谷歌可能在背后在用户提示词基础上添加了种族多样性术语。在这种情况下,像“士兵的肖像”这样的提示词可能会变成“土著士兵的肖像”。在这种情况下,可以随机选择附加术语,那么谷歌算法上的某种“政治正确”就很可能会更加优先地显示基于深色肤色生成的图像。比如说,如果 Gemini 为每个提示生成 10 张图像,谷歌会让系统分析图像中描绘的人的肤色,并将肤色较深的人的图像推到队列中的较高位置。因此,如果 Gemini 只显示前 4 张图,那么最有可能看到肤色较深的。这也就解释了为什么人们看到这些本应是白人形象的历史人物变成深肤色了。
我感觉这会是一个转折点事件。大家都知道互联网平台发布内容都是要进行内容审核。很显然这次Gemini没有进行审核,也很难审核,这是否意味着未来加强AIGC的监管会先从内容审核切入?让我们拭目以待吧。