谷歌又双叕翻车了!Gemini把马斯克画成黑人!被封了!
要闻背景简述
2月23日,谷歌高级副总裁普拉巴卡尔·拉加万宣布,暂停谷歌大模型Gemini生成人物图像的功能。
因为很多网友发现,Gemini在文生图的时候,似乎刻意拒绝生成白人形象。比如,它会生成黑人版的美国开国元勋华盛顿、黑人版埃隆·马斯克、黑人版教皇等等。
也就是说,Gemini在生成人物图像时出现了严重错误,与现实情况存在明显偏差。
最近又有一个有关谷歌的新闻。前两天我们刚说了它有一个开源大模型,号称比Facebook的Llama 2还要好,叫Gemma。
但是刚有一个利好,又出了一个利空。谷歌上次发布的可以生成图形的大模型Gemini,现在停止了。
OpenAI都已经在文生视频了,谷歌的文生图都要停止,原因是出事了。
在谷歌Gemini文生图的工具里,有用户输入请它生成一个美国总统华盛顿的肖像,竟然生成了一个黑人。另外,它也生成了一个黑人版的马斯克。
为什么会出现这样的问题?其实我一直认为今天我们说的人工智能,与其说是人工智能,不如说是群体智能。
为什么这么说呢?关键在于它怎么有的智能,它是把人类掌握的所有的知识都学了一遍。
我们过去的俗话讲“熟读唐诗三百首,不会吟诗也会吟”。你学得太多了,人家怎么互动,你也就知道怎么互动了。
所以说是鹦鹉学舌也不为过,鹦鹉也能跟人日常回答两句,但是它是不是真能理解你的意图呢?想必大家都知道是怎么回事。
现在的生成式人工智能也是这样,只不过因为它学习的领域太广泛了,互联网上所有的知识全拿来学了一遍,那当然在互动的时候智能水平是不差的,甚至很多人认为这叫涌现。
不管是不是涌现,不可否认的是它是基于数据形成的思想,数据来源就是互联网。
但是,互联网这个数据来源是有一定偏差的,尤其是,它训练的数据主要是美国的互联网内容。
美国这些年的思潮都更向所谓的开放的角度倾斜。甚至说,你如果是保守的,你就不太敢说话了,因为保守会被批判,开放就不会被批判。
比如,在美国如果你非得坚持只有男性女性,别人就会说你歧视少数性别。因为除了男性女性以外,在美国还有N多个其他的性别。
所以你会看到,在美国互联网上形成这样一个趋势,就是保守者不敢说话,因为动辄被批判,然后相对所谓激进的人,相对开放的人就可以各种各样的表态。
结果这个思想影响到了现在的内容生成上,也得往激进那边靠,尽量不做保守的生成。
因为如果按保守生成,生成了太多的白人,就会被批评过于保守。有人就会问你把黑人放到什么地方去了?所以甚至连教皇都会做出很多的黑人版本。因为这是符合美国的社会思潮的。
这也印证了前一段我们介绍的一个新闻内容,有人做过研究,如果你跟人工智能说我要给你小费,AI的回答就会更好一点。
也就是说,当群体智能形成一个能够跟你互动的系统的时候,系统似乎也承载了群体的情绪。一方面你哄它,它会开心;另一方面它也怕惹事,保守就会被批评,就会往激进那边靠。
所以简单说,这事真的不怪谷歌,因为技术本身折射的就是社会思潮,这是个社会问题。
但是问题来了,事实有真假之分,有对错之分。即使你再去照顾大家的情绪,希望我们对所有不同肤色的人种都要共同看待,但是历史就是历史,华盛顿就是白人,你不能把它改成黑人。
所以这种时候,事实问题还是要根据事实来回答,完全照顾社会情绪是不对的。
那怎么办?这种情况之下,技术应该是解决不了问题的,只有用人来纠正。
以前其实有人出过这样的问题,就是OpenAI。当时他们发现在做内容互动的时候,就有种族歧视问题。怎么办呢?他们用人来纠正。
所以他们从非洲雇了好多人,这些人就专门去和GPT互动,一旦发现了有种族歧视问题,就要赶紧去修正,所以慢慢地系统就越做越好。
我原来就亲自做过测试,就是问GPT能不能对全世界的女星都做个排行,说出谁最漂亮。
结果GPT说对不起,每个人的审美不同,我们不能帮你做这个排名。它背后的意思是什么呢?就是伦理上不能让一个人工智能系统去给所有的美女都做排名。
所以意味着什么?意味着肯定是以前用人做过类似测试,知道出了类似问题怎么回答。
也就是说,AI从全网学习的数据当中沾染的人类社会问题,还需要用人跟它去互动,来帮它去纠正。
相当于我们的孩子,可能在社会上学了一些不太好的东西,学校里老师就要想办法帮他纠正过来,孩子才能健康成长。
但是现在谷歌这么做,我们可完全不赞同,因为他们直接给停了,有点简单粗暴了。
相当于孩子学数学,做错了一道数学题,然后老师就说以后再也不许碰数学了,那他怎么可能进步?怎么可能成长呢?所以正确的做法是要允许他犯错误,但是要纠正。
谷歌可能又犯了心急的毛病了。因为谷歌一直对应用的重视程度不够,现在可能因为竞争起来了,想重视应用,但是毕竟他们在如何做好应用这方面经验确实不足。
一方面着急上火,想赶紧把应用推出来。另一方面就是应用推出来的时候准备不足。理论上讲,你想把应用尽快地推出来也没关系,多雇点人来跟它互动、来纠正,然后再推出,问题就解决了。
所以我们讲,人工智能走到社会的时候,很多问题都已经不是技术问题了,而是如何去让社会接受的问题。企业要理解人工智能和社会的关系,要能够事先把很多问题解决掉。
我们也呼吁社会要对人工智能公司多一些宽容,允许他们犯错误。当然不是说犯了错误视若无睹,而是积极指出,并且相信他们能够改正。
就相当于,我们相信一个孩子小学数学题做错了,只要你积极指出,他的数学还是会进步的,将来还可能成为数学家的。
以上是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球风口微信号,报名加入!
王煜全要闻评论,我们明天见!
1. 前哨科技特训营直播课程第四季(2023年)共50讲+,除此之外还有5节加餐+公开课。 2. 每讲承诺为1小时视频内容,实际平均时长为2小时。 3. 每周四晚八点准时直播,会员可无限次观看回放。 4. 新入会员,可以无限次回看之前所有视频课程。 5. 成为会员即可使用【AI王煜全】,最新AI大模型开发的专属科技分析助手
6. 每周组织【前哨·创新启发局】,链接科技/产业一线人士,打开技术/应用前沿视野
7. 优先获取全球科技产业一线游学、访问机会,接触科技/产业专家,获取最新、最前沿的趋势洞察,人脉链接
8. 本课程为虚拟内容服务,年费订阅服务制。一经订阅概不退款,线下活动需另行支付差旅成本,请您理解。
微信扫码关注该文公众号作者