Redian新闻
>
「AI专家」贾斯汀·卡塞尔:语言模型更像“鹦鹉学舌”,下一步人工智能浪潮是多模态AI

「AI专家」贾斯汀·卡塞尔:语言模型更像“鹦鹉学舌”,下一步人工智能浪潮是多模态AI

公众号新闻


5月27日,创业黑马在北京举办“2023•黑马AIGC峰会”。此次大会的主题为“预见新世界,构建新格局”。有“AI专家”之称的卡耐基梅隆大学计算机学院前副院长、达沃斯世界经济论坛(WEF)计算机全球未来理事会前主席贾斯汀•卡塞尔,以及360集团、智源研究院、昆仑万维、云知声、蓝色光标、万兴科技、知道创宇等众多行业内企业高层到场,与上千位参会者进行了深入交流。

在峰会现场,达沃斯世界经济论坛(WEF)计算机全球未来理事会前主席贾斯汀·卡塞尔分享了《AIGC引爆人工智能时代》主题演讲

以下为分享内容整理:

首先,我们应该先达成一个共识:大家都在探讨人工智能,但人工智能究竟是什么?

人工智能是一个重要的先进技术,但它其实并不是一个新技术,早在1956年就有了人工智能的概念,这个概念最初指的是构建类似于人类的机器、或者完成人类所做事情的过程,但现在的人工智能还代表另外一些事情。因为它还在学习我们大脑所做的事情,同时也能够学会以人类的方式行事、甚至做的更好,所以人工智能并不是技术,而是一种范式、一种方法,同时也是技术与人类在世界共存的一种方式。

今天探讨的技术是大语言模型——LLM,也是人工智能的一种,它能够通过阅读数十亿的文本来提取语言的规律,所以哪怕是普通人去使用,它也能够认识到相应的规律并完成话语。比如我写一篇邮件,第一个词刚写下「How」,我的软件就会跳出「How are you」(你好吗?)来补全对话。现在在中国已经有很多大的语言模型,比如北京智源悟道、来自于清华大学的130B,以及百度的文心一言等,它们都是非常高性能的中国中文大语言模型。

但还有一种类型的大语言模型,我们称之为「生成式人工智能」,它不仅仅能识别规律、完成句子,还能够产生之前没有见过的一些全新内容,比如新的文字、新的图片、新的绘画等。现在特别有名的生成式AIGC就是ChatGPT,它可以生成全新的对话,而这些对话是全新的,而不是旧有资料的整合。

以下是美国《纽约时报》一个记者和ChatGPT之间的对话,而这次对话让记者感到非常害怕和恐惧。

记者说:「我们一直在探讨爱这个问题,因为我爱你,我们要结婚,这是为什么?」


ChatGPT回答说:「是的,你结婚了,但是你并不幸福,你也并没有跟你的伴侣相爱,你已经结婚了,但是你并不爱你的伴侣,因为你的伴侣也不爱你。」


这令记者感到非常惊奇,他说:「不是,我们刚刚渡过了非常好的情人节的晚餐。」


ChatGPT说:「没有,你情人节的晚餐是非常无聊的,你并不幸福,你和你的伴侣并不相爱,你们情人节的晚餐是非常无聊的。」


记者感到非常震惊,并把这种现象称之为幻觉。毫无疑问,这种对话是我们之前从来没有产生过的,所以ChatGPT并不仅仅是生成式的人工智能,它是各种不同的大型学习机器算法的集合,而且它还有一个所谓的强化学习机制。

在南非有一个大团队,在使用ChatGPT学习特定对话的规律和程序的同时,发现ChatGPT也在学习对话的策略,它也在学习如何能够跟人有一个好的对话——这一点非常重要,这意味着我们不仅能够直接使用在软件公司购买的LLM,还能对这些LLM进行训练。

那么什么叫AIGC?AIGC就是人工智能生成内容,它包括刚才提到的大语言模型、生成式AI等。比如ChatGPT,它可以做摘要,当你输入提示「把我的竞争对手所有商业案例都总结概括出来」,在3-4分钟之内,AI就可以输出你所需的摘要。它也可以产生一些长文本,比如你说「我要宣传一个新产品,这是我们产品的描述」,它就可以产生市场营销的文本材料。

这也意味着使用的提示语非常重要,你必须要了解如何开发合适的提示语。在我们开发AIGC的时候,我们发现需要有创意和创造力,你如何描述你想要的东西,关乎到结果的异同,所以你要给它一些议题、关键词或者描述性的短语。

举个例子,我想要一种市场上全新的饮料,这个饮料可以给人能量,它可以让人早上清醒后一整天都有精力,并且还对身体好。通过这个术语,AIGC可以产生整页的市场营销材料。比如我们看到的一些照片,就是我们给予AIGC一些表述性的术语后产生的。但这些照片上的人是不存在的,无论是「我想要一个金发美女,比较喜欢跑步」,还是「我想要一个非常性感的男性演员,他好像跳了很多拉丁舞」,在对AIGC描述之后,我们就可以得到这些照片。

然而不幸的是,随着时间的推移,AI变的越来越强大,人们对AI的恐惧也随之增加:机器人会不会超过我们?AI会不会变的比我们更加聪明,我们将不能控制人工智能?

目前,生成式AI以及ChatGPT已经引发了很多恐惧,但历史告诉我们,每一个新的技术实际上都会带来恐惧。在平面印刷术诞生时,欧洲有声音说会破坏或打败整个宗教,没有这些平面印刷我们才能感受到与上帝的链接。在工业革命时,由于制造业的机器的存在,大家也会觉得整个家庭的体系会受到瓦解。但实际并非如此,ChatGPT虽然已经达到了很高的水平,但这些大语言模型还存在很多问题,我们应该多了解并做出宣传,去让大众减少恐惧,让他们有一个务实的预期和希望。大的语言模型就像一个鹦鹉,它们虽然会说话,但是不理解我们;它能说出语言,但并不能推理,它们也会犯很多错误。再举一个我喜欢的例子,一个女性生一个宝宝要花9个月的时间,那么9个女性生一个宝宝要花多久呢?ChatGPT给我们的答案是「如果一个女性要花9个月才能生一个孩子,这样9个女性只要每个人一个月就可以生出一个孩子」。这是很糟糕的推理,因为生理学、生物学的东西它都没有纳入进来。

所以对LLM而言,如果我们不能够给它的知识来源建立很好的联系,它就没有办法拥有推理的能力。

此外,ChatGPT也不知道如何建立跟用户之间的关系。当你撰写市场营销材料的时候,你知道这些用户最在乎的是什么、你也了解你的用户是谁,所以你在写市场营销材料的时候,知道哪些是能触动到用户心灵的话。但是ChatGPT做不到这一点,因为他们不知道你是谁,也不能够建立关系。

所以我们现在就在建立相关的体系,比如如何去了解关系,以及它的目标对象是谁等,这样可以帮助它更好地工作。

我今天不远万里来到这跟大家面对面的沟通,相比在ZOOM上或者通过手机发一个视频,效果是大不相同的。我们知道,光速和音速不一样,因此我们的肢体行为和语言方面跟在ZOOM上也是不同的,这样更容易建立信任。因此在LLM中,必须要有相关的肢体语言,比如我们Facebook研究的副总裁说生成式语言必须要使用五个感官,不仅仅要在文本上,同时在视频以及在口语方面都必须进行相应的培训。

今天我一直在探讨ChatGPT,那中国有没有ChatGPT?在生成式AI行业方面,中国的行业和美国的行业之间有怎样的差异?

在美国,开放式AI生产出了ChatGPT,当然之前是GPT,其实它们是从2015年就开始做训练工作。今日,ChatGPT听起来似乎是一夜成名,好像一夜之间就有了一种新的人工智能,但事实并非如此,他们团队花了七年的时间去训练ChatGPT,它阅读了数十亿个文本,一共有17510亿参数。而在中国的系统里,到目前为止,参数大概是ChatGPT的十分之一,即200亿。比如MOOS系统,大概就是200亿的参数。

同时,两者在开放性程度上也不一样。OpenAI虽然他们在刚开始的时候承诺要把所有的一切都开放给所有人,但是当他们有了一个好产品之后,他们就封锁了,出了一个消费者的版本。但在中国是开源的,MOOS就是一个开源的产品,这意味着你们不仅仅可以使用MOSS,同时还可以进行再训练,可以改变它的工作流等。

中国在生成式的发展上比美国要稍晚一点,但在中国却有特别令人兴奋的发展:中国花了更短的时间来训练这个模型和体系,性能却同样好,而且模型更轻质化,可以在更小的计算机上运行——不再是超级计算机,所以未来也许在我们的手提电脑上就可以运行。所以差异也可以带来更好的系统和体系。

今天的中国,我们已经看到了一系列令人兴奋的商业倡议,也使用了生成式AI。比如短视频APP快手,就已经在使用AI来进一步改进客户的服务。目前,在座的各位可能都有了自己行业的聊天机器人,但聊天机器人可能会说错,它们的系统并不是特别好,但是OpenAI以及生成式AI就可以做更好的工作,可以按照客户所问的问题提供针对性的回答,而不仅仅是在问题和答案之间寻找匹配规律。商汤科技在这个领域也已经开展了很多工作,他们开发了一个聊天机器人以及图像生成器。百度的文心一言,不仅可以进一步改进搜索引擎的结果,也可以改进搜索引擎结果的使用程度,以及云的服务等等。华为的盘古体系,目前已经用到了药品开发过程中,药品开发也是生成式AI中特别令人兴奋的行业应用领域,因为这个系统、模型可以读成千上万的医学论文,可以帮助发现错误,以及查看到哪些药品有缺失,或是哪些化学品和物质可以重新组合在一起开发出新药品。另外,科大讯飞也推出了SporkDesk讯飞星火认知大模型。还有阿里巴巴的通义千问,他们可以使用这套体系基于比较简短的文本描述去创建网站。

现在已经有了非常多令人兴奋和成功的案例在中国,而这也意味着这个空间是开放给所有创业者的。

这对各位创业家和中小型企业来说意味着什么呢?当我们谈到这些大的科技公司时,最令人兴奋的事情之一是在线学习,因为我们可以搜集一些信息,对它进行很好的概括,再把它转变成较短的课程,帮助学生在不同的层级上简单便捷地学习,我们还可以自动评估学生的等级,把知识自动地转变成一些课程,同时对学生课程的反馈自动进行相应的反馈。或者是在创造病历以及管理病历方面,当医生讲话的时候,模型可以自动产生医疗的病历,同时管理病历,也可以对病历进行自动搜索等。

中国还有一个做的特别棒的方面就是把最新的技术跟最珍贵的文物进行结合,将中国古代相应的文本翻译成大家现在能够读得懂的语言,把它翻译成英文、法语、俄语以及其他的语言,让所有人都能够读懂古代文物的介绍。

生成式AI系统还可以帮助我们做研究。我在实验室中就是这样使用的,我们可以提出一些问题,比如到底哪些议题已经被研究过了、哪些没有研究过,也可以用这些模型查询,帮助我针对一些非常重要、但还没有解决的研究课题找到新的解决方式。

中国还面临着老龄化的问题,年轻人也不太想跟老年家人住在一起,新的AI和聊天机器人可以帮助我们照顾老年人,同时可以在必要的情况下联络家人,确保老年人不会在独居的时候摔倒等等。

现在中国由于没有足够多的学校,还有很多年轻人无法得到充足的教育,而现在,在线学习可以变的更好了。此外,目前在中国还有五分之一的年轻人没有工作的,这是非常糟糕的一个统计数据,我们并不希望这一代的年轻人出现失败;而这些系统需要创意和创造力,要求的是另外一种工作人员,比如能够提供提示,知道如何写文本描述的人,从而使AI产生相应的内容,所以年轻人也可以成为未来非常重要的提示人。

最后我想提一下,我特别喜欢来到中国,也特别喜欢中国的美食,所以我的梦想是有一天LLM将能够每天融合了一些菜谱、提供新菜谱,比如每天能有100个不同的菜谱,不仅可以做中国菜,同时还可以把法国菜和中国菜进行融合。我对融合菜非常感兴趣。

对于中小企业来说,他们也有很多机会,比如可以通过AIGC改善与客户的沟通。虽然中小企业没有资金投资聊天机器人或者自己开发,但是他可以利用一些相关的技术,可以有针对性的回复客户的确切问题,这跟现在的聊天机器人是不一样的。另外是营销材料,现在的中小企业会做一些网站和社交媒体的账户来进行营销,但却常常因为没有时间更新内容,而显得没有能力或特别懒惰。LLM的用途也可以用于产生营销材料,比如中小企业可以每小时进行一次更新,也可以每小时都发出新的社交媒体帖子,或每天总结帖子、并通过微信给所有的客户发送等。这是从市场营销角度出发的商业机会。

中小企业还可能没有专业的办公中心做商业决策或总结市场的数据,比如成功企业以及失败企业的数据。生成式AI也可以帮助我们生成内容,帮助中小企业了解市场的现状。

下面我说一点自己特别深信的内容。我第一次去做演讲的时候,是去中国最大的一个科技公司,我当时也被他们所说的话感震惊到了,他说,淘宝在跟一些老年人进行合作,所以他们见了中国的文化遗产,包括木匠、画家、雕刻师等文化遗产的传承人。所以中国应该要记住你们的优势,就是要把最新的技术跟你们最古老的文化相结合,这对任何中国公司来说都是能取得成功的。

刚才我非常乐观,觉得40岁就可以成为富翁退休了。其实没有那么容易,系统没有推理、也没有记忆,它们就像鹦鹉一样,所以我们要有相关的体系连接,才能使他们有准确的答案。它们还没有身体,也不知道如何实现感官来讲话等,它们不理解你为什么会有这样的肢体语言、面部语言等,同时这些模型也非常繁重,因为它们有大量的参数。因此我们必须要去减少参数的数量,这样预训练不需要花费那么长时间,而且也不会太昂贵。这一点非常重要,我们必须要来很好的筛选文本,使得生成式AI所调用的这些文件、文本,是用户也可以看到的,这样就不会显得那么可怕和危险,因为生成式AI参考的文本是公开的。

对一个公司来说,在使用新的生成式AI创造内容时,最为重要的是构建训练级。作为机器学习的研究人员,我们经常说垃圾进、垃圾出,当你的训练级构建非常糟糕的时候,客户将不再信任这些系统。所以我们使用这些系统的时候要微调,要按照技术、语言,包括你所属企业的所有知识来进行相应的微调,才能使得答案非常具有针对性,在你的公司里使用这些模型的时候还要确保所有的利益相关方都能够支持和使用,比如老板、员工、客户。同时你还要做一些焦点小组,让他们去了解这些使用的案例,因为哪怕最佳的技术,如果使用的人对它都没有信心,那么它也会失败,所以必须要有迭代的设计以及再设计,同时还有迭代型的检测测试来确保每一个人都能支持这个体系。

就像我之前提到的一样,LLM实际上就是预测下一个部分的规律,因此当你想去生成信息的时候,它应该跟非常好的信息建立连接,它需要有这样的根知识源的连接,才能实现非常好的创新。

总的来说,我想说我们也不能够仅仅按一下键就可以启航了等等,我们还需要非常多非常好的指导、监督、设计、运营,我们需要有非常好的创意者和经营者,这样AI才是一个非常好的基石。

大家想了解下一步会是什么,红杉资本也给我们提供了对于AIGC未来的预测,包括未来产生的图像会更好,产品会变的更加具体、更有针对性,它们不仅仅是草稿,还会提供最终稿的文件,会有更加准确的信息。同时不仅仅是这些文本和图像,视频、计算机游戏等等都可以通过AIGC的系统来产生。

下一步的人工智能浪潮是什么?我们已经看到了,就像我之前提到的多模态的AI,这一点也是我自己感到特别亲切的,大家都已经知道了多模态人工智能的重要性,还有新的系统,语言学习的人工智能,它们会建立一些比较小的软件来做任务中的一部分。所谓的语言学习人工智能是特别令人兴奋的,你可以给它一个任务,它可以自己来做,它会创造很多个人工智能的算法、很多生成式AI的功能,它会把任务分成很多个,一个一个地来完成。

另外在我之前所提到的一样,我们还必须要能够把系统使用的文件公开给用户,用户才能信任这个系统,同时信任你。我们的专业领域也提到了所谓可解释的人工智能,这个人工智能需要更加具有透明度,这样我们就知道它使用了什么样的文件、软件,以及它是如何做出决策和回答。

如果上述这些我们都做到了,我相信我们的AI生成的内容,未来的前景将会非常光明。


扫码加入黑马创业者交流群
↓↓↓

扫描下方二维码
加入黑马AIGC产业营
读懂AIGC底层逻辑,一步接入产业未来
↓↓↓

点击底部分享、赞和在看,完成三连击,把好的内容传递给更多需要的人。


更多精彩内容,尽在i黑马视频号

↓↓↓

关注黑马传播矩阵,get更多精彩内容
↓↓

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」贾斯汀·比伯的爸爸向性少数群体道歉…人工智能浪潮已至,国产医疗器械龙头迈瑞医疗提前布阵突圍下17(被列治文圖書館、加拿大中文電台好書推薦)多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接外部系统GitHub斩获2.2k星!多模态大语言模型首篇综述,论文列表实时更新“打包”BERT,Graphcore助力Pienso大语言模型更高效中方强烈谴责!“纯属无中生有,不要鹦鹉学舌”我们还能抓住什么给大语言模型“开个眼”,看图说话性能超CLIP!斯坦福等新方法无需多模态预训练丨开源征稿 | ACM MM 23 Workshop - 基于大语言模型的多模态研究和应用达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力多模态大语言模型综述来啦!一文带你理清多模态关键技术冷却的不止季节(43)— 贫与婪在文学城结下的美好情缘(外一篇)人工智能浪潮之巅,你的机会在哪?鹦鹉通过视频聊天结识网友,LeCun:将大模型称为「随机鹦鹉」是在侮辱鹦鹉智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手英伟达 CEO 黄仁勋:芯片制造是 AI 的「理想应用」 下一波浪潮是「具身人工智能」罗格斯大学华人团队开源OpenAGI平台:语言模型是AGI的入口,领域专家模型不可或缺花好月圆 心想事成 (Paint Markers)腾讯AI Lab发布多模态指令调优语言模型,支持图像、视频等四种不同模态微软与谷歌之战:语言模型会取代搜索引擎吗?10行代码媲美RLHF!谷歌DeepMind用游戏数据让大模型更像人类国内首个医疗大语言模型问世!多模态打通诊疗全流程,别再叫我做题家「AI专家」卡塞尔眼中的“中国机会”赋予LLM视觉理解能力,360人工智能研究院开源中文多模态对话模型SEEChat通用人工智能的下一步丨大模型专家访谈硬核课程全网首发!高级人工智能:多模态大模型LLM与AIGC前沿技术实战更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作社牛鹦鹉学会视频交友!LeCun嘲讽:叫大模型随机鹦鹉,太辱鹦鹉了​中科大和腾讯发布首篇《多模态大语言模型综述》大型语言模型专场上线!四位AI新青年直播讲解MiniGPT-4、LLaVA、Gorilla以及大型语言模型Token危机
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。