Redian新闻
>
蚂蚁百灵大模型一号位:GPT-4o发布不意外,原生多模态方向已明

蚂蚁百灵大模型一号位:GPT-4o发布不意外,原生多模态方向已明

公众号新闻
白交 发自 凹非寺
量子位 | 公众号 QbitAI

与之前的版本相比,GPT-4o最大改进在于它在整合方面的精细度,它将所有模态集成在一个端到端的模型中(All in One)

OpenAI这三个关键能力值得借鉴:数据组织能力、技术聚焦以及工程优化。如果我们能把这些关键点做好,也有可能会开发出具有类似效果的模型。

原生多模态大模型,大概率成为国内大模型主要竞争点。

OpenAI再度用GPT-4o震撼世界,这一次将如何影响行业?蚂蚁AI创新研发与应用部门NextEvo一号位徐鹏博士如是说道。

谁是徐鹏博士?

徐鹏博士,目前是蚂蚁集团副总裁,AI创新研发与应用部门NextEvo一号位。他曾在谷歌工作11年,负责和领导了谷歌翻译的核心技术研发,并参与了谷歌显示广告系统的算法研发。NextEvo则承担了蚂蚁AI的所有核心技术研发,包括蚂蚁百灵大模型的所有研发工作。

据徐鹏透露,蚂蚁在今年年初判断了原生多模态的技术方向,并持续投入,目前正在研发全模态数字人和全模态智能体相关产品。

作为OpenAI第一个整合所有模态的大模型GPT-4o,它还拥有惊人的响应速度,这到底是如何做到的?给整个行业,以及躬身大模型的企业,又有哪些借鉴意义?

量子位第一时间同徐鹏博士聊了聊。在不改变原意的基础上,量子位联合各位大模型做了如下整理。

对话蚂蚁百灵大模型一号位徐鹏

1、怎么看OpenAI发布的GPT-4o?

徐鹏:今天OpenAI展示的这款demo产品并不出人意料。从OpenAI的角度来看,他们一直希望将语音能力和语言理解能力进行深度融合。几年前,他们推出了的Whisper语音识别模型,这可以看作是他们在这方面的早期研究。

他们将各种模态的数据,包括语音、图像、视频和文字,都整合在一个统一的表征框架下,这实际上是他们实现人工通用智能(AGI)的自然途径,因为在他们看来,人类就是这样一个多模态理解并交互的智能体。他们的智能体最终发展的方向也是如此。

从效果上来看,这次发布GPT-4o与之前的版本相比,最大的改进在于它在整合方面的精细度

它将所有模态集成在一个端到端的模型中,而之前的GPT-4在语音识别和语音回复方面还是由三个不同的模块完成的,尽管这些模块已经提供了相当不错的体验,尽管可能需要等待一两秒。

这次整合后,GPT 4o能够实现大约300毫秒的延迟响应,并且能够感知人的情绪以及其他非语音信号,这是一个非常显著的进步。

这也让人联想到,可能明天Google I/O发布也会有类似的功能,因为谷歌已经强调多模态原生模型作为其重要特点。因此,尽管我们期待的是GPT-5的推出,但他们推出这个产品是完全可以理解的,这在智能交互,特别是在超自然交互模式上,是一个巨大的进步。

2、这里面最厉害的地方在哪里?

徐鹏:我认为OpenAI一个非常厉害的措施是,在谷歌推出了原生多模态大模型Gemini之后,他们显然已经开始有计划地应对竞争。

在整合资源、聚焦突破方面,他们的组织能力确实值得敬佩。要开发这样的产品,无论是数据准备,还是端到端模型的训练,都需要处理极其庞大的数据量。虽然他们已经拥有像GPT-4作为基础,但要将模型训练完善并实现300毫秒以下的响应延迟,这无疑考验了他们在数据组织能力、技术聚焦以及工程优化方面的能力,这些成就确实值得称赞。

在借鉴他们的做法时,如果这些关键点能够做好,我们很可能会开发出具有类似效果的模型

近半年多来我注意到业界,包括国内一些公司在原生多模态领域已经进行了相当大的投入。虽然这些公司在投入速度上可能不及OpenAI,但在这一领域特别在端到端语音模型上也都取得了一定的进展。包括蚂蚁集团今年年初在原生多模态领域也做了战略判断和重大投入。

3、多模态与原生多模态之间的区别在哪里?

徐鹏:在我看来,多模态与原生多模态之间的主要区别在于实际应用时,系统背后是基于多个模型的简单协作,还是由单一模型端到端完成所有任务。

以之前GPT-4为例,它可以通过语音识别模型将语音转换为文字,也能通过图像识别模型提取图像内容,然后利用GPT-4的大型语言模型作为中控生成优质的回答。回答完毕后,系统决定是向用户返回一张图片、一段文字,还是通过语音合成技术返回一段语音输出。

这些功能在GPT-4中都是可行的,但它并不是一个原生多模态模型,而是由多个模型组合而成的,这些模型在训练时各自有独立的训练目标。

相比之下,原生多模态模型则将图像、文字、语音甚至视频等多种编码集成到一个模型中。在训练过程中,这些不同模态的数据被统一输入给模型内部学习。当不同模态的信息相关且指向同一类事物时,它们的内部表征是非常相似的。在生成阶段,模型可以更加灵活地利用统一的表征进行不同模态的生成。

因此,最核心的区别在于模型训练过程中,是否同时处理所有模态的数据,还是分别针对不同目标进行优化。

4、要从传统大模型技术思路转向原生多模态大模型,困难吗?

徐鹏:技术本身可能并不是大家想象中那样的难度,真正挑战在于实际操作过程中,如何有效地聚合多种模态的数据,然后做成一个能整合各种能力的端到端模型。

这其中不仅是工程方面的挑战,还涉及到数据的准备,以及在训练过程中采用何种方法能够使进展更加顺利。因为这样一个模型训练,过程中会遇到各种各样的小问题,解决这些问题需要经验和知识的积累。

5、会成为国内大模型公司竞争点吗?

徐鹏:我觉得大概率是会的。但不管是大厂还是初创公司,当中关键是能力的一个聚焦,然后在这个领域里面持续优化。

6、GPT-4o低延时,跟端到端训练有怎样关联?

徐鹏:这里面是有直接关联的。

以现有GPT-4为例在进行语音识别时,需要等待用户完整地表述完一句话,才能完成整句话识别。识别完成后,将整句话输入到后续的语言模型中,然后根据这些信息生成回复。再之后才能调用语音合成模型来转换成语音。

这个过程中可以进行一定程度的优化。例如,语音识别的输出到大模型理解这一环节,很难达到100%的融合,因为有些话语需要等到完全表述出来才能被理解。同样,在语音合成时输出的内容越多,合成的声调和语调等就越自然。

而现在将这些功能集成到一个模型中,各部分之间的依赖性就会降低。因为模型内部表征已经融合在一起,所以它可以更快地开始生成语音输出,而不必等待前面的所有信息都处理完毕。在这个模型内部,信息已经被统一表征,因此无需等待所有信息都准备好,就能作为一个整体进行处理。

7、怎么看它的商业价值?

徐鹏:我认为,OpenAI的这次发布会实际上并不是直接针对商业化的活动。在发布会上,他们提到了GPT-4o将对外界免费开放。

从这一点来看,OpenAI似乎更看重基于这种能力的未来发展潜力。他们期待未来有更多的企业能够在这一基础上开发出更自然的、能够与人交互的、更专业的产品,并通过这些产品实现商业化。

在过去由于技术条件的限制,产品设计上的一些创新想法很难实现突破,能做的东西相对有限。然而,GPT-4o模型的出现,将发展的上限提高了很多,使得不同行业的企业在进行业务设计时,可以更放心地将交互任务交给这种自然的交互模式。

8、能不能理解为OpenAI是想再形成一个新的入口,或者是成为一个超级入口

徐鹏:我认为是会这样的,然后包括他们跟苹果的这个合作、自研搜索引擎也是在朝着这个方向去努力的。

9、今天OpenAI展现出来新的软件形态,接下来如何平衡技术创新与商业模式之间的关系?与像苹果、多邻国之间合作关系如何演变?

徐鹏:我的理解是,技术能力固然重要,但要真正实现有效的实际应用,还需要深入理解不同业务领域和行业的核心需求。只有了解了行业面临的问题,技术的应用才能带来业务模式的变革,这也正是我们对AI发展所期待的——通过AI技术的发展推动新的业务模式改革。

目前看来,OpenAI似乎更专注于技术层面的深入准备。他们之前推出的GPT Store旨在鼓励开发者利用GPT技术开发自己的应用程序。然而,就目前而言,这些应用在深度和广度上可能还未达到OpenAI预期能引发行业变革的程度。

但我认为,OpenAI这次的技术展示可能会激发更多的期待和探索。更多的行业参与者可能会愿意利用其技术能力,在业务模式上进行更深入的探索。尽管目前商业上能否取得成功还是未知数,但我认为这需要结合对行业的深入理解,真正融入行业内部,才能实现行业内的实质性变革。OpenAI所提供的基础,为未来的变革提供了良好的起点。

10、如果是产品经理这样一个创业人物,想基于这个百灵或者是蚂蚁生态去做应用创新,那我应该做什么?不做什么?

徐鹏:我不是做产品经理的,我只能通过技术这个角度探讨产品与技术应该如何合作。毕竟,产品最终是要服务于用户的。我认为产品经理应该做的是深入理解当前AI模型发展,明确其能力边界所在,并预判能力提升的可能方向。在此基础上,去思考这些能力如何为用户创造价值,以及它们将如何影响用户的使用习惯。

从蚂蚁集团的角度来看,我们拥有底层技术,并不断演进这方面的技术,我们不担心在技术上落后太多。我认为,我们更应该在产品层面进行投入,思考如何创造出真正有价值的产品,更快地与用户建立联系,让用户通过这种全新极致体验的交互模式迅速获得服务。

这可能是我们未来产品开发中需要重点关注的方向。

11、人机交互体验上面,还有哪些技术挑战?原生多模态这条路径是最好的吗?

徐鹏:这次GPT-4o发布确实令人惊艳,它能一定程度捕捉说话者语音语调和语气,还能通过视觉能力识别人的面部表情和情绪。但这些能力在实际应用场景中能够达到什么程度,还需要进一步探索和验证。

但像这种能在交流过程中全方位理解这个人,无疑是未来产品和技术发展中需要突破的重要方向,到时会带来真正的交互变革。

原生多模态这条路径应该是体验最好的,尤其在交互流畅度上面。但技术难度不小,比如要准确地理解和响应所有视觉和听觉信息;此外,相较于多模态数据,单模态数据收集会相对容易一些。

接下来的产品决策需要考虑的是,这种极致的体验对于产品来说是否刚需。另一方面,我们是否可以利用单模态数据进行合成,生成有助于模型训练的合成数据。

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
【你的样子】听歌超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源GPT梗图理解“天花板”!港中文终身教授贾佳亚团队推出多模态模型:GPT-4+DALL-E 3,王炸组合刷爆榜单北京内推 |​ 商汤研究院基础多模态大模型组招聘多模态方向算法实习生可转正!腾讯微信部门诚招博士/大咖实习生多模态方向日本东京地方法院驳回AI“发明”专利申请:发明人仅限于人类;Meta首发「变色龙」挑战GPT-4o,引领多模态革命丨AIGC日报OpenAI爆炸更新:GPT-4免费了!新模型GPT-4o发布,视觉、语音能力大幅增强,速度起飞,API打骨折超ChatGPT-4o,国产大模型竟然更懂翻译,8款大模型深度测评|AI 横评《歌德堡变奏曲1551》OpenAI掌门人最新专访:GPT-4o让我爱不释手 下代大模型可能不叫GPT-5鲶鱼效应显著!Sora 发布满月,多模态领域成果丰硕 | 大模型一周大事惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发未央播报 | 央行进一步推动优化支付服务工作 OpenAI发布多模态大模型GPT-4oMeta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA博士申请 | 清华大学交叉信息院MARS Lab招收具身智能/多模态方向博士生OpenAI发布新旗舰模型GPT-4o;字节跳动正式发布豆包大模型|AIGC周观察第四十三期​Gemini终于赢了GPT-4o!Video-MME首个视频多模态基准来了!不负春光(花朵美食图)元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入AI早知道|元象开源首个多模态大模型XVERSE-V;信通院发布国内首个汽车大模型标准《歌德堡变奏曲1552》GPT-4o仅排第二!北大港大等6所高校联手,发布权威多模态大模型榜单!多领域文献阅读超越GPT-4!深势科技发布科学文献多模态大模型Uni-SMART技术报告ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5首个多模态视频竞技场Video-MME来了!Gemini全面超越GPT-4o,Jeff Dean连转三次中国版GPT-4o炸场:国内首个流式多模态交互模型,现场实时且丝滑多模态GPT-4o来了,最先嗨起来的是一波女性用户回忆我的英文老师发布屡次截胡?OpenAI与谷歌携新版大模型再度交锋 | 大模型一周大事大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事蚂蚁集团招聘多模态方向实习生/研究员五光十色的多模态大模型:浅探视觉-语言大模型的关键模块设计GPT-4o成为全领域SOTA!基准测试远超Gemini和Claude,多模态功能远超GPT-4GPT-4o 与 Gemini 能否用多模态撬开下一代 AI 的新进程?中国移动千亿多模态大模型发布,「九天-九九」风趣畅聊堪比GPT-4o
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。