中科院自动化所「全模态」大模型亮相,图文音视频3D传感器信号都能理解
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI
大模型搞多模态,做文字、图像、音视频这几样就够了?
中科院自动化所说不:
我们还加入了3D点云和更多传感器信号。
国产大模型新成员,千亿参数全模态大模型「紫东太初2.0」正式亮相。
不光能认知和理解多模态数据,还能在多轮对话中进一步与用户交互。
AI离理解现实世界中复杂多样的信息,又近了一步。
而且不仅如此,多个数据,甚至不同模态数据一起出现也难不倒它。
对于车内视角和车外视角的两个视频,可以找出共同特点。
图书馆照片和汽车鸣笛音频一起出现,也能分析出奇怪之处并给出解释。
认知、推理之外,紫东太初2.0也可以完成多模态生成任务。
图像、音频、视频一起出现,就能结合起来讲一个完整的故事。
又或者提取多模态数据中的特征并进行模仿。
AI如何理解全模态?
为什么要做多模态甚至全模态?
团队介绍到,现实世界中本来就充满了复杂多样的异构信息,人类自己也是综合多模态信息去理解这个世界的。
从模态的种类来说,文本只是其中非常小的一部分。
但从数据收集的角度来说,文本却又是数据最丰富的。
AI最擅长的就是从海量数据中提取出隐藏的规律,所以语言大模型进展最快也就不奇怪了。
其他模态数据本来就少,尤其是做多模态需要的配对数据就更稀缺。
拿大家已经很熟悉的文生图AI绘画来说,训练阶段需要大量的图-文配对数据,生产成本已经很高。
要想得到充足的文字、图像、音频、视频、3D、信号等模态之间的配对数据,那就想都别想了。
学术界为这个问题也想出一种解决办法:
以其中一种模态为核心,作为桥梁连接其他模态。
在科研探索中又分化出两条路线。
国外Meta的ImageBind选择了以图像为核心,
国内的紫东太初2.0团队则是“以语言为核心”路线的代表。
团队对此的考量是,图像能表达的语义还是不够丰富,比如像抽象的概念最后还是得靠语言。
以语言为核心连接起全模态数据,也为AI大模型打开很多新的应用空间,在发布会现场也做了展示。
全模态大模型用在哪?
外科手术中除了需要用到视觉,触觉传感器数据也同样重要。
两种数据跨模态融合,就解决了机器人辅助手术中的国际性难题。
同样是医学领域,医学影像、患者照片、病例等结合起来,还可以辅助罕见病的鉴别诊断。
交通领域,多模态协同推理也能更精准研判违规行为。
对于网络谣言常见的视频画面与音频播报内容不一致的手段,多模态大模型也能加以识别。
企业和组织想要借助这些全模态能力开发应用,也可以直接到紫东太初大模型开放服务平台。
简单来说,就是AI应用开发全生命周期的每一个环节所对应的服务都安排好了。
开放服务平台内置MindSpore、Pytorch等主流开源深度学习框架,提供大模型下游微调、自动学习、可视化拖拽建模、交互式代码开发等不同建模方式。主打全方位国产可控、快速切入客户场景,以及简单易用的人工智能建模和应用。
全模态大模型怎么炼成的?
说起来,全模态大模型并不是凭空出现。
2020年1月,中科院自动化所就发起集团式攻关,聚焦多模态大模型路线
2021年9月,发布首个千亿参数三模态大模型紫东太初1.0, 做到多模态统一表示,相互生成、推理。
在应用实践过程中又发现数字时代万物互联的新需求,融入3D、视频、传感信号等更多模态数据,进一步突破感知、认知和决策的交互屏障。
但全模态也不是终点。
在发布会现场,中科院自动化研究所所长徐波表示,站在更宏观的视角,全模态大模型属于信息智能的突破。
未来要通向AGI,势必还要与另两大路线“类脑智能”和“博弈智能”再次融合。
— 完 —
「AIGC+垂直领域社群」
招募中!
欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!
请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。
点这里👇关注我,记得标星哦~
微信扫码关注该文公众号作者