Redian新闻
>
多模态与认知相遇,探索更像孩子一样的学习方式 | CNCC 专家谈

多模态与认知相遇,探索更像孩子一样的学习方式 | CNCC 专家谈

公众号新闻
在即将于今年12月8-10日在贵阳举办的 CNCC2022 期间,122 个涵盖计算+行业、人工智能、云计算、教育、安全等 30 个热门专业领域的技术论坛上,近700位专家将着力探讨计算技术与未来宏观发展趋势,其中不乏在各领域深具影响力的重磅学者专家并担纲论坛主席。

本专题力邀 CNCC2022 技术论坛主席亲自撰稿,分享独家观点,带你提前走进 CNCC,领略其独特魅力。

本期特别嘉宾:

文继荣 CCF 常务理事,中国人民大学教授、信息学院院长&高瓴人工智能学院执行院长

宋睿华 中国人民大学高瓴人工智能学院长聘副教授

多模态与认知相遇,探索更像孩子一样的学习方式——文继荣、宋睿华

最近时常会被朋友圈里AI生成的作品惊艳到,比如,图1是用“从荒芜到生命”作为提示词,在 midjourney.com 上生成的多幅作品中的两幅。伴随着AI生成作品的破圈应用,以及关于多模态的综述、趋势和技术详解等前沿成果接连涌现,让人不禁感慨:藏不住了,多模态实火。  

图1. 用midjourney.com生成的两幅《从荒芜到生命》



1

那什么是多模态?

从早至上个世纪启发自读唇语的语音识别/情感识别,到应用于太空的多光谱/高光谱相机对地观测,再到手机人脸识别用到的红外和 RGB 相机,可以说多模态研究历史悠久、涵盖广泛。它的研究领域及应用和我们的生活息息相关。而我们就生活在这样一个多模态世界中。

人脑在感知和理解世界时不仅仅局限于单一模态,通过引入多样化、更为全面的模态信息,我们期望获得更强的学习能力与更好的学习效果。一双眼睛提供了视觉信息,耳朵提供了声音信息,鼻子提供了嗅觉,舌头提供了味觉。当这几种感官聚焦在一起时,我们方才了解:“哦,面前这道菜‘色香味’俱全!”这种与生俱来的多感官认知能力让无数认知学家为之向往,也启发着人工智能领域的研究者设计并打造多模态信息处理的相关高效算法。



2

多模态为什么这么火?

认知科学领域上世纪90年代开始的具身革命,为多模态研究提供了认知基础。具身(Embodied,也译为“体验”)模拟假说认为思考以及使用语言的能力,并非只和头脑相关,而是我们的肉身与头脑合作的成果。这里的肉身就包括声音、视觉、味道、气味、触感和运动等模态。

不断有巧妙设计的认知实验,以及利用精密的眼动仪器和 fMRI 的实验结果,提供证据支持这一假说。正如,本杰明·博根教授在他的著作《我们赖以生存的意义》中的举例(如图2),当看到“北极熊爱吃海豹肉,而且爱吃新鲜的”这个句子,一刹那,我们的脑袋里很可能会浮现出北极熊和海豹的样子;看到“它爱吃新鲜的”,我们可能会有一点要流口水的感觉;当我们看到文字描写北极熊是怎么捉海豹的,讲到了它“一跃而起,伸出爪子,露出獠牙”,则很可能有一种想张嘴伸出手的冲动。这些都与我们对文字所描述的景象进行了多模态的模拟相关。 

图2.  来自《我们赖以生存的意义》的例子

如果人工智能也可以对文字进行跨模态的模拟,比如检索或生成“北极熊几乎可以完美地将自己隐身于周遭的冰天雪地”对应的画面,尽管原文中没有提到过颜色相关的词,我们也可能从对应的画面中推理出北极熊是白色,而周遭的冰天雪地也是白色。这样一来,视觉模拟为人工智能补上了文字所省略的常识,它们也就有可能像我们一样理解这句话的含义。

多模态的大火也和 Transformer 为代表的通用骨干网络在文本、语音和视觉领域的诸多任务上取得广泛成功不无关系。统一的模型架构让多模态信息的融合变得简单而有效,训练起来也并不麻烦。当然,互联网上取之不尽的图片文本数据,以及近年来持续增长的短视频数据,都给基于自监督的多模态预训练模型提供了充足的数据。

例如,在北京智源研究院的支持下,中国人民大学文继荣教授牵头的文澜项目,继去年发布 6.5 亿图文数据上训练得到的文澜 2.0 模型、展现出图片跨模态搜索歌词或者古诗的惊人能力之后,今年6月又发布了1千万视频文本数据上训练得到的文澜 3.0 模型,并基于此实现了多种有趣的多模态应用。例如,让机器狗对环境作出自然反应,以及让AI可以根据任意的视觉场景发起多模态对话(见视频)。




3

多模态都研究啥?

京东集团副总裁何晓冬曾将多模态的研究现状归纳为多模态表征学习、多模态信息融合和多模态智能应用【1】。多模态表征学习研究将多个模态数据所蕴含的语义信息投影到连续向量表征空间以进行信息融合和推理。

随着 OpenAI CLIP 的成功,双塔模型逐渐取代单塔成为研究的主流,最新工作如BLIP 则可以考虑多个任务联合学习多模态表征。多模态信息融合除了研究如何融合不同模态的信息,以完成复杂的多模态任务,也包括研究不同模态之间的元素的对应关系,比如视觉模态中的物体和姿态与语言模态中的实体和概念。字节跳动 AI Lab 李航团队深入研究跨模态特征关联方法,提出了多粒度视觉语言模型(X-VLM)、图片和文本统一生成模型(Davinci)等具有较强跨模态特征融合能力的模型。

多模态智能应用就更加丰富多彩,包括视觉转文字、文字转视觉,视觉问答、多模态检索、视觉+语言导航、多模态人机对话与交互等。例如,由微软亚洲研究院、北京大学联合提出的可以同时覆盖语言、图像和视频的统一多模态模型女娲,可以为各种视觉合成任务生成新的图像和视频数据,或对其进行编辑。而对于文本生成视频任务,当输入不同的文字指引时,女娲模型亦可以在原视频的基础上生成不同内容的视频,从而与文字匹配,所生成的视频非常符合人类对客观世界的认知。

输入一个潜水员潜水的视频,但用文字“潜水员游向水面”影响视频生成时,接下来人会上浮;当用“潜水员游向海底”影响时,则会生成潜水员向下的视频;当用“潜水员游向天空”这样的文字去影响时,潜水员不仅向上,背景还会变成蓝色的天空。



4

多模态和认知有哪些交叉研究?

随着多模态预训练大模型的发展,人们开始好奇大模型到底学习到了什么?2022年6月,Nature 子刊发表了一篇中国人民大学高瓴人工智能学院卢志武教授、孙浩长聘副教授以及文继荣教授作为共同通讯作者的论文“Towards Artificial General Intelligence via a Multimodal Foundation Model”【2】。

这一研究中,文澜 BriVL 模型从一张噪声图开始,进行图像编码之后与“时间”这一词进行文本编码后进行比较,差异通过反向传播对输入的噪声图进行修改,逐渐缩小图像与文本在编码上的距离,于是我们就能够看到大模型是如何理解时间这一概念的。如图3所示,里面隐约可以看到时针和钟表的轮廓。  

图3. 可视化文澜 BriVL 模型对“时间”和“科学”的理解

当人工智能科学家从人脑的机制中汲取灵感,训练双塔模型来对齐一个概念的文字和视觉时,脑科学家们也注意到这一进展。他们反过来,想利用这一技术把收集到的人脑活动信号可视化。中科院自动化所何晖光团队提出了一个基于多视图贝叶斯深度生成模型、可通过 fMRI 信号重建看到的图像(见图4)。更进一步,他们提出的学习框架,基于多视图对抗学习,将大脑活动模式的语义解码和图像重建任务统一,利用脑活动和视觉图像语义特征进行交互学习,弥补了不同模态之间的鸿沟。【3,4】 

图4. 通过贝叶斯推断重建感知到的视觉图像

在多模态机器人可能成为人类生活中重要伴侣的智能时代,心理学和认知科学家同时关心,如何让机器人理解并学习人类的行为,从而更好地融入人类社会。华东师范大学心理与认知科学学院蒯曙光教授团队,突破了长期以来仅在概念层面研究这一问题的困境,构建了基于虚拟情景的人类行为实验平台,通过定量化的实验和数学建模的方法,量化人类社会交互的行为,并将其算法化,应用到机器人的空间导航任务中,从而有效地提升了服务机器人的社会友好性。



5

多模态让人工智能更像人

最近,图灵奖得主 Yann LeCun 与合作者在 Noema 杂志上发表了一篇文章【5】,指出大型语言模型无法接近人类水平的智能,他们给出的原因是语言只支撑了人类全部知识的一小部分,且大部分人类知识和所有动物的知识都是非语言的。

的确,正如具身模拟假说所描述的,人类用多模态的经历做模拟来理解语义。人类水平的智能不会只有语言的部分,多模态与语言模型的结合似乎是一种突破语言模型的合理选择,但以何种方式结合还有待研究。随着越来越有价值的多模态应用的出现,多模态与认知结合的威力或将在近几年凸显。

本年度 CNCC 大会拟组织“多模态学习与认知——AI可以像孩子一样学习吗?”技术论坛,从事多模态研究的人工智能领域与认知领域的一线科学家们将齐集一堂,给大家带来精彩的报告和观点碰撞、领域交叉的深度研讨,敬请关注。

论坛名称:多模态学习与认知——AI可以像孩子一样学习吗?

主席:文继荣 CCF常务理事,中国人民大学教授、信息学院院长&高瓴人工智能学院执行院长


共同主席:宋睿华 中国人民大学高瓴人工智能学院长聘副教授

参考文献:
【1】何晓冬,AI研习丨何晓冬:语言与视觉的跨模态智能q
https://www.sohu.com/a/374822896_505819
【2】费楠益,卢志武*,高一钊,杨国兴,霍宇琦,温静远,卢浩宇,宋睿华,高欣,向滔,孙浩*,文继荣*,Towards Artificial General Intelligence via a Multimodal Foundation Model,Nature Communications, 2022 
https://www.nature.com/articles/s41467-022-30761-2
【3】Nanyi Fei, Zhiwu Lu*, Yizhao Gao, Guoxing Yang, Yuqi Huo, Jingyuan Wen, Haoyu Lu, Ruihua Song, Xin Gao, Tao Xiang, Hao Sun* and Ji-Rong Wen*, Towards artificial general intelligence via a multimodal foundation model, Nature Communications (Nat Commun), vol. 13, article no. 3094, 2022
【4】Changde Du,Changying Du,Huiguang He, Multimodal Deep Generative Adversarial Models for Scalable Doubly Semi-supervised Learning , Information Fusion, 2021, 68, pp:118-130

【5】https://www.noemamag.com/ai-and-the-limits-of-language/

更多内容,点击下方关注:
扫码添加 AI 科技评论 微信号,投稿&进群:

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!


公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一张滑雪照,探索雪场上不一样的自己龙卷风健康快递 209老教师感叹:同样上网课,不一样的家长,不一样的结局!CNCC 组委会解读 | PC 主席刘云浩谈 KN 及大会论坛如何设计在新征程上奋力实现高水平科技自立自强——院士专家谈学习贯彻党的二十大精神大国"科幻"武器-地缘战争决定因素?如愿初入清华疫情三年:同样上网课,不一样的家长,不一样的结局…令人心动的AI offer(四):AIGC、多模态、强化学习、高性能计算等职位,来自腾讯、博世、超参数、智源研究院、MSRA122 场前沿技术论坛!图灵奖得主、5 位院士邀你参加中国计算机大会 | CNCC 2022深圳首次发现BF.7变异株,官方:极易造成大面积传播!路边相遇,一个细节导致感染,关联病例已超20例!最新疫情通报陌上深圳012 期待相遇,珍惜当下的选择,就是最好的选择医疗多模态预训练:如何利用非天然配对的医疗图像和文本做对比学习?盛邀相聚贵阳,共赴“计算”之约,CNCC2022新闻发布会举行大厂都在研究的多模态学习 , 到底有多强?基于自监督学习的多模态推荐算法2022 第四届留学生网万人公益接机完美落幕!感谢相遇,未来一路「留学生网」继续与你温暖同行!拓璐:正是这场相遇,点燃了生命中的“戏剧”火光确定了,CNCC将通过九平台直播,日程与观看方法请查收!南极 | 穿越南极圈,去探索更“难”极的冰封世界今年 CNCC 会给参会者带来哪些收获?TPAMI 2023 特刊征稿!大规模多模态学习!古今相遇,现代与传统交汇的日本关东地区……二舅妈的精神是否治好了你的精神内耗?NeurIPS 2022 | 首个标注详细解释的多模态科学问答数据集,深度学习模型推理有了思维链北京内推 | 微软研究院科学智能中心招聘多模态学习方向研究实习生从视音角度看多模态学习的过去与未来老教师感叹:同样上网课,不一样的家长,不一样的结局!(再忙也要看看)不一样的国产,不一样的钱江摩托南洋理工计算机视觉科研项目招生(仅限机器学习,深度学习,AI,迁移学习方向)如脂似玉的白瓷,与精致的银器相遇,真是指尖的风雅【留学生日回顾】感谢相遇,让我们携手共同跨入下一个十年!风陵渡口初相遇,一遇杨过误终身这样的相遇,会让你体会到“人间值得”
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。