Redian新闻
>
ACM MM 2024深度多模态生成和检索研讨会,诚邀各界专家学者参与

ACM MM 2024深度多模态生成和检索研讨会,诚邀各界专家学者参与

公众号新闻



简介


The 2nd International Workshop on Deep Multimodal Generation and Retrieval (MMGR) at ACM Multimedia 2024 focuses on the advancements in deep multimodal learning, emphasizing the integration of diverse data modalities such as text, images, audio, and video. This workshop aims to bring together researchers and practitioners to discuss original ideas, perspectives, and challenges in multimodal semantics understanding, generative models, multimodal information retrieval, and explainable and reliable multimodal learning. 


信息生成(IG)和信息检索(IR)是两种主要的信息获取方式,即通过生成或检索来获取内容。虽然传统的IG和IR技术在语言处理领域取得了巨大成功,但在不同模态(如文本、图像、音频和视频)数据源的利用不足,可能会限制IG和IR技术的全面发展,从而影响其在现实世界中的应用。鉴于我们的世界充满了多媒体信息,本次研讨会鼓励在IG和IR研究中发展深度多模态学习。 


多模态数据类型和技术,如DALL-E、Stable Diffusion、GPT-4和Sora,展示了在多模态IG和IR学习中的巨大潜力。然而,这些领域中仍存在许多未解决的挑战和开放性问题。通过本次研讨会,我们希望鼓励在深度多模态生成与检索领域的更多探索,为相关方向的研究人员提供一个分享见解和进展的平台,以推动这一快速发展的领域。



重要时间点



Paper Submission

July 19, 2024 (AoE)

Notification of Acceptance

August 5, 2024 (AoE)

Camera-ready Submission

August 19, 2024 (AoE) [Firm Deadline]

Workshop Dates

28 October - 1 November, 2024 (AoE)



论文主题


1. Multimodal Semantics Understanding: 

  • Vision-Language Alignment Analysis

  • Multimodal Fusion and Embeddings

  • Large-scale Vision-Language Pre-training

  • Structured Vision-Language Learning

  • Commonsense-aware Vision-Language Learning

  • Visually Grounded Language Parsing

2. Generative Models for Image/Video Synthesis: 

  • Text-free/conditioned Image Synthesis

  • Temporal Coherence in Video Generation

  • Image/Video Editing and Inpainting

  • Visual Style Transfer

  • Multimodal Dialogue Response Generation

3. Multimodal Information Retrieval:

  • Image/Video-Text Compositional Retrieval

  • Image/Video Moment Retrieval

  • Image/Video Captioning

  • Multimodal Retrieval with MLLMs

4. Explainable and Reliable Multimodal Learning: 

Explainable Multimodal Retrieval 

Adversarial Attack and Defense 

Multimodal Learning for Social Good 

Efficient Learning of MLLMs


提交类型


1. Position or Perspective Papers: Original ideas, perspectives, research visions, and open challenges in the workshop topics. (4 pages + 1-page reference or 8 pages + 2-page reference) 

2. Featured Papers: Already published papers or papers summarizing existing publications relevant to the workshop topics. 

3. Demonstration Papers: Original or already published prototypes and operational evaluation approaches. (Up to 2 pages + unlimited references)



提交方式


Submissions should be written in English and formatted according to the current ACM two-column conference format. Authors must anonymize their submissions. Suitable LaTeX, Word, and Overleaf templates are available on the ACM website. Submissions can be made through OpenReview.



审稿过程


All submissions will be peer-reviewed by at least two experts in the field. The review process will be two-way anonymized. Accepted papers will be published in the ACM Digital Library, and high-quality papers can be recommended to a special issue in ACM ToMM. 



组织者团队


Wei Ji: National University of Singapore

Hao Fei: National University of Singapore

Yinwei Wei: Monash University

Zhedong Zheng: University of Macau

Juncheng Li: National University of Singapore

Long Chen: The Hong Kong University of Science and Technology

Lizi Liao: Singapore Management University

Yueting Zhuang: Zhejiang University

Roger Zimmermann: National University of Singapore




For more details, visit the MMGR24 Workshop page.

https://videorelation.nextcenter.org/MMGR24/





#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
伽马射线暴的研究难点[照片] 2024深圳荷花赏-深圳洪湖公园YSSNLP2024注册开放丨第二十一届自然语言处理青年学者研讨会全日程公开周末逛逛晚晴园,吃点南洋美食,明天又要搬砖了人大教授张鸣:专家学者在民众眼里已经很贱了欢迎科技工作者参与的公共事务调查开会倒数一周 | 第二十一届自然语言处理青年学者研讨会(YSSNLP2024)开启注册(非委员可注册)非委员可注册 | 第二十一届自然语言处理青年学者研讨会(YSSNLP2024)早鸟票注册倒计时2天大语言模型何时需要检索?UCLA提出全新自监督选择性检索策略CCL2024-Eval | 儿童故事常识推理与寓意理解评测正式开启,诚邀您积极参与旧金山各界参与2024自行车日伽马射线暴ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能科技工作者参与公共事务调查北京内推 |​ 商汤研究院基础多模态大模型组招聘多模态方向算法实习生【征稿进行中】IEEE ICCT 2024征稿火热进行中,诚邀投稿!1未央播报 | 7.34万个人投资者参与“跨境理财通”试点;“先买后付”平台Klarna出售虚拟购物平台Hero【报名倒计时】2024空间多维组学创新转化研讨会,4月12日上海开幕![电脑] 不只是轻薄,还有更多惊喜等你发现丨零刻SEi14深度评测上海交大新框架解锁CLIP长文本能力,多模态生成细节拿捏,图像检索能力显著提升四大之一 | Deloitte 2024审计及鉴证部门开放招聘,诚邀留学生WWW 2024 | 华为、清华提出个性化多模态生成新方法,让AIGC更懂你2024深圳童车婴童展收官!1400家参展商与6.7万专业观众共话婴童行业新篇章ACM MM 2024 以人为中心多媒体分析研讨会,诚邀各界专家学者参与ICLR 2024 | 量化和增强模态偏好影响下的多模态鲁棒性2增长下一年!把握行业发展风向标,2024深圳童车婴童展不容错过!CVPR 2024 | 多模态合作学习的新视角:样本级模态的评估与协同HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛发挥人才优势,助推企业出海 | 2024深圳企业出海人才发展交流会AI生图可“量身定制”了,华为&清华联手打造个性化多模态生成方法PMGMamba将在MICCAI 2024、ACM MM 2024和ECCV 2024上爆发?!CCL2024-Eval | 第二届汉语框架语义解析评测正式开启,诚邀各界专家学者参与Apple多模态最新工作4M-21:搞定21种模态!刷新多个SOTA!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。