Redian新闻
>
中文多模态对话数据集-TikTalk

中文多模态对话数据集-TikTalk

公众号新闻


来自:NLP工作站


进NLP群—>加入NLP交流群

写在前面

早起刷arxiv,刷到一篇中文多模态对话数据集,分享给大家,全名为《TikTalk: A Multi-Modal Dialogue Dataset for Real-World Chitchat》,即一个真实闲聊多模态数据集,共包括38703个视频和相应367670个对话。

paper: https://arxiv.org/pdf/2301.05880.pdf
github: https://github.com/RUC-AIMind/TikTalk

介绍

随着大量预训练语言模型在文本对话任务中的出色表现,以及多模态的发展,在对话中引入多模态信息已经引起了大量学者的关注。目前已经提出了各种各样的多模态对话数据集,主要来自电影、电视剧、社交媒体平台等,但这些数据与真实世界的日常聊天对话之间还是存在一些差距。

  • 对话形式过于同质化。视频中的现场评论缺乏明确背景,更偏向于评论,并充斥着重复的数据用来活跃气氛。而从影视剧中提取出来的对话内容或解说员根据指定图片提出的对话内容,都不是现实对话场景中自然生成的聊天,而是为了推动情节发展设计的一些人物台词或高度依赖形象。
  • 缺乏对话的时间顺序。现实世界的多模态对话场景可能包含具有时间顺序的不同上下文,而目前大多数数据集中的静态图片所能提供的信息有限,限制了对话参与者在主题方面的多样性。并且不同的语言语境中存在着独特的表达方式和流行文化,很难进行翻译或迁移到其他语言。

因此,该论文提出了具有独特特色的中文多模态对话数据集-TikTalk。TikTalk是基于视频的真实世界人类聊天语料库,是开放域的,并由用户自发生成非故意创建的数据集。其中,与图像、音频和外部知识相关的回复占比分别为42%、10%和34%,如图1(a)所示,聊天源于视频内容,图1(b)中的“其他表演”和舞蹈分析需要一些外部知识,图1(c)中的对话建立在音频内容之上。最后采用排名、相关性和多样性三种度量指标对现有生成模型进行分析,发现模型与人类表现仍有很大差距,在TikTalk数据集上有相当大的改进空间。

TikTalk Dataset

TikTalk数据集从抖音上采集,其抖音拥有超过25个大类的视频,如教育、美食、游戏、旅游、娱乐等。每个视频都有作者提供的标题和用户的评论。用户可以在视频和一级评论下进行进一步的讨论,这接近于现实世界面对面的多模态聊天场景。

Data Construction

该论文收集了2021年在抖音上发布的视频,以及标题、评论和回复。为了保护隐私,没有抓取任何用户信息。由于视频基数大,视频质量良莠不齐,大部分视频只有一级评论,无法构成对话语料库。由于视频高赞、评论高赞表示用户评分高,因此在爬取数据时通过点赞数过滤低质量的视频和评论。

数据清理时,用正则表达式过滤掉句子中无用的内容,例如:“@某人”、重复的词语、以及一些不道德的言论等;此外,评论中带有的表情符号,通常可以表明用户的情绪,因此,从对话中提取它们,并作为附加信息。

Data Statistics

该论文共爬取153340个视频,最终获取38703个视频和367670个对话来构建TikTalk数据集。将训练集、验证集和测试集按照35703、1000和2000进行划分,详细统计数据见表2。可以看出,视频平均长度为34.03s,提供了丰富的视频和音频信息;每段对话的平均轮数为2.25,由于对话的文本上下文较短,回复更有可能来自视频或外部知识。

Data Analysis

TikTalk数据集有如下几个特征:

  • 高度自发和自由,对话是由用户观看视频后发起,没有任何的预先的意图及指导,类似于现实世界中的日常闲聊。
  • 多种模式,对话上下文包括相关的图像、音频和文本,提供了更多样化的信息来源,同时也对聊天场景进行了更多的限制,提高了回答的可信度标准。
  • 开放领域的,由于社交平台是开放域的,讨论话题也十分丰富。

观察数据发现,对话回复中经常包含与上下文信息相关的词语,例如:图1(a)中的“it”为视频中的“海鸥”,图1(c)中讨论了音频描述的故事,图1(b)中的回复中为上下文观点,并分析了视频外的其他节目,与个人经验及常识相关。因此,该论文分析了数据及中数据与各种信息相关的响应占比,包括视频中的视觉内容和音频内容、文本内容及隐形的外部知识。采用众包的方式进行数据标注,并选择另外其他三个具有代表性的对话数据集(每个数据集随机选取300个样本)进行对比。

从回复中提取名词和代词,要求标注人员判断这些词语或完整的回复是否是指:(1)视频上下文;(2)音频上下文;(3)文本上下文;(4)隐藏外部知识;(5)其他。并且,回复可以涉及多种模式的信息。

四种数据的比较如图2(a)所示。TikTalk数据除去文本上下文和外部知识后,信息源占比最高,表示视频中的图像和音频可以提供更多的信息。来自外部知识的回复比例最高(约33%,说明),说明多模态上下文更丰富时,会引入更多与当前对话相关的新信息。进一步探究IGC和TikTalk之间的差异,研究当对话轮数数增加时,IGC和TikTalk对不同上下文的依赖性,如图2(b)和(c)所示。IGC数据集中图像与对话的比例显著下降,而TikTalk数据集中没有这种趋势。可能是因为IGC的每个对话中只使用一个图像,随着时间的推移,可用的信息越来越少。

Experiments

采用三个自动指标(相关性、排序、多样性),从多个角度评估模型在TikTalk上的性能,

  • 相关性:针对模型生成的回复,与5个金标准计算BLEU-2、BLEU-4 、Meteor、Rouge-L和CIDEr。
  • 排序:每段对话构建一个100个样本的候选集,其中包括5个金标准和95个随机选择的错误回复。在推理阶段,模型根据生成每个回复的对数似然分数降序对候选集进行排序。计算Recall@K和Mean Rank。
  • 多样性:计算回复的Dist-1和Dist-2指标。

从不同的任务和设置中评估一些最先进的对话模型,包括:Livebot、DialoGPT、Maria、Maria-Audio、Maria-C3KG等。为了适应TikTalk的特点,在现有的基于图像的对话模型中引入音频和外部知识作为输入,并分别对模型的性能进行评估。

实验结果如表3所示,可以看出TikTalk与以前的任务和数据集有很大不同,需要更强大的多模态对话模型。从测试集和上述基线模型生成结果中选择了一些数据示例,对比结果如图3所示。由于视频场景和用户个性的多样性,TikTalk数据集需要复杂的理解和推理能力。虽然部分基线偶尔可以产生一些合理的响应,但它们远远不能满足现实世界多模式对话的期望。

总结

中文数据集,且用且珍惜。



进NLP群—>加入NLP交流群

    微信扫码关注该文公众号作者

    戳这里提交新闻线索和高质量文章给我们。
    相关阅读
    NTU教授:多模态传感器融合算法|收获一作论文与导师推荐信!荷兰人为什么要造风车?投稿招募 | 首届多模态可穿戴信号理解AmbientAI Workshop @ ICASSP 2023ACC 重磅 | 稳定性冠心病:首次多模态成像研究结果,支持PCSK9抑制剂强化降脂治疗AAAI 2023 | 如何识别未知标签?多模态知识迁移框架实现新SOTA與香港盲人輔導會的一段緣从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力​WWW 2023 | 自监督多模态推荐系统超越CLIP!谷歌大脑多模态学习新作CLIPPO:仅从像素理解图像和语言Conagen和Natáur达成合作,生产可持续天然牛磺酸哈工大讯飞联合实验室发布图文多模态预训练模型VLE《更多的诗歌》: 7 : 星星呀,我看见它们往下掉AdaSeq基础能力 | 30+NER数据汇总,涉及多行业、多模态命名实体识别数据集收集多模态再次统一!Meta发布自监督算法data2vec 2.0:训练效率最高提升16倍!多模态 | 视觉-语言预训练入门指南AAAI 2023 Oral | 如何识别未知标签?多模态知识迁移框架实现新SOTAOFA-Chinese:中文多模态统一预训练模型多模态推荐系统最新进展总结面向关系型数据与知识图谱的数据集成技术综述大厂都在研究的多模态学习 , 到底有多强?微软多模态ChatGPT来了?16亿参数搞定看图答题、智商测验等任务AAAI 2023|基于多模态标签聚合的视频检索模型TABLE,多项SOTACORGI-PM:首个中文性别偏见探索和缓解数据集《山居续忆》:第二十六章:我们的音乐沙龙 —— 兼谈我的音乐观 (一)写作动机最新!多模态论文汇总BLIP-2:下一代多模态模型的雏形AAAI 2023 | 多模态对话的SPRING来了!无需标注就能做多模态问答预训练2022首届全球数字生态大会圆满举办,共话数字产业发展之道7 Papers & Radios | AI绘画引入人类反馈;微软多模态ChatGPT?细数NLP与CV的融合创新:盘点多模态深度学习这几年NeurIPS 2022 | UCLA推出科学问答新基准,大语言模型迎来多模态新挑战!​ICLR 2023 | 基于知识图谱的多模态类比推理连百年梗图都整明白了!微软多模态「宇宙」搞定IQ测试,仅16亿参数FastTrack Universität 2023莱比锡大学公立语言项目招生简章莫奈笔下的雪景
    logo
    联系我们隐私协议©2024 redian.news
    Redian新闻
    Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。