Redian新闻
>
参赛邀请 | 第二届古汉语自动分析国际评测EvaHan(古汉语机器翻译)开始报名

参赛邀请 | 第二届古汉语自动分析国际评测EvaHan(古汉语机器翻译)开始报名

公众号新闻


EvaHan2023

中国古代典籍是中国传统文化的重要组成部分,在古籍研究领域,古籍的翻译起着非常重要的作用。古汉语在语法、句法、词汇等方面与现代汉语有很大的差异,提高古汉语到现代汉语的机器翻译性能可以更好地推动古籍研究的发展。同时,提高古汉语到英语的机器翻译技术也可以推动中国传统文化在世界范围内的推广。

EvaHan是专注于古汉语信息处理的系列国际评测,2022年在法国马赛,与古拉丁语自动分析评测EvaLatin一起,举办了第一届古汉语分词与词性标注评测EvaHan2022,有十多支队伍参赛,并刷新了业界的最好成绩。为了推动古籍处理技术的进步,2023年在中国澳门举办第二届EvaHan评测。

EvaHan 2023是第二届古汉语信息处理国际评测,今年任务是古汉语的机器翻译,包含两个子任务:

  • 古汉语翻译为现代汉语

  • 古汉语翻译为英语


EvaHan 2023将于2023年9月4日在中国澳门特区召开。作为古文翻译研讨会ALT2023(http://www.ancientnlp.com/alt2023/)的子任务,在国际机器翻译顶会MT-SUMMIT2023(https://mtsummit2023.scimeeting.cn/en/web/index/)上召开。


ALT2023还将同期举行第一届楔形文字机器翻译评测,将苏美尔语和古汉语两种古老的语言自动翻译为今天的语言,是一个重要的进步。


  • 比赛将设置一二三等奖,将给获奖队颁发证书和奖金。奖金赞助商正在洽谈。

Important Dates


  • Registration for the shared task: 15 Feb, 2023 ~ 25 March, 2023
  • Training data release: April 1, 2023
  • Test data release: June 1, 2023
  • Data submission : June 7, 2023
  • Tech report submission: June 15, 2023
  • Notification of acceptance: June 25, 2023
  • C

    amera Ready submission: 10 July 2023

EvaHan 2023

参赛手册

数据说明

数据来源于中国的二十四史、先秦典籍和《资治通鉴》,由国家社会科学基金重大项目“中国古代典籍跨语言知识库构建及应用研究”(项目编号:21&ZD331)课题组精加工完成。


语料库中的中国古代经典文本既具有历时性,语料内容的时间跨为数千年,又具有多样性,即涵盖了中国传统的四类规范文本:经(儒家经典),史(历史著作),子(属于儒家以外的思想流派的哲学著作,但也包括农业、医学、数学、天文学、占卜、艺术评论和其他杂文)和集(文学作品集)。


1.数据格式

发布的数据没有对任何长度的句子(包括空句子)进行标记化。所有数据都是Unicode (UTF-8)格式。平行语料库数据格式的示例如图1所示。

以古白平行语料为例,左侧为古汉语文本,右侧为以句子为单位对应的现代汉语文本(繁体)。对于古代汉英平行文本,采用相同的格式。


2.训练数据

训练数据的来源是中国二十四史古代汉语到现代汉语的平行语料库、先秦典籍古代汉语到英语的平行语料库和《资治通鉴》。训练数据的基本概况如表1所示。

总的来说,本次测评所采用的古代汉语文本跨语言平行语料具有规模大、历时性强、平衡性强的特点。


3.测试数据

测试数据将以txt格式提供,内容为古代汉语的句子。


翻译任务

评测分为开放模式和封闭模式。

  • 在封闭模式中,只能使用指定的数据资源,现代汉语模型采用Chinese-RoBERTa-wwm-ext[3],古代汉语模型采用Siku-RoBERTa[1],英语模型采用RoBERTa[4],参赛者需要做的就是改进模型或算法,提升机器翻译的性能。

  • 在开放模式中,参赛队可以使用任意的数据资源,但是需要在技术报告中予以说明。


您可以同时参加多个赛道和模式。每一个参赛团队提交的结果要应该包含翻译系统的简要介绍(基本信息,例如使用的模型、技术、方法等),同时,参赛团队需要提交一份技术报告,对模型的改进以及使用的方法进行详细的介绍。


尽管本次测评的主要目标是评选出性能最为优越的机器翻译系统,我们也鼓励一些富有创造性的项目参赛,即便该项目的性能并不是最优的。您也可以通过本次测评进一步完善、提升您的系统。


评测内容

1.测评指标

我们将分别评估参与者提供的古英机器翻译模型和古白机器翻译模型的性能。本次测评采用的评测指标为BLEU[5]、ChrF[6]和COMET-QE[7-9]。


参赛队伍在参赛之初只能获取到训练数据,之后我们将发布包含古汉语文本的测试数据。测评结束后,还将发布与测试数据中古汉语对应的现代汉语和英语数据。


表2给出了评分指标的输出样例,测评过程中,将根据参赛队伍的翻译结果和相应的参考翻译自动计算测评分数。 

2.封闭模式与开放模式

每个参赛队伍都可以同时参加两个赛道:封闭模式与开放模式。在封闭模式下,参赛队伍只能使用我们提供的训练数据和规定的预训练模型,如表3所示。

在开放模式中,参赛队伍使用的资源(例如:模型、数据)将不受限制。可以使用带有标注的外部数据以及一些其他辅助技术,例如汉字拼音、知识图谱、词嵌入等。请注意,参赛团队必须在最终报告中声明他们在参赛过程中使用的所有资源。

3.测评的Baseline

我们将评估谷歌翻译在测试数据上的翻译结果,作为Baseline。


参赛方式

1.注册

如果您有意向参加,请填写电子版参赛申请表:https://forms.office.com/Pages/ResponsePage.aspxid=DQSIkWdsW0yxEjajBLZtrQAAAAAAAAAAAAMAAExHmLlUMURNSUNHQTQ5SUhQMzFIR05GSEo2QUFONi4u&lang=en

您也可以在EvaHan2023官方GitHub网站查找,填写时,请确保您的信息正确且您的电子邮箱可以正常使用。收到您的注册信息后,我们会将训练数据发送到您的电子邮箱,请注意查收。

2.咨询

如果您对本次测评有任何疑问,请随时发送电子邮件到我们的官方邮箱:[email protected]


如果您长时间没有收到回复,请检查您的邮件是否发送成功。


比赛要求

1.提交结果的格式

在您的参赛团队完成了翻译任务后,请务必按照以下说明提交翻译结果:


文件命名:

请使用以下文件名格式命名翻译结果:

任务ID_队伍名称_结果ID_模式.tsv

例如:testa_unicatt_1_closed.tsv为一支名为unicatt的队伍在封闭模型下使用testa.txt文本(古白翻译)的第一次翻译结果。

testb_unicatt_2_open.tsv 为一支名为unicatt的队伍在开放模型下使用testb.txt文本(古英翻译)的第二次翻译结果。


提交格式:

输出文件内容应该按照如下格式使用制表符分隔:

其中:

<id>为原始古汉语文本数据的ID。

<source>为古汉语文本。

<translation>是您的机器翻译结果,您可以同时提交两份翻译结果,也可以只提交一份。

提交样例如下:

2.提交方式:

在提交之前,请通过我们之后提供的测评脚本进行初步测试,之后,您可以将本次得分与BLEU、ChrF和COMET-QE一起使用。

请将您的结果发送到我们的官方邮箱:[email protected],主题为“EvaHan Submission:taskID-teamName”,其中“taskID”为testa或testb。

请注意,每个参赛团队的每个翻译任务最多只能提交两次,请勿重复提交。


3.撰写技术报告

技术报告内容部分(参考文献除外)不应超过4页,格式要求参见MT Summit 2023样式指南(PDF、LaTeX、MS Word版本和Overleaf版)。由于技术报告要进行盲审,请勿在技术报告中包含作者姓名和机构,并避免过于明显的自我引用。


请于会议截至提交日期前,将技术报告提交至以下网站:https://softconf.com/mtsummit2023/research



组织方


EvaHan 2023是由南京师范大学、南京农业大学信息管理学院、南京理工大学经济管理学院的计算语言学和数字人文研究团队共同组织。


附录:古籍翻译在线资源

• 古代汉语预训练模型 SikuRoBERTa: https://huggingface.co/SIKU-BERT/sikuroberta; https://github.com/hsc748NLP/SikuBERT-for-digital-humanities-and-classical-Chinese-information-processing

• 现代汉语预训练模型 RoBERTa: https://huggingface.co/hfl/chinese-roberta-wwm-ext; https://github.com/ymcui/Chinese-BERT-wwm

• 英语预训练模型 RoBERTa: https://huggingface.co/roberta-large; https://github.com/facebookresearch/fairseq/tree/main/examples/roberta

• 多语言预训练模型 RoBERTa: https://huggingface.co/xlm-roberta-large; https://github.com/facebookresearch/fairseq/tree/main/examples/xlmr

• 古代汉语预训练模型 GPT-2: https://huggingface.co/uer/gpt2-chinese-ancient; https://github.com/Morizeyao/GPT2-Chinese

• 古代汉语预训练模型 SikuGPT: https://huggingface.co/JeffreyLau/SikuGPT2; https://github.com/SIKU-BERT/sikuGPT

• 古代汉语预训练模型GuwenBERT: https://huggingface.co/ethanyt/guwenbert-base; https://github.com/Ethan-yt/guwenbert

• 古代汉语句法语料库: http://kanji.zinbun.kyoto-u.ac.jp/~yasuoka/kyodokenkyu/2019-03-08/ 

• 古代汉语自动断句: https://seg.shenshen.wiki/; https://wyd.kvlab.org 

• 古代汉语标注语料库: http://lingcorpus.iis.sinica.edu.tw/ancient/ 

• 在线汉语语料库检索系统: http://dh.ersjk.com/ 

• 古代汉语语料库: https://github.com/garychowcmu/daizhigev20




参考文献

[1] Wang, D., Liu, C, Zhu, Z, et al. 2022. Construction and Application of Pre-trained Models of Siku Quanshu in Orientation to Digital Humanities. Library Tribune, 42(6), 31-43. (In Chinese)

[2] Li, B., Yuan, Y., Lu, J., Feng, M., Xu, C., Qu, W., & Wang, D. (2022). The First International Ancient Chinese Word Segmentation and POS Tagging Bakeoff: Overview of the EvaHan 2022 Evaluation Campaign. In Proceedings of the Second Workshop on Language Technologies for Historical and Ancient Languages (pp. 135-140).

[3] Cui, Y., Che, W., Liu, T., et al. Revisiting pre-trained models for Chinese natural language processing[J]. arXiv preprint arXiv:2004.13922, 2020.

[4] Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., ... & Stoyanov, V. (2019). Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692.

[5] Papineni, K., Roukos, S., Ward, T., & Zhu, W. J. (2002). Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics (pp. 311-318), Philadelphia, Pennsylvania, USA: Association for Computational Linguistics.

[6] Popović, M. (2015). chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the tenth workshop on statistical machine translation (pp. 392-395), Lisbon, Portugal: Association for Computational Linguistics.

[7] Rei, R., Stewart, C., Farinha A. C., & Lavie, A. (2020). COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP) (pp.2685-2702), Online: Association for Computational Linguistics.

[8] Rei, R., Farinha, A. C., Zerva, C., van Stigt, D., Stewart, C., Ramos, P., ... & Lavie, A. (2021). Are references really needed? unbabel-IST 2021 submission for the metrics shared task. In Proceedings of the Sixth Conference on Machine Translation (pp. 1030-1040), Online: Association for Computational Linguistics.

[9] Kocmi, T., Bawden, R., Bojar, O.,et al. (2022). Findings of the 2022 conference on machine translation (WMT22). In Proceedings of the Seventh Conference on Machine Translation (WMT) (pp. 1-45), Abu Dhabi, United Arab Emirates: Association for Computational Linguistics.



进NLP群—>加入NLP交流群

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大佬联手封印AI,号召暂停强人工智能研发(附公开信全文翻译)2022南极行:南极的冰,让我们品尝和感受世纪实现法语自由最重要的一步最新消息!第十三届北影节“天坛奖”国际评奖委员会阵容正式揭晓天坛奖|张艺谋将担任第十三届北京国际电影节“天坛奖”国际评委会主席手慢无!多伦多教育局的官方夏令营火开始报名:学术营、艺术营、国际语言课、修学分课【开放报名】牛剑暑期学者项目开始报名啦!兰德公司赛事预告|豪情挥杆,健康加油,2023首届RAYDEL杯高尔夫邀请赛邀您来战!登顶对话式语义解析国际权威榜单SParC和CoSQL,全新多轮对话表格知识预训练模型STAR解读新加坡宗乡总会又开始资助了!本地华语机构和优秀学生均可申请何时起,“骰子”不读shǎi,改读tóu了?HIR哈佛国际评论竞赛开启报名!美国资深大学教授开班啦!CCL2023-Eval | 汉语高考机器阅读理解对抗鲁棒评测正式开启,诚邀您积极参与进一步探讨美国和法国的生活方式【最新】长三角一体化示范区实现快递费用数字人民币跨区域自动分账2022年全球航天发射活动分析报告澜舟科技招聘:社招全职与实习,NLP算法(预训练/信息抽取/机器翻译)等方向第二届周传纪念奖学金申请邀请斯坦福5.5万人研究:30年,男人长(cháng)了3厘米,但并非好事CCL2023-Eval | 汉语框架语义解析评测正式开启,诚邀您积极参与【全国赛事】“融贯古今”全国大学生翻译百科知识竞赛开始报名!无报名费,万元奖金奖品等你来拿!生活琐记:圣诞&新年好友聚会多伦多教育局暑期国际语言课开始报名:多国语言课,一个月费用只要$20!'坚壁清野'和“快开”:无赖博弈术4.9万亿!1月新增贷款创纪录,高手解读A股影响!掘金大赛开始报名,参赛赢现金大奖!赛事预告|豪情挥杆,健康加油,2023 首届RAYDEL杯高尔夫邀请赛邀您来战!选择两年制大学的五个理由!新移民专属:免费学英语机会?Rihanna献唱超级碗并推出Savage x Fenty运动系列,标语自嘲超圈粉!"𝙇𝙚𝙖𝙙 𝙏𝙝𝙚 𝘾𝙝𝙖𝙧𝙜𝙚"广告#创译挑战为了拿澳洲永居,我花了1500澳元和英语机考战斗到底(组图)英语自我介绍万能模板,简单实用,拿走不谢!CNIW活动|北美华人健康第二届青少年学术新星暑期研学营开始报名DBC职梦学员已收到J.P. Morgan(US)2024暑期实习面试邀请!天坛奖|第十三届北京国际电影节“天坛奖”国际评奖委员会阵容官宣
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。