ACL2023论文写作能否使用ChatGPT?
每天给你送来NLP技术干货!
随着以ChatGPT为代表的生成式AI的火热,近期人工智能领域的顶级会议相继推出相关政策以进一步规范这类工具在科学文献撰写中的使用。ACL 2023程序委员会主席在近期的一篇博客中披露了ACL 2023大会的相关政策。
原文:ACL 2023 Policy on AI Writing Assistance
作者:ACL 2023 Program Chairs
•••
由于这些工具来自我们自己的领域(NLP),所以我们是处理和解决这些潜在问题的最适合的群体,这包括模型输出中的错误和模型训练数据源的抄袭问题。在会议中,审稿人志愿献出他们的时间来审稿,所以他们并不想额外花更多的时间去检查上述问题。此外,还有关于作者署名的问题:ACL通常希望稿件内容是署名作者以及承认贡献者的原创、未发表的工作。根据ACM抄袭定义,它不仅包括对他人作品的直接或近似复制,还包括故意复述他人作品的部分内容。
在与ACL执行委员会协商之后,ACL 2023在NAACL 2022的Resposible NLP Checklist基础上进一步添加了有关使用写作助手的问题。如果作者以任何方式使用了这些工具,作者必须详细说明使用的范围和性质。与其他关于提供代码、数据、补偿参与者以及获得IRB许可类似,这些问题并不是为了进行自动拒稿。与其他问题一样,这些问题的目的是让作者反思和建立研究规范。作者对清单中所有问题的回答都将会披露给审稿人,审稿人随后可根据相关信息进行伦理审查。为了进一步提高NLP研究对于公众的透明度,对于今年被录用的论文,在公开论文时将同时公开Responsible NLP Checklist(作为附录)。这与Nature期刊中的Reporting Summary相似。
•••
以下是关于近期社交媒体热议问题的对策(修改量和修改深度依次递增)。
LV1:纯粹用于论文的语言辅助
LV2:简短的输入协助
LV3:文献检索
LV4:低创新性文本
LV5:新思路
LV6:新思路+新文本
Extra:能用生成模型辅助写代码吗?
另外一个独立但相关的问题是借助生成模型写代码。ACL稿件可以附带源代码(被视为补充材料),审稿人不会被强制审阅这些材料,可以根据自己的需要去查看。使用代码助手(例如Copilot)也是一种新兴写代码的方式,并且相关准则还没有完全建立起来。当下,我们要求作者明确指出使用这些助手的范围,例如在README文件中进行备注。我们还要求作者去检查是否存在潜在的抄袭风险。需要注意的是Copilot现在正存在一项关于盗版的诉讼,并且可能向你推荐了不符合许可证的代码片段。代码助手的使用并不能免除作者确保其方法和结果正确性的要求。
HFL编辑部总结参考
参考链接:
[1] https://icml.cc/Conferences/2023/llm-policy
[2] https://dl.acm.org/doi/abs/10.1145/3571730
[3] https://openreview.net/forum?id=TatRHT_1cK
[4] https://www.acm.org/publications/policies/plagiarism-overview
[5] https://aclrollingreview.org/responsibleNLPresearch
[6] https://www.nature.com/documents/nr-reporting-summary-flat.pdf
[7] https://www.techradar.com/news/microsoft-is-being-sued-over-github-copilot-piracy
最近文章
微信扫码关注该文公众号作者