从2023年年初开始,大模型的重大技术突破吸引了全世界的目光;但与此同时,与大模型有关的知识产权纠纷也开始走进公众的视线。大模型对于现有知识产权法律的挑战,是技术快速发展和应用所带来的最直接的影响之一。 在微软亚洲研究院“社会责任人工智能”系列研讨会的法律与伦理专题讨论上,来自日内瓦大学数字法学中心的 Jacques de Werra 教授指出,目前透明度在版权生态系统中正变得愈发重要。由于目前的知识产权只保护人类作者创作的作品,披露创作中非人类作者来源的部分是必要的。为了应对这一问题,法律和技术两方面的解决方案都应被考虑在内。香港大学的孙皓琛教授认为确定 AI 生成内容的独创性门槛对于讨论 AI 生成内容是否需要被版权法保护是至关重要的。 这也就要求人们进一步区分辨识 AI 生成的内容和 AI 辅助产生的内容,尤其是在二者之间的界限日益模糊的今天。而白盒方法是针对这一问题一个具有潜力的解决方案。因此,接下来应当予以关注的关键问题便是:有哪些白盒方法能够用可解释的方式实现内容生成过程的全透明和披露? 显然,大模型在知识产权上陷入的纠纷已经提示人们考虑如何保障用于大模型开发的作品的人类创作者的权利。清华大学人工智能研究院常务副院长孙茂松教授和莱斯大学的胡侠副教授认为,大家需要通过全球对话与合作的方式来找到更有效的解决方案,来自动识别和解释内容中是否包含有人类创造力。若要达成大模型相关的知识产权问题的共识,有必要制定国际公认的规则,力求在尊重知识产权持有者的权利、公共利益和合理使用例外情况之间达到平衡。
当大模型在技术和社会中扮演起越来越关键的角色时,它能否承担起相应的责任?如何促进负责任的人工智能进步并确保其在价值观上与人类价值观相一致?这些宏观的问题十分棘手,但也十分迫切,因为大模型一旦遭到滥用,其强大的效用和能力有可能反过来损害社会的利益。 微软亚洲研究院资深首席研究员谢幸认为,负责任的人工智能需要技术和社会学两方面的策略双管齐下,而且有必要将大模型与多样化、个性化以及特定文化的人类价值观结合起来,达到一致。 这其中对于边缘群体(尤其是残障人士)的数字平等问题需要更加关切。AI 技术可能产生错误陈述和歧视,使得对残障人士的歧视被制度化。因此,AI 开发者必须注意不要让残障人士与 AI 产生角色和利益上的冲突,开发者有责任去主动对抗那些有偏见的态度,倡导平等参与,提高平等意识。 哈佛大学的崔凤鸣博士和一加一残障公益集团的蔡聪在研讨会上强调了数字平等问题所包含的两个关键维度:其一是“赋能”,要让 AI 设备的价格可以被边缘群体所承受,并为他们提供适当的培训;其二是“包容”,要将对于边缘群体的关注整合到人工智能从模型设计到数据创建的整个开发过程中,这样才能打破壁垒,消除歧视。 欲了解本次法律与伦理专题研讨会的更多详细信息,请点击链接:https://www.microsoft.com/en-us/research/event/2023-legal-and-ethical-governance-challenges-faced-by-big-models-workshop/ 从大模型对知识产权和隐私保护产生的冲击,到可能的技术滥用风险,伴随技术快速发展所带来的诸多挑战,一种更负责任、更为健全的人工智能治理规范也在成长之中。人工智能的法律问题本身并不是孤立存在的,它涉及到复杂的传统社会伦理观念,也涉及到政策可能给与人工智能技术的发展空间。为了让讨论和思考真正有益于 AI 与社会的和谐相处,在此次针对法律和伦理的充分交流之后,微软亚洲研究院还将深入法律、伦理和政策制定的更深层次,并拓展心理学和社会学等领域的探索。