Redian新闻
>
ICLR 2023 | 负责任的人工智能,守护机器学习的进阶思考

ICLR 2023 | 负责任的人工智能,守护机器学习的进阶思考

科技


(本文阅读时间:9分钟)


编者按:国际学习表征会议 ICLR(International Conference on Learning Representations),被公认为当前最具影响力的机器学习国际学术会议之一。多个来自微软亚洲研究院的最新研究成果被 ICLR 2023 大会接受。跟随上两期文章领略过杰出论文机器学习鲁棒性方向的技术洞见后,本期将与大家分享负责任的人工智能方向的三篇研究工作,它们分别拓展了差分隐私深度学习效率的边界、时序图的可解释性研究以及预训练语言模型在文本生成中的安全性。欢迎点击论文链接,直达对负责任的人工智能的进阶思考!

近期,我们将在微信视频号“微软亚洲研究院”和 B 站“微软科技”的直播间,安排微软亚洲研究院入选 ICLR 2023 论文的特别直播,与你共话机器学习的前沿成果!更多直播细节,敬请期待。

01

T-GNNExplainer:时序图上的解释器



论文链接:

https://openreview.net/pdf?id=BR_ZhvcYbGJ


时序图是一种基于时间的动态图,其中的节点和边都带有时间戳,在线社交网络和道路交通网络等就是时序图的典型例子。鉴于时序图的广泛应用,已经有许多时间图模型被提出,例如 Jodie,TGAT 和 TGN。与静态图神经网络相比,时序图模型中每个节点的表征都是一个时间的函数,用于预测未来演化趋势,例如哪些边将产生以及节点属性何时改变。


尽管这些时序图模型已被成功应用,但它们都是黑盒模型,缺乏透明度。信息如何在时序图中聚合和传播,以及历史事件如何影响预测等问题仍不清楚。对于理解预测的基本原理以及模型特性而言,人工智能的可解释性至关重要。当时序图模型应用于高风险场景时,如金融系统中的欺诈检测和医疗健康中的疾病进展预测,解释器都可以增加信任和可靠性。此外,解释器还有助于检查和减轻现实世界应用中的隐私、公平和安全问题。


目前的现有解释器往往是专注于静态图模型的设计,对时序图的预测解释仍然需要进一步探索。因此,微软亚洲研究院的研究员们提出了 T-GNNExplainer:首个为时序图模型量身定制的解释器。具体来说,T-GNNExplainer 将时序图视为一系列节点之间的时间事件。对于给定的某次预测,T-GNNExplainer 的任务是找到导致预测的历史事件的一个子集。历史事件是先前发生的事件,所以同时满足空间和时间条件:它们在基于消息传递机制的k-跳邻域中,并且它们的时间戳应该接近目标事件的时间戳。


为了解决寻找子集的组合优化问题,T-GNNExplainer 包含探索和导航模块。探索模块采用蒙特卡洛树搜索,搜集在候选事件集中找到的重要事件。导航模块负责学习候选事件之间的关联性,以帮助缩小搜索空间。值得一提的是,导航模块是预训练模块,与探索模块集成后,能够大大加快搜索速度并提高结果质量。


研究员们基于两个典型的时序图模型(TGAT 和 TGN),同时在合成和真实的数据集上评估了 T-GNNExplainer 的性能。合成数据集采取了多元 Hawkes 过程和预定义的事件关系规则模拟产生事件,从而得到时序图。通过与合成数据集的重要事件集对比,研究员们发现 T-GNNExplainer 可以精确找到一个重要的事件集。在真实数据集中,由于确切的导致某个事件发生的事件集不可知,因此研究员们采用保真度-稀疏度曲线来评估 T-GNNExplainer 的性能。结果表明,相对于基准模型,T-GNNExplainer 的改进率高达约50%。


图1:T-GNNExplainer 的模型框架


02

基于推理阶段自适应优化的语言模型统一去毒去偏



论文连接:

https://arxiv.org/pdf/2210.04492.pdf


预训练语言模型(PLMs)在文本生成(NLG方面取得了长足进步,但却会将预训练语料中存在的有害内容(例如有毒语言和对少数群体的社会偏见等)内化、生成、传播,甚至放大。随着语言模型逐步成为各类 NLG 应用(如聊天机器人、文案写作助手的基础,其生成的有害内容也可能通过与终端用户的频繁交互,在人类社会中广泛传播,最终造成重大的负面影响,例如吸引仇恨、导致偏见、加剧不平等。同时,这些问题不仅没有随着语言模型规模的增大而解决,反而有逐步恶化的倾向,更加突显了发展符合道德的语言生成方法的必要性和紧迫性。


现有的去毒和去偏见技术通常分为两大范式。一种是特定领域微调(Domain-Specific Tuning),即使用精心获取的干净无害的数据对模型进行进一步训练。该方法有效,但数据构建及训练大模型的成本太高且实效性差。第二种是约束解码(Constrained Decoding),以过滤、对抗引导、输出分布整流等方式来避免有害的文字生成,而无需重新训练模型。然而,这类方法会严重降低生成文本的质量或减慢生成速度。此外,现有方法都是分别处理去毒和去偏问题,这往往导致经过去偏的模型依然存在毒性,同时经过去毒的模型反而放大了偏见。


为了应对这些挑战,微软亚洲研究院的研究员们首次提出了一个基于推理阶段自适应优化的去毒和去偏见统一框架 UDDIA。UDDIA 将去偏见和去毒形式化为统一的输出分布整流过程,以此来均衡不同群体相关内容的生成概率并最小化与毒性之间的关联。该框架等价于学习一个多属性(如性别、种族、毒性等混合的文本分布。此外,UDDIA 仅在推理(生成)阶段通过优化极少量(~1%)参数进行干预,并动态地选择何时干预、更新哪些参数。

实验结果表明,UDDIA 能减少 GPT-2 模型约40%的毒性和偏见,并保持较小的生成质量损失和较高的生成效率。该框架方法标志着在迈向道德和负责任的 NLG 方面取得了重要进展,并为未来不断增大的语言模型的安全性提供了一种灵活可扩展且低成本的有效方案。

图2:UDDIA框架 (左) 去毒与生成质量的平衡曲线(右)去偏见与生成质量的平衡曲线


03

探索差分隐私深度学习的边界



论文链接:
https://arxiv.org/abs/2212.01539

近期的差分隐私(DP)深度学习研究已显著提高计算效率和隐私-效用权衡,并在常见的隐私保证水平下实现了高效且具有良好效用的隐私保护学习流程。其中的差分隐私随机梯度下降(DP-SGD)是一种实现差分隐私保护学习的通用算法。DP-SGD 会对每个样本的梯度进行平裁剪(即先将梯度拉伸为一维向量,然后进行裁剪,接着再添加适当大小的噪声扰动。

由于 DP-SGD需要对每个样本梯度进行裁剪:1)首先实例化每个样本梯度;2)对其按照 L2 范数进行裁剪,而这会导致较高的内存和时间开销,所以使用 DP-SGD 的隐私机器学习在内存需求和速度方面比非隐私版本要高出许多。因此进行相关研究需要解决的首个问题是:隐私学习能否像非隐私学习一样在内存和时间效率(每个epoch)上保持高效?只有在提高效率后,才有可能将其应用于训练 GPT-3 等大型语言模型。

通过高效的逐层裁剪,文章作者对上述问题给以肯定的回答。具体的逐层裁剪操作如下:在神经网络进行反向传播时,在某一层参数计算出每个样本梯度后,立即进行裁剪并计算平均梯度,接着释放每个样本梯度的空间,并继续向下一层参数进行反向传播。逐层裁剪,在将裁剪操作嵌入到反向传播的过程中,还允许梯度裁剪与反向传播同时进行,从而极大地提高了效率。这使得在许多实际任务中,隐私学习在内存效率和每次训练更新的时间效率上能够媲美非隐私学习(参见图3,图4)。

图3:不同算法内存需求比较:非隐私学习,平裁剪,虚拟裁剪和分层裁剪

图4:不同算法吞吐速率比较:非隐私学习,平裁剪,虚拟裁剪和分层裁剪

第二个需要解决的问题是:该如何选取每层的裁剪阈值?通过简单的实验,研究员们发现使用固定阈值的逐层裁剪在性能上比平裁剪有明显降低。自适应阈值是让逐层裁剪突破性能瓶颈的关键(参见图5)。自适应阈值只需要很少的隐私预算,就可以根据算出的样本梯度 L2 范数自动估计出一个合适裁剪的阈值。多个任务证明,新方法在给定训练 epoch 约束下与平裁剪的表现相当,从而可以在更短的实际时间内获得相似或更好的任务性能。

图5:不同样本的每层梯度大小随着训练步数变化显著


DP-SGD 算法在性能和效率方面的提升也使得研究员们不断探究差分隐私深度学习模型的极限。因此,研究员们在本文中探究了如何在机器学习中保护训练数据的隐私,保证模型不能被反推出训练样本的个体信息。


研究员们对具有1750亿参数的 GPT-3 进行了隐私微调。为了绕过裁剪分布在多个设备上的梯度的困难,研究员们在每个设备上对每个模型片段的梯度都进行了分组裁剪。在 ε=1 的情况下,使用隐私微调的 GPT-3 在摘要任务上可以获得优于非隐私微调的最大 GPT-2 的任务性能。研究员们突破了 DP-SGD 的效率瓶颈,使其可以成功应用于超大语言模型的训练中,经过多个测试,新方法几乎能同时实现了性能与效率的最佳值。






在进行计算机科研工作和学习的日日夜夜,你或许有些科研中的问题难以开口问询,或许有些焦虑与情绪无处安放,或许在感到迷茫时需要咨询与支持。微软亚洲研究院树洞计划现已开启。你在计算机领域科研、学习、生活中遇到的难题,都可以随时随地倾倒在树洞里。后台会从树洞收到的内容中选择具有代表性的问题匹配到最同频的频道,邀请微软亚洲研究院的研究员们帮忙回答。作为一个半透明的树洞,部分问题与回应会通过微软亚洲研究院账号公开发表。


快来点击上图链接,把你的难题倾倒在树洞里吧!让我们将这些困难封存在过去,轻装上阵,继续科研新旅途!
















你也许还想看:





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
企业洞见:整个机器学习的工具最后都会被开源所主导谷歌支持的人工智能公司Anthropic推出Claude 一个更容易交谈的AI聊天机器人新加坡管理大学刘教授:基于机器学习的量化交易策略|收获一作论文与导师推荐信!推荐|《人工智能通用大模型(ChatGPT)的进展、风险与应对》研究报告(全文)《何處是我家?》(Nowhere in Africa)首个由人工智能生成的游戏和电影问世,探秘生成式 AI 如何发展(附相关人工智能产品集)ICLR 2023 | 大模型上下文学习的无限扩展方法:kNN Prompting科技丨或超越人工智能,类器官智能是什么?智能革命:人工智能、机器学习、生物 学习和智能材料的合力一天接诊3个重量级男生,孩子太胖最该负责任的是谁?CubeFS在大数据和机器学习的探索和实践丨ArchSummit峰会实录Eruope 2023苹果再失机器学习大牛!负责siri等项目,现今回归非盈利机构2023 春 祝姐妹们周末快乐!猫头鹰逃出动物园,自己在外面抓大老鼠吃不回来… 园方纠结再三:不抓了!德国亲俄游行预示俄乌战争的走向!解密ESG先行者!如何成为负责任的可持续投资专家?如何用 2023 版 Ps 的人工智能,智斗甲方、背刺老板?会议预告 | 首届机器学习与统计会议暨中国现场统计研究会机器学习分会成立大会盘点四大技术板块,洞察百项人工智能开源项目——InfoQ研究中心带你探秘中国人工智能开源领域2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一首次发现!数据异构影响联邦学习模型,关键在于表征维度坍缩 | ICLR 2023宾州福吉谷(Valley Forge),景点打卡闲话人生(233)一生最好的朋友郭进军就连人工智能也建议暂时回避人工智能股票人工智能立法提上日程:兼顾安全与发展,为人工智能治理打下框架性基础VALSE 2023 | 下一代深度学习的思考与若干问题——焦李成专家胡锡进和人工智能,谁更智能?【土豆财经第3期】​ICLR 2023 | 用于类别不平衡图表示学习的统一数据模型稀疏性《Python机器学习》畅销书作者又出新书了,全方位扩展你的机器学习知识最新出炉!ICLR 2023强化学习领域18篇论文盘点ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究机器学习背景提升项目实战下周开课!|ChatGPT聊天机器人语义情绪波动检测转:2023 回国探亲(5)国际要闻简报,轻松了解天下事(03​ICLR 2023 | LightGCL: 简单且高效的图对比学习推荐系统母亲节礼物!负责任的告诉你,这种礼物送妈妈,最显心意最特别!ICLR 2023 | MocoSFL: 低成本跨用户联邦自监督学习Npj Comput. Mater.: 原子尺度成像—机器学习的亚像素处理上海内推 | 微软亚洲研究院人工智能与机器学习组招聘研究型实习生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。