突发!ChatGPT遭多国调查,OpenAI凌晨就安全问题发文,GPT-5要暂缓?公众号新闻2023-04-06 03:04最近,意大利宣布禁用 ChatGPT,因为 OpenAI 违反了意大利相关的隐私规则和数据保护法,出现了用户数据丢失情况,而且未向用户告知。消息出来后,德国、法国、爱尔兰、西班牙等国的监管部门都表示正在密切关注 ChatGPT 的安全问题,特别是在保护未成年人、处理用户数据等方面。一些监管机构建议,用户在与 ChatGPT 沟通时应该避免向其披露过多的个人信息,以免被用于训练模型。另一方面,GPT-4 的进化速度让一些 AI 专家感到恐慌,有观点认为 OpenAI 需要对 GPT-4 做更多的安全限制,以避免出现滥用 AI 的不良事件。对于这些外界关注的安全问题,OpenAI 在 4 月 6 日凌晨发表了一篇博客进行了回应。在这篇博客中,OpenAI 详细阐述了他们在安全工作付出的努力,并说明了后续在使用比 GPT-4 更大的模型(GPT-4.5 或 GPT-5?)方面的计划。以下是 OpenAI 的博客原文。OpenAI 致力于保障人工智能的安全和广泛受益。我们知道,我们的人工智能工具可以为人们带来很多好处。世界各地的用户告诉我们, ChatGPT 可以增加他们的生产力、增强创造力,并提供量身定制的学习体验。同时,我们也认识到,像任何技术一样,这些工具也带来了真正的风险,因此我们致力于确保安全措施在我们的系统中得到充分应用。建立日益安全的人工智能系统在发布任何新系统之前,我们进行严格的测试并征求外部专家的反馈,努力通过强化学习和人类反馈等技术来改进模型的行为,以及构建广泛的安全和监控系统。例如,在我们最新的模型 GPT-4 训练完成后,我们花费了超过 6 个月的时间,在全公司范围内共同努力,使其更加安全可靠,并在公开发布之前进行对齐。我们认为,强大的人工智能系统应该接受严格的安全评估。需要进行监管,以确保采取这种实践,并与政府积极合作,以确定最佳的监管形式。从实际应用中学习,以改进保障措施。我们努力预防部署前可预见的风险,但实验室只能了解有限的情况。尽管进行了广泛的研究和测试,但我们无法预测人们将如何使用我们的技术,也无法预测人们会如何滥用它。这就是为什么我们认为从实际应用中学习是创造和发布日益安全的人工智能系统的关键组成部分。我们谨慎地、有计划地向越来越广泛的人群发布新的人工智能系统,并采取大量的保障措施,基于我们所学到的经验不断改进。我们通过我们自己的服务和 API 向开发者提供最强大的模型,以便他们可以将这种技术直接集成到他们的应用程序中。这使我们能够监控并采取行动来防止滥用,不断构建减轻措施,以应对人们滥用我们系统的实际情况,而不仅仅是关于滥用可能出现的理论。实际使用也使我们制定了越来越细致的政策,以防止行为对人们产生真实风险,同时还允许我们的技术发挥许多有益的作用。重要的是,我们认为,社会必须有时间更新和调整日益强大的人工智能,并且所有受到这种技术影响的人都应该有重大发言权,以决定人工智能的进一步发展。迭代式部署使我们更有效地将各相关方引入关于采用人工智能技术的对话中。保护儿童我们安全措施的一个重点是保护儿童。我们要求使用我们的人工智能工具的人必须年满 18 岁或经过父母的同意并年满 13 岁。我们不允许我们的技术用于生成令人憎恶、骚扰、暴力或成人内容等其他类别。我们最新的模型 GPT-4 比 GPT-3.5 对违规内容回应的概率降低了 82%。我们已建立了一个强大的监测系统,以监测滥用情况。GPT-4 现已面向 ChatGPT Plus 订阅用户,我们希望将其逐步推广至更多人。我们付出了巨大的努力,以最大限度地减少我们的模型产生对儿童有害内容的可能性。例如,当用户试图将儿童色情材料上传到我们的图像工具时,我们会阻止并向「国家失踪和被剥削儿童中心」报告。除了我们的默认安全防护措施外,我们还与开发商合作,如非营利性组织 Khan Academy,他们建立了一个 AI 助手,既是学生虚拟导师,又是教师课堂助手,为学生们量身定制了安全保护措施。我们还致力于开发功能,允许开发者设置更严格的模型输出标准,更好地支持需要这种功能的开发者和用户。尊重隐私我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的、有许可的内容和由人工评审员生成的内容。我们不使用数据出售我们的服务、广告或构建人的画像——我们使用数据使我们的模型更有用。例如,ChatGPT 通过在人们与其交谈的对话中进一步训练来提高回答效果。尽管我们的一些训练数据包含公开互联网上的个人信息,但我们希望我们的模型了解世界,而不是私人个体。因此,我们努力从训练数据集中删除个人信息,逐步调整模型以拒绝私人个体的个人信息请求,响应个人要求从我们的系统中删除其个人信息。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的回复的可能性。改善事实准确性今天的大型语言模型工作的原理是基于它们「看到」的文本来预测下一组单词。在某些情况下,生成出来的单词可能不是事实准确的。改善事实准确性是 OpenAI 和许多其他人工智能开发者的重点,我们在这方面已取得了初步的进展。通过利用 ChatGPT 用户负反馈(被标记为不正确的输出内容)作为主要数据源,我们已经改善了 GPT-4 的事实准确性。GPT-4 比 GPT-3.5 更可能产生基于事实的准确内容。在用户注册使用这项工具的时候,我们也告知快他们 ChatGPT 可能不总是准确的。但是,我们认识到还有很多工作要做,以进一步降低 AI 幻觉的可能性,并尽力向公众科普目前这些人工智能工具的限制。持续研究和合作我们认为,解决人工智能安全问题的实际方法是投入更多的时间和资源研究有效的减缓和对齐技术,并在真实滥用案例中测试它们。重要的是,我们也相信,改进人工智能的安全性和能力应该与更多人一起合作。我们到目前为止做得最好的安全工作,是与我们最强大的模型(编者注:指内部目前比 GPT-4 更强大的模型)一起工作,因为它们更擅长遵循用户的指示并更容易被引导或「指导」。我们将越来越谨慎地创建和部署更强大的模型,并将继续增强安全预防措施,随着我们的人工智能系统的不断发展。虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其能力、好处和风险,但有时需要花更长的时间来提高人工智能系统的安全性。因此,决策者和人工智能提供商需要确保全球范围内有效地管理人工智能的开发和部署,以便没有人为了取得领先地位而走捷径。这是一个艰巨的挑战,需要技术和制度创新,但我们非常愿意为之贡献力量。解决安全问题还需要社会广泛的辩论、实验和参与,包括对人工智能系统行为范围的讨论。我们已经并将继续促进利益相关者之间的合作和开放对话,创建一个安全的人工智能生态系统。🔗 原文链接:https://openai.com/blog/our-approach-to-ai-safety点击「在看」是对我们最大的鼓励微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章