Redian新闻
>
OpenAI 设立 Superalignment 团队:让 AI 对齐人类价值观,预防潜在风险

OpenAI 设立 Superalignment 团队:让 AI 对齐人类价值观,预防潜在风险

科技

作者 | Daniel Dominguez
译者 | 平川
策划 | 丁晓昀

OpenAI 宣布成立一个专门的 Superalignment 团队,旨在防止流氓 Superintelligent AI 的出现。OpenAI 强调了使人工智能系统与人类价值保持一致的必要性,以及主动采取措施防止潜在危害的重要性。

创造符合人类理想和目标的人工智能系统的过程被称为人工智能校准。这需要确保 AI 系统理解伦理概念、社会标准和人类目标,并据此采取行动。AI 校准旨在缩小人类需求和福祉与 AI 系统目标之间的差距。通过将 AI 与人类价值相结合,减少人工智能的危害,增加其潜在的优势。

OpenAI 的 Superalignment 团队将专注于促进对 AI 校准的理解和实现。这是一个确保 AI 系统按照人类价值和目标行事的过程。通过研究强大的校准方法和开发新技术,该团队旨在创建在其整个发展过程中始终以人为本的人工智能系统。

OpenAI 表示:“我们的目标是在四年内解决超级智能校准的核心技术挑战。”

OpenAI 联合创始人兼首席科学家 Ilya Sutsker 和校准主管 Jan Leike 表示,像 GPT-4(ChatGPT 的基础)这类模型当前使用的 AI 校准技术,都依赖于从人类反馈中进行 强化学习。不过,这种方法依赖于人类的监督,如果 AI 的的智力超越了人类,变得比它的监督者更聪明,这种方法可能就行不通了。Sutsker 和 Leike 进一步解释说,其他一些基本假设,比如在部署过程中有良好的泛化属性,或者在训练过程中无法检测和削弱监督,在未来也可能被打破。

AI 安全 将成为一个重要的产业。世界各国政府正在采取措施制定法规,解决人工智能各个方面的问题,包括数据隐私、算法透明度和伦理考量。欧盟正在制定全面的《人工智能法案》,美国也在采取措施制定《人工智能权利法案蓝图》。在英国,基金会模型人工智能工作组已经成立,旨在研究调查人工智能的安全问题。

原文链接:

https://www.infoq.com/news/2023/07/openai-superalignment-ai-safety/

相关阅读:

OpenAI 或于 2024 年底破产?大模型太烧钱了,快把 OpenAI 烧没了!(https://www.infoq.cn/article/datmEqVmS134ewFO7wel )

OpenAI 推出网络爬虫 GPTBot,引发网站抵御潮:信息被爬走就很可能意味着永远无法删除 (https://www.infoq.cn/article/IzPVkcZg0jeHGcD4xP7H )

声明:本文为 InfoQ 翻译,未经许可禁止转载。

点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!

今日好文推荐

用 Rust 编写核心组件!独家揭露阿里云开源 GraphScope 如何成为全球最快图计算引擎

中国46岁程序员拒写赌博程序遭拔14颗牙;小红书被疑“偷”原画师作品喂自家大模型;全面停止服务,俄遇“微软危机”|Q资讯

谷歌认真起来,就没 OpenAI 什么事了!创始人亲自组队创建“杀手级”多模态 AI 模型

通用人工智能大牛 Marcus Hutter:AI 能完成人类半数的工作,但让人类失业是一件美好的事情

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
As Travel Resumes, WeChat, Alipay to Support Foreign Bank Cards“商业+X”跨界韧性对谈·领导力导师团队:理性乐观,领导力韧性良性循环的艺术无力还贷,澳房主持有物业不到2年就卖掉!潜在风险区公布𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~OpenAI 更新企业价值观:强调通用人工智能;阿里云、华为成立人工智能安全委员会;周杰伦演唱会 4 黄牛被抓 | 极客早知道飞碟宣言(全文)【经济】超市鼓励顾客使用支票付款,但要警惕潜在风险OpenAI的Superalignment策略:计算为王OpenAI预言:超级智能10年内降临!正集结算力拯救人类,4年彻底攻克对齐复旦NLP组开源PPO-Max:32页论文详解RLHF背后秘密,高效对齐人类偏好vivo大模型11月1日发布;传美收紧对华AI芯片出口限制;OpenAI修改核心价值观丨AIGC大事日报OpenAI悄悄更改“价值观”:不All in AGI的别来沾边万字长文概览大语言模型对齐(欺骗性对齐、可扩展的监管、机械可解释性、工具性目标趋同)韩国型价值观外交——超越价值观和国家利益的二分法用AI对齐AI?超级对齐团队领导人详解OpenAI对齐超级智能四年计划OpenAI悄悄改变核心价值观惹争议:埋头搞AGI,其他的都是浮云!第三章 旧文明的社会组织 (2)OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策教你把一句5分雅思写作高P成7分,题目《should government ban extreme sports》SuperAlignment in Medical Science: 中文医疗大模型评估基准CMB九剑一魂 - 第24回 汉胡同源 九剑一魂(九)泰坦号潜艇出事联想年入13亿美元的OpenAI低调换价值观!但比AGI更重要的是什么?如何把握EB5新政红利,规避潜在风险?这个分享会不容错过!精选SDE岗位 | Snowflake、Databricks、Blizzard Entertainment公司岗位发布!四年、投入20%计算资源,OpenAI成立专门团队构建解决对齐问题的超强AIAlzheimer's & Dementia丨王看然团队发现摄入超加工食品导致痴呆症及阿尔兹海默症发病风险升高培养正确的价值观,打造个人的成功策略拥有Medicare红蓝卡看病还需要付费吗?利用Part C和Supplement补充计划来帮您获得更多保障!Shanghai Mayor Vows Further Support for Foreign Businesses一个社区图书馆关于美国宪法的书籍我们的价值观,狭隘到了不可思议的程度OpenAI 真有钱啊,7年经验硕士码农前四年平均年薪170万美元你好,我是筚(bì)篥( lì)!独家|OpenAI超级对齐负责人Jan Leike:如何破解对齐难题?用可扩展监督专访丨积家CEO Catherine Rénier:情感联结和艺术表达对腕表也至关重要
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。