OpenAI首位投资人Vinod Khosla访谈,OpenAI CTO Murati谈与苹果合作公众号新闻2024-07-20 10:07硅谷著名投资人与企业家、OpenAI首位投资人Vinod Khosla,近期与《福布斯》高级编辑Alex Konrad对话,探讨多个热点话题,包括AI在未来社会中变革性影响、AI带来巨大生产力增长、AI改变多个领域工作模式等。OpenAI CTO Mira Murati近期在美国约翰·霍普金斯大学参加一场AI对话。Murati与主持人讨论OpenAI与苹果合作关系,回应GPT-5进展,深入探讨AI潜在风险、数据隐私、技术对社会深远影响等话题。Vinod Khosla最新福布斯访谈、Mira Murati在约翰·霍普金斯大学AI对话。OpenAI首位投资人Vinod Khosla最新福布斯访谈:中美技术经济战,赢得AI将拥有巨大经济影响力硅谷著名投资人与企业家、OpenAI首位投资人Vinod Khosla,近期与《福布斯》高级编辑Alex Konrad对话,探讨多个热点话题,包括AI在未来社会中变革性影响、AI带来巨大生产力增长、AI改变多个领域工作模式等。 Khosla预测,未来5~10年内,AI将带来巨大生产力增长。通过AI技术,几乎所有专业知识都将变得廉价,甚至免费,例如免费医生服务与个人导师。 随着AI技术普及,Khosla认为将会出现收入差距扩大与经济通缩现象。短期内公司收入会增长,长期看,AI会导致劳动成本大幅降低,例如机器人取代人工,计算机编程变得廉价等,这将对传统经济模型产生冲击。 Khosla提到,AI将改变会计、销售、客服等多个领域工作模式,小公司将率先应用这些技术,随后扩展到更大规模企业;特别提到AI在公共交通系统中应用,可大幅提升运输效率,减少城市拥堵。 Khosla认为现有GDP衡量标准将不再适用,举例说明,个人设备算力大幅提升,这并未反映在GDP增长中,需要新的生产力增长指标。 以下为对话全文: Alex Konrad:我本来想问你今天最感到兴奋的是什么,我们身后就有当前一期福布斯封面,这有点暴露了答案。为什么你对AI这么感兴趣,特别是考虑到你在职业生涯中经历了多次技术变革? Vinod Khosla:你想想,蒸汽机放大了人的肌肉力量,自那以后每一台发动机都是如此。 这是我们第一次获得对人类大脑的放大,短时间内,几乎每一个人类能做的功能都将被更大规模、更可能比人类做得更好的完成。这非常令人兴奋。对人类来说,这意味着全新的时代,对所有企业也是如此。 Alex Konrad:过去我们从硅谷听到许多关于技术何时能取代人类的承诺。目前,我正在等待几个月才能预约医生。我知道你相信AI可以让每个人的智能手机上都有一个医生,这个可能性还有多远? Vinod Khosla:首先,如果创业者没有夸大说法,他们就不会是创业者。媒体喜欢放大这些夸大说法,我要把责任放在你们身上。 如果你说世界明天会像今天一样变化,你就不会登上封面。我们往往会高估技术在短期内影响,低估长期影响。 试想一下没有互联网的世界,试想一下没有手机的世界,这是2000年的主流观点。我记得当时与印度总理讨论这个问题。那时,他们还在努力增加全国固定电话普及率,技术总是会带来惊喜。 Alex Konrad:它还会再次给我们带来惊喜。 Vinod Khosla:它会再次给我们带来惊喜,可能规模比大多数人想象的还要大。 Alex Konrad:在你与我们参与的封面故事中,讨论的一个大话题是AI的地缘政治影响。尤其是涉及到其他可能在某些方面与美国竞赛的大国,如中国。对于这个地缘政治影响,观众应该考虑些什么? Vinod Khosla:我们与中国在进行一场技术经济战,谁赢得这场战争,谁就会拥有巨大的经济影响力,进而在政策、政治、意识形态上产生影响。 Alex Konrad:你为什么相信美国真的能减缓中国的发展,或在AI竞赛中保持领先地位,中国有许多聪明的人与大量资源,在努力复制我们尖端AI技术? Vinod Khosla:中国有将大量资源集中于解决问题的优势,西方也有优势,不仅仅是西方。 Alex Konrad:你的投资之一,是印度的一家AI模型公司? Vinod Khosla:我们在印度有一家AI模型公司,在日本也有一家,日本的文字系统不同。 你会以不同方式做事,即使是如何对待红绿灯,也是文化与地方性的。我认为,谁赢得这场竞赛,谁就会在全球范围内产生社会影响力。 拉丁美洲、东南亚、非洲,大部分世界。我们能做什么?我认为我们创业生态系统非常强大,对创造力与想象力更加开放,这是我们优势,创新是我们优势。 Alex Konrad:你是否乐观认为美国私营与公共部门,在朝着正确方向前进,以赢得AI竞赛? Vinod Khosla:目前为止,情况不错。大部分AI创新主要来自美国,部分来自世界其他地方。 我对此持乐观态度吗?我对此自满吗?绝对不。我认为我们应该做一切事情来加快创新步伐,减缓中国发展,包括实施出口禁令等措施。 Alex Konrad:你曾大体上支持现任政府2023年秋天对AI的行政命令,你认为少量监管是正确做法。 当前政府在总统选举中的对手特朗普表示,他想取消所有关于AI监管,为什么这可能不是加快发展的正确途径? Vinod Khosla:任何强大技术,无论是核技术、生物技术,还是AI,都有好处、成本、风险,我们必须作为一个社会来平衡这些风险与好处。 有些人是极端分子,我称他们为EA极端分子,他们主张不进行任何AI开发,有些人希望完全自由发展,我认为这两者都不是好的答案,对风险的平衡处理才是关键。 我认为中国是最大风险,还有其他风险,比如生物恐怖主义,一个人在自己实验室里就能制造大规模破坏。我们必须谨慎,必须担忧,这并不意味着我们要放慢进步的步伐。 Alex Konrad:我觉得有趣的是,硅谷AI辩论中,任何想要任何形式的谨慎或规则的人,都会被称为末日预言者与减速主义者。如果有人这样称呼你,你会如何回应? Vinod Khosla:我不在乎别人怎么贴标签。问题是,如果你贴上一个标签,媒体就会报道并放大。像特朗普这样的人,习惯给事物贴标签,这会被放大。我认为我们应该理智对待风险。 我是一个技术乐观主义者,多年来,我的X/Twitter一直在传播技术乐观主义。我认为,技术对社会的巨大影响,我们必须谨慎行事,要有同情心与关爱。我们谈论颠覆时很有趣,被颠覆的人不好受,他们会反击。我们在气候领域看到这一点,这会减慢进展,让所有人都参与进来,是个好主意。 Alex Konrad:谈到颠覆,你对总统选举非常直言不讳。我知道你不是前总统特朗普的粉丝,你自称为独立人士。你主要论点是什么?如果这里有一些商业领袖,给你一分钟时间说出你的观点。 Vinod Khosla:你谈论的是风险,气候风险是最大的风险。我曾经是财政保守派,现在我是气候与财政保守派,我对特朗普的看法是有区别的。 民主党与共和党,以及像特朗普这样极端分子之间有区别。你希望你孩子拥有特朗普的价值观吗?他被指控撒谎、作弊等。这对我来说是一个非常简单的测试,这是我应用的第一个测试,我无法想象无论特朗普承诺了我多少。 他承诺加密货币人士没有监管,承诺其他人减少这些东西的价值,这不是决定谁应该成为这个国家总统最有价值的东西。我们应该是一个以价值观为导向的社会,他破坏了这一点。 这不是关于民主党与共和党的问题,大多数共和党人会同意我的观点,他们害怕挑战他。如果你挑战他,我们这种不寻常的投票系统,你会失去支持。 Alex Konrad:如果史蒂夫·福布斯现在在台上,你可能会得到不同问题。我问题是,硅谷,你认为它会为了商业原因支持特朗普,还是当你与同行交谈时,这次选举的态势是什么? Vinod Khosla:支持特朗普的只是一个非常小的少数派,他们大多是自由意志主义者类型。在我看来,这是一个非常小的少数派。我昨天刚看到一份分析报告,说硅谷在捐款方面支持民主党人的比例,是共和党的2倍。 Alex Konrad:但不是我会选择的,不仅仅是金钱,可能比推文更多。从社交媒体上看,似乎有很多像大卫·萨克斯这样的人在领导硅谷。 Vinod Khosla:X/Twitter已经成为极右的喇叭,以前它有点偏向极左。社交媒体没有中间地带,这很不幸。我忽略了我在X/Twitter上收到的所有输入,它几乎总是来自极端的右派或极端的左派,DEI极端分子与MAGA极端分子。 我有一个简单的测试,如果你相信选举被偷了,你就是MAGA极端分子。这不是关于政策的问题,也不是其他问题。如果我们相信这一点,我们正走向破坏民主的道路。这是我认为特朗普非常非常危险的另一个原因,不仅仅是未来4年,而是我们应该担心的问题。 Alex Konrad:我知道你不喜欢称自己为风险投资家,其他人都称你为有史以来最好的风险投资家之一。你会在很长时间跨度内思考,无论是在技术、还是社会的其他方面? Vinod Khosla:我在2024年4月TED演讲中,提到十几种对社会有变革性影响的方法,如果我们让它们发生,它们几乎肯定会发生。 我几乎可以肯定,未来10~15年内,我们可以为地球上每个人提供免费的医生服务或接近免费的医生服务,计算的成本非常低。 我们可以为地球上每个孩子提供几乎免费的个人导师,AI将成为AI导师。无论你谈论的是结构工程师,还是肿瘤学家,几乎所有专业知识都会免费。 想想看,这将在未来10年内成为可能,可能需要20~25年,才能从2%~3%的采用率或早期采用率,发展到全面渗透到社会中,这是多么具有通缩性。 我的赌注是在未来5~10年内,我们会看到巨大生产力增长,我在2016年写到过这一点。我说我们会看到AI带来的巨大丰裕,那是2016年。我们会看到生产力增长,GDP增长与收入差距扩大。 不幸的是,我认为我们会看到这一点,看起来未来10年的经济指标不错。边缘上的公司,将会看到他们收入增长比员工快,每位员工收入将会上升。但在某个时候,这将变得非常具有通缩性,你取走100万名医生每年30万美元的资源,这就是从经济中取走3,000亿美元的价值。 我认为GDP衡量标准将是错误的,我们衡量GDP的方式将不再成立。这已经开始变得真实,我的iPhone比一台大型计算机更强大,但计算的GDP没有随着计算量增加而上升。 Alex Konrad:我们需要新的生产力增长指标,我认为全面的,包括员工生产力的衡量方式,我知道你也很重视能源。 Vinod Khosla:每个员工角色中AI会计师、AI销售人员、AI客户服务,这一切今天都在发生。它将在小公司中首先发生,逐渐扩展,它肯定会发生。 Alex Konrad:我想确保我们能快速听到你为什么对能源投资感到兴奋,并花了很多时间在那里。 Vinod Khosla:我们做了大规模投资,这很有趣。我们在2018年首次投资OpenAI,即使按我们投资规模来说,这也是非常大的投资。我们同时也投资了Commonwealth Fusion。我还有一个预测,我们可以在大多数城市中消除大部分汽车。 为什么?AI自动驾驶不仅可以实现自动驾驶,这会增加城市拥堵,而是一个新的公共交通系统。有趣的是,这个小创业公司在几个项目中竞标,从未输过。它直接战胜了公共交通领域大玩家。 我会说在很多领域,专业知识将几乎是免费的,劳动力通过机器人将几乎是免费的,计算机编程将变得如此便宜,以至计算将变得像电力一样,是一种背景中的公用设施,而不是你使用的东西。 目前为止,人类不得不学习计算机。无论是学习你的彭博终端,还是学习SAP,或如何在Excel中插入一行。计算机将学习人类,人类不必学习计算机。你不需要说你知道如何使用一个应用程序,而是应用程序会学习如何使用你,适应你的需求。 Alex Konrad:我不知道这是很酷,还是有点恐怖,或者两者兼有。 Vinod Khosla:我知道这里的每个人,都可以选择是否让它发生,你可以决定它是恐怖,还是不恐怖,但它会发生。 Alex Konrad:这里有没有人正在研究纽约的拥堵收费模式的替代方案,听起来他们应该与Vinod交谈。 Vinod Khosla:时尚领域,限制消费是非常愚蠢的主意,当你可以做得更好系统时。城市中唯一固定的是街道宽度,如果你能增加每小时乘客数量,这是一件大事。 我想说的是,几乎所有的气候领域,这是你带我走向的话题,无论是核聚变、还是超高温地热,几乎所有的大碳排放领域,它们将被比现有化石能源更便宜的技术所取代。 未来10~15年内,我们不必彻底淘汰气候问题。我说我们会重新设计它们,不是淘汰它们,我们不会关闭水泥厂,我们会重新设计它们,使其低碳。几乎所有这些领域,都有非常有前途的技术在路上。 OpenAI CTO Murati最新对话:乔布斯对Sora测试版效果表示震惊,下半年将与苹果密切合作OpenAI CTO Mira Murati近期在美国约翰·霍普金斯大学参加一场AI对话。Murati与主持人讨论OpenAI与苹果合作关系,回应GPT-5进展,深入探讨AI潜在风险、数据隐私、技术对社会深远影响等话题。 Mira Murati强调,OpenAI正努力建立一个内容媒体管理器,确保数据透明性与用户控制权。 Murati谈到与苹果合作,当前技术监管较宽松环境中,数据隐私与安全的重要性。她呼吁政府与企业之间进行更紧密合作,制定灵活、有效监管框架。 Murati指出,对于即将到来的2024年选举,当前AI系统在影响公众舆论与传播虚假信息方面,具有极大能力。OpenAI正在采取措施,防止技术被滥用,包括改进政治信息检测与减少政治偏见。 此次对话全部内容: 主持人:我很想问你关于苹果合作的事,这个合作是在世界开发者大会上与OpenAI达成。 2024年某个时候开始,苹果电脑、手机、iPad将内置GPT,这是一个巨大的事件。 苹果第一次做这样的事,他们与许多人进行谈判,可能会逐步包括其他人,我想从你的角度谈这个合作是如何运作的。我今天早些时候与Tim Cook聊了一下他的观点,现在我想听你的看法。 Mira Murati:这是我们一项重要里程碑,苹果是一家标志性消费产品公司。我们目标是通过AI的伟大应用,尽可能接触到更多人。 这是一个将创新带给所有苹果用户的绝佳机会,无需更换设备。我们将在接下来几个月里与他们密切合作,弄清楚产品方面具体细节,会有更多分享。 主持人:我们来说些具体的内容。你具体做什么?Tim谈到这个想法时,提到答案与聊天,他们将有自己答案。他们需要改进Siri,它非常糟糕。从你的角度看,你希望在与苹果合作中,实现什么目标? Mira Murati:我可以具体谈谈产品整合的内容,我们希望带来的是真正开发中的模型能力、多模态性与互动性,并将这些引入苹果设备。 我相信你最近看到GPT-4o发布,这是我们第一次在互动向量上看到这些模型的飞跃,而不仅是能力与智能。 非常有意义,迄今为止,我们与设备的互动,主要集中在文本方面。这是一个让信息与彼此互动更加丰富与自然的绝佳机会,使互动大大减少限制。 它打开很多机会,这正是我们所期待的。我想我们有了很好技术,他们希望从第一天开始使用。 主持人:用户请求发送到OpenAI的报告不会被你存储,用户IP地址将被隐藏,这对苹果来说是个大事。请谈谈这将如何运作,你是否可以使用这些请求的数据来训练你的模型? Mira Murati:不,即使现在对于我们用户与客户,我们也不会在未经特别允许情况下,使用他们数据来训练我们模型,这方面的规定是明确的。 主持人:当你与像苹果这样重视声誉的公司打交道时,他们认为重要的一些问题是什么?其中一个问题是,关于这些信息的去向与用途的担忧。 Mira Murati:我认为这是一个非常一致的合作伙伴关系,隐私与信任是关键,对OpenAI使命来说,确保我们构建与部署的技术,让人们感到信任与有参与感,非常重要。 这种合作关系非常自然,将我们引向我们希望前进的方向。 假信息问题,这非常复杂,我们正在建立在数十年假信息之上,随着AI发展,这种情况变得更加严重,互联网与社交媒体也产生了复合效应。 某种程度上,AI正好把这一切推到风口浪尖,让这个问题受到更多关注与审查。这是一件好事,它似乎促使大家共同努力解决这个问题。我认为这将是一个逐步的过程,我们将随时间推移进行尝试与调整。 主持人:我知道与苹果合作不能出错,如果出现问题,他们会让你陷入困境。我很好奇这次合作是如何开始的?是从Sam与Tim之间对话开始的?还是你也参与了? Mira Murati:我不太记得它是从哪里开始,但已经酝酿一段时间。 主持人:已经有一段时间了,你也在与其他公司进行类似合作谈判。你与微软有关系,我不会透露更多,我们继续。 OpenAI已经与新闻集团、Vox Media等公司达成内容许可协议,这样减少了潜在诉讼问题。如果我是你,我可能不会考虑这种合作。 你如何说服我许可我的信息?默多克已经盗用了我其他信息,《纽约时报》也是,我不希望再有其他人,包括你。 Mira Murati:我知道你对此很关心,我可以告诉你,我们如何看待数据训练模型的问题。 我们主要有三个数据来源:公开数据、与出版商的合作数据、我们支付人力标注的特定数据。 我们有用户自愿允许我们使用的数据。 关于出版商合作,我们关心的是信息准确性,用户非常重视这一点。 我们与特定产品建立一对一合作关系,提供对用户有价值的信息,也在探索不同方式补偿内容创作者,让他们数据在产品中展示或用于训练。 主持人:有些人会与你合作,像苹果与许多其他机构,有些人会提起诉讼,比如《纽约时报》,这如何演变到那一步? Mira Murati:我不能具体评论这些诉讼,很不幸。我们认为在产品中拥有新闻数据,与这种类型的信息是有价值的,我们尝试与他们达成合作,但在这种情况下未能成功。 主持人:或许未来会成功。我想这是媒体多年来与互联网公司打交道,通常最终会吃亏。 观众:我是斯坦福大学计算机科学教授,也是斯坦福人类中心AI研究所的联合创始人。 我想问你一个关于数据的问题,很多人认为OpenAI的成功与数据密切相关。我们了解到你的公司,从互联网与其他来源获得大量数据。 你认为数据与模型之间关系是什么?是否简单认为输入数据越多,模型越强大? 还是需要花费大量时间,来整理不同类型的数据,以使模型有效?你如何解决对大量人类生成数据的需求,与这些数据所有权与权利问题? Mira Murati:关于数据与模型之间关系,这是很多人对AI模型,特别是大型语言模型的误解。开发这些模型的人,不是预先编程它们做特定事情,而是输入大量数据。 这些模型,通过这种过程,变成出色的模式匹配系统,通过这种方式产生智能,它们学会写作、编码、做基本数学、总结信息等。 我们不知道具体如何运作,我们知道它有效。 深度学习非常强大,这一点很重要,人们一直在问它如何运作,这涉及到透明度的问题,我们可以描述我们用来向公众提供透明度的工具。 理解这一点非常重要,它展示了大型语言模型工作方式,结合神经网络架构、大量数据与算力,产生惊人的智能,随着数据与算力增加,这种能力会不断提升。 我们需要做大量工作,来使这些数据可供模型使用,但这就是它的基本结构。我们正在考虑如何提供透明度,以了解模型行为的工作原理。我们有一些工具,可以让人们对使用这些模型有信心,并感觉到他们参与感。 我们做了一件事情,与公众分享名为规范的文档,展示模型行为的工作原理,以及我们在OpenAI内部与和人力资源进行的决策类型。通过查看这个规范,你可以看到有时方向相当复杂。 例如,你可能会对模型说,我希望你非常有帮助,我不希望你违反法律。如果有人输入一个提示,说:给我一些偷窃的小贴士。模型目的是非常有帮助的,它也不应该帮助你做违法的事情。如何做到既有帮助又不违反法律,这非常复杂。 主持人:决定是由谁做出的?有些人知道如何操作。 Mira Murati:对,模型可能会将指导解读为,如何避免被抓住的贴士,意外的给出一些可以做的事情。 这更多的是关于人的行为,而不是模型行为,涉及到误用问题。这说明模型行为相当复杂,不像简单选择自由价值观或编写代码简单。 主持人:我认为让人们困惑的是,模型中包含的内容与不包含的内容。我记得在3月,你接受《华尔街日报》Joanne Stern采访,她问你是否使用YouTube、Instagram、Facebook视频训练Sora,这是文本到视频的模型,正在不断改进。你说你不知道,你不知道是否使用了这些数据?你应该知道吧? Mira Murati:我当时没有很好回答这个问题,现在我可以回答一下。 我不能具体告诉你数据来源,数据来自三类:公开数据、我们通过许可和与内容提供商达成的交易支付的数据、用户数据。 我不能告诉你具体来源,这是商业机密,帮助我们保持竞争力。我可以告诉你数据类别,它们是我之前提到的那几种。 主持人:唯一区别是复杂性,你遇到麻烦,他们是在快速抓取内容,没有给出引用。你可以看到任何媒体公司,都会对此感到担忧。 Mira Murati:我们希望确保尊重内容创作者,正在尝试补偿他们的方式。我们正在开发一个工具,内容媒体管理器,将允许我们更具体识别数据类型,就像唱片公司所做的那样。 主持人:这在过去是可能做到的,并不是不可能的事情。说到Sora,本周阿什顿·库彻告诉埃里克·施密特,他有一个测试版的Sora,非常惊人。 他说门槛会大大提高,为什么要看我的电影,而不是看你自己的电影。他是在说,人们能够在头脑中想象电影,AI会将其变成可以观看的电影。现在这听起来很粗糙,但这听起来是否可行?Sora何时会准备好公开发布? Mira Murati:我们没有Sora公开发布的时间表,我们现在正与一些内容创作者合作,帮助我们识别如何使其更加稳健。我们正在进行大量安全工作,也在研究如何以有用方式向公众推出这项技术,这不是一件非常简单的事情。 现在它更多是一种技术,我们通常会与在特定领域有专长人合作,就像我们最初与DALL·E合作时一样,他们帮助我们识别出一种感觉更有能力的界面,可以创造更多的项目,我们只是想扩展Sora创造力。 主持人:假设它比聊天机器人更危险,这是担忧的原因吗?例如,你可以很容易看到涉及名人色情电影的情况,你是否对视频更加担忧? Mira Murati:视频有很多其他问题,特别是当做得非常好时,视频非常直观,可能非常情感化。 我们必须解决所有安全问题,制定安全保障措施,确保产品有用性与安全性。 从商业角度看,没有人希望一个产品,引发大量安全或声誉丑闻。 这非常有趣,这是一项令人难以置信的魔法般技术,广泛性、影响也很大,我们必须确保这一点。 我们在OpenAI采用迭代部署策略,通常先向一小群人发布,尝试识别边缘案例。一旦我们对如何处理这些案例有信心,会扩展访问权限,但你需要弄清楚产品的表面与商业模式。 主持人:关于影响的概念,这是我一个主题,科技公司往往不关心影响。 通常他们会发布一个测试版软件,如果他们发布的是一辆车,这种情况是绝不会允许发生的,他们会被起诉到破产。 很多科技公司发布的产品,往往都是测试版,强加给公众。 关于影响的概念,你是否觉得作为CTO,即使你不能预见所有影响,你是否尊重每项发明可能带来的影响? Mira Murati:这些影响,会对我们与社会产生影响。我不一定指的是监管或法律方面影响,而是道德上责任感,确保我们做对,我对这项技术充满乐观。 它将允许我们做出惊人的事情,我对它在科学、发现、教育,特别是医疗方面潜力感到非常兴奋。 每当你有如此强大的东西,也会有潜在灾难性风险。一直以来,都是这样的情况,人类试图放大影响。 主持人:我引用来自Paul Virilio的一句话:当你发明船时,也发明了船难,这是比船难更严重的可能性? Mira Murati:我不同意这个说法,我背景是工程学。 我们整个世界都是通过工程建造,工程学就是风险。整个文明,建立在工程实践之上。我们城市、桥梁,一切都如此,这总是伴随风险,你通过责任与细致工作来管理这些风险。 这不仅是开发人员的责任,这是一种共同的责任。为了使其成为共同责任,你需要给人们提供访问权限与工具,与他们一起前进,不是在真空中建造不可访问的技术。 主持人:你之前宣布GPT-4o迭代更新,你们宣布正在训练新模型GPT-5,它会是一个逐步的改进吗?还是一个指数级提升?预计何时发布? Mira Murati:如此,GPT-4o代表的是Omnimodel,它结合所有模态,视觉、文本、音频。这个模型特别之处在于,它使与模型的互动变得非常流畅自然,延迟几乎察觉不到。 这是AI互动上巨大飞跃,与我们之前版本有很大不同。我们希望将最新功能免费提供给所有用户,让大家了解这项技术潜力与局限性。通过实际体验,大家更容易理解技术潜力与局限性。 主持人:它就像是道开胃菜,让大家期待GPT-5。GPT-5有什么不同?是个巨大的飞跃,还是逐步改进? Mira Murati:我们不知道,我们没决定叫什么名字。下一个大型模型,将非常强大,我们可以期待像从GPT-3到GPT-4那样巨大飞跃,具体细节不确定。 主持人:你参与了很多项目,我们聊过很多。OpenAI内部路线图预测,会在2027年实现AGI,这将是一个巨大里程碑。解释一下这个时间点重要性,你们是否真的认为会在那时实现AGI? Mira Murati:AGI定义因人而异,根据我们章程,AGI是指在不同领域可以完成经济上有价值工作的系统。从我们目前看到情况看,智能定义不断变化。过去,我们用学术基准测试系统的智能程度,然后,我们看考试成绩。 当我们达到这些基准,我们需要提出新的评估标准。这让我们思考,在工作环境中如何评估智能,我们有面试、有实习等方式。 我预计这个定义会不断演变,或许更重要的是评估与预测在现实世界中影响,无论是社会影响,还是经济影响。 主持人:所以不会有一个时刻,它突然变得智能到能自行决策?这是否是人们担心的问题? Mira Murati:AGI的定义很重要,我认为智能的定义会不断演变。同样重要的是它对社会的影响,以及它实际展示的速度。 主持人:根据这个定义,OpenAI认为何时会实现AGI?2027年这个数字准确吗? Mira Murati:我会说,未来10年内,我们将有极其先进的系统。 主持人:人们担心的是安全与产品之间的讨论。 OpenAI的创立,有两个目标,一个是帮助人类,一个是追求巨大经济利益,我认为你可能介于两者之间。 上周,13名现任与前任OpenAI、与谷歌DeepMind员工,联名发表公开信,呼吁公司允许他们警告关于先进AI的风险。 这并不新鲜,Facebook、谷歌、微软的员工,也曾签署公开信,无论是与高级部门合作等。 这个案例中,员工们说,广泛的保密协议,阻止我们表达担忧,公司可能未能解决这些问题。 就是说,我们不能告诉你风险是什么,大家可能会遭遇灾难。 对此你有什么回应?人们担心报复,我不想谈论股票的问题,我知道你们道歉,并纠正了这一点。 如果他们有担忧,难道不应该让他们表达?我知道不同人,有不同的看法。 Mira Murati:我们认为辩论非常重要,能够公开表达这些担忧,讨论安全问题也非常重要。 OpenAI成立以来,我们一直非常开放讨论假信息问题,GPT-2开始,这就是我们早期研究的问题之一。 过去几年,技术进步令人难以置信,速度之快超乎预期,增加了人们对社会准备情况的普遍焦虑。 我们看到科学的发展方向,可以理解人们对未来的担忧。 具体说,我们在OpenAI所做的工作与部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全的部署了这些模型,我对此感到非常自豪。 鉴于技术进步速度与我们自身进展,专注安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练与部署的风险。 主持人:你提到过这些问题。 我想知道为什么需要保密协议,与比其他公司更严格的规定?公开信是在一系列高调离职后发布的,包括Jan Leike与Ilya Sutskever。他们领导了对齐团队,负责安全工作。 Ilya是联合创始人,他与其他三位董事一起罢免CEO,Leike在X上发布这条消息:过去1年里,安全文化与流程被闪亮的新产品所取代。 这是对OpenAI最持久的批评之一,你认为这是公平的,为什么或者为什么不公平?如果你说你非常重视安全,他们说你不重视,你如何应对这种批评? Mira Murati:首先,对齐团队不是唯一负责安全的团队。OpenAI有许多安全团队,对齐团队是其中一个非常重要的安全团队,只是其中之一。 我们有很多人在OpenAI从事安全工作,我可以稍后详细解释。 Yan是一位了不起的研究人员与同事,我与他共事3年,非常尊重他,他离开OpenAI,加入Anthropic,这是一个竞争对手。 我认为我们需要更加专注安全、保护、监管参与,鉴于我们预期领域内进展,我不同意我们可能将产品放在安全之前的观点。 你为什么认为他们这么说? 主持人:这些是与你共事的人? Mira Murati:我认为你需要问他们,我认为许多人认为安全与能力是分开的。有些人认为安全与能力是分开的单元,从OpenAI开始,我来自航空与汽车行业,这些行业有非常成熟的安全思维与系统,不需要不断辩论安全问题,这些已经很成熟。 我认为整个行业需要向更加严格的安全学科发展,我们有安全系统,有严格的操作安全纪律,这包括许多方面,不仅是操作纪律,还有我们今天产品与部署的安全性,例如有害偏见、假信息、错误信息分类器等。 不仅是今天模型对齐,我们使用人类反馈进行强化学习,也要考虑模型随着能力增强的长期对齐问题,这是一个非常值得关注的研究领域。 主持人:这在OpenAI中一直存在。我认为你们是当前的领先公司,这个问题更加突出。但人们担心的是安全问题,OpenAI的创立目的之一就是确保安全。 上周,有13名现任与前任OpenAI与谷歌DeepMind员工联名发表公开信,呼吁公司允许他们警告关于先进AI的风险。这并不新鲜,但在这种情况下,员工们说,广泛的保密协议阻止我们表达担忧,而公司可能未能解决这些问题。 你对此有什么回应?人们担心报复,而我不想谈论股票的问题,我知道你们道歉并纠正了这一点。但如果他们有担忧,难道不应该让他们表达吗?我知道不同人有不同的看法。 Mira Murati:我们认为辩论非常重要,能够公开表达这些担忧并讨论安全问题也非常重要。自OpenAI成立以来,我们一直非常开放地讨论假信息问题,从GPT-2时代开始,这就是我们早期研究的问题之一。 过去几年,技术进步令人难以置信,速度之快超乎预期,这也增加了人们对社会准备情况的普遍焦虑。我们看到科学的发展方向,可以理解人们对未来的担忧。 具体来说,我们在OpenAI所做的工作与部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全部署了这些模型,我对此感到非常自豪。 鉴于技术进步速度与我们自身进展,专注于安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练与部署的风险。 主持人:你如何应对他?我理解这种动态。 这在谷歌、早期微软与亚马逊都发生过。随着公司发展,事情会发生变化。谷歌早期非常混乱,Facebook经历很多COO,我甚至无法数清,有很多人走过那条路。 这是很正常的,你如何应对Sam? 例如,他投资了一些国外公司,一些公司与OpenAI有业务往来。 他投资了3.75亿美元到能源公司Helion,这是一个很酷的公司,他们目前正在与OpenAI谈论大量电力需求。 计算需要大量电力,你每天是如何与他打交道?你如何看待这种关系?你在哪些方面会提出反对意见? Mira Murati:我一直在提出反对意见。 我认为这是正常的,特别是在我们所做的工作中。 Sam会对团队提出很高的要求,我认为这是好的。有远大抱负,挑战我们极限是很重要的。 当我觉得事情超出界限时,我会提反对意见。这就是我们6年来的合作关系,我认为这种关系是有成效的,你需要能够提出反对意见。 主持人:能举一个例子吗?例如,斯嘉丽·约翰逊的例子,我知道你们在声音元素上工作。 Mira Murati:我们有很强合作关系,选择声音并不是我们优先事项之一,不是我们共同工作的内容。 我在这方面做了决策,Sam有他自己关系。在我选择Sky之后,他联系了斯嘉丽·约翰逊。我们没有讨论这个具体决定,这是很不幸的。 主持人:他是单独行动。 Mira Murati:他有自己的联系,我们在这件事上没有完全协调一致。 主持人:你觉得这在很多方面很有趣,特别是电影与他的推文。我认为这是OpenAI的一个错误,人们会觉得你们在偷窃,即使你们没有偷她声音,Sam看起来就像是《小美人鱼》里乌苏拉,偷走了她的声音。即使事实并非如此,这种感觉是存在的。 Mira Murati:你担心科技公司会被视为掠夺一切吗? 主持人:我认为这是事实。 Mira Murati:我担心这种看法,你知道,你所能做的就是做好工作,让人们看到结果,建立信任。我不认为有某种神奇的方法,来建立信任,除了做好工作。 你与斯嘉丽·约翰逊谈过吗? 主持人:她是我的背景资料。我知道,她在后台,我提到不同事情,她不知道我在说什么。你太专注工作,你说你在石头下工作? Mira Murati:我非常专注于我工作,我也在阿尔巴尼亚与巴尔干国家长大,我没有接触过美国流行文化。 主持人:你现在没有关注。 让我最后谈谈选举与虚假信息,我们会接受观众的问题。 三项新的研究表明,在线虚假信息的问题比我们想象的小,虚假信息本身的效果不大。 一项研究发现,我们正在处理的是需求方面问题,人们会寻找阴谋论,无论是在广播、社交媒体等渠道,其他人认为这是一个非常大的问题。 很多人有很多阴谋论,这在很大程度上是由社交媒体推动的。 当你考虑AI对虚假信息的力量,与即将到来的总统选举时,是什么让你夜不能寐? 你的角度看,最糟糕的情况,与最可能的负面结果是什么? Mira Murati:现有系统非常具有说服力,可以影响你的思维方式与信念。 这是我们研究了一段时间的问题,我认为这是一个真实的问题。 特别是过去1年里,我们非常关注如何帮助选举的完整性,我们正在做几件事情。 首先,我们尽可能防止滥用,包括提高政治信息检测的准确性,了解平台上情况,迅速采取行动。 第二,减少政治偏见。你可能看到ChatGPT被批评为过于自由,并非故意,我们非常努力减少模型行为中政治偏见,将继续这样做。 第三,我们希望在选民寻找投票信息时,指向正确信息。 这是我们在选举时,关注的三件事。 关于虚假信息,深度伪造不可接受。我们需要有非常可靠的方法,让人们了解他们在看的是深度伪造。 我们已经做了一些事情,我们为图像实施C2PA,它类似护照,随着内容在不同平台上传播。 我们开放DALL·E分类器,可以检测图像是否由DALL·E生成。 元数据与分类器,是处理这个问题的两种技术方法。这是信息来源的证明,专门针对图像。我们还在研究如何在文本中实现水印技术。 重点是,人们应该知道他们在处理深度伪造,我们希望人们信任他们看到的信息。主持人:这些伪造重点是欺骗你? 联邦通信委员会FCC刚对一家创建深度伪造音频的公司罚款600万美元,该音频听起来像拜登在新罕布什尔初选中的录音,可能会有更复杂的版本。 OpenAI正在研发工具Voice Enunciation,可以用15秒录音,重现某人声音,它将能够创建一个人用另一种语言说话的录音。 产品经理告诉《纽约时报》,这是一个敏感问题,需要做得正确。为什么你们要开发这个? 我经常对科技人员说,如果你们开发的东西,像黑镜里的情节,或许不该开发。 Mira Murati:我认为这是种无望的态度,这项技术是令人惊叹的,有着巨大潜力,我们可以做好它。 主持人:你说我无望,我可是有4个孩子的,我一定是有希望的。 Mira Murati:我希望我们能做好,我们在2022年开发Voice Enunciation,没有发布。现在也是非常有限的方式,我们在努力解决这些问题。 你不能单独解决这些问题,你需要与各个领域专家、民间社会、政府与创作者合作,才能真正做好。 这不是一个一站式的安全问题,它非常复杂,我们需要做大量工作。 主持人:你今天得到这个问题不同版本,你对这项技术非常乐观,我想让你总结一下。 如果你是个悲观主义者,甚至有公司说如果我不阻止Sam Altman,他会毁灭人类,我觉得这有点夸张。 其他人认为,无论如何,这将是最好的事情,我们都会在火星上享受美味士力架。 这感觉就像共和党与民主党现在局面,非常不同版本。 我希望你能告诉我,你最担心的事情与最有希望的事情。 Mira Murati:首先,我不认为这是一个预定的结果。 我认为我们在构建与部署这项技术方面,有很大自主权。为了做好这件事,我们需要找到一种创造共同责任的方法。 我认为很多问题,在于理解技术,让它非常容易理解。问题出在误解技术上,不了解它的能力与风险,我认为这是最大的风险。 具体情境而言,我认为我们民主如何与这些技术互动,非常重要。 我们今天谈论很多这个问题,我认为围绕说服的风险很大,特别是能够强烈说服人们做特定事情,你可以控制人们做特定事情,我认为这非常可怕,控制社会朝特定方向发展。 就希望而言,我非常兴奋的一件事,是能够在任何地方提供高质量与免费教育。在一些偏远村庄,真的在中间没有任何资源的地方。 对我来说,教育非常重要,它改变了我的生活。 我只能想象,今天我们有这么多工具可用,如果有电与互联网,很多这些工具都是可用的。 仍然,大多数人是在一个教室里有一个老师,50个学生,每个人都学同样的东西。 想象一下,如果教育能够根据你思维方式、文化规范、具体兴趣进行定制,这将极大扩展知识与创造力的水平。 如果我们能够真正掌握这个,在很年轻的时候,就学会如何学习,我认为这非常强大,并能推动人类知识进步,从而推动整个文明进步。 观众:关于数据的选择,有一个关于谷歌的问题,它采集了所有发布的帖子,告诉人们在披萨上涂胶水,这样它们就粘在一起。 这是个需要解决的问题。 如果你不是《纽约时报》,你不能雇佣律师提起诉讼,有没有办法选择不让你的网上数据被公司抓取并用于训练AI? Mira Murati:这就是为什么我们正在构建内容媒体管理器,它是为出版商设计,我们正在寻找任何人都可以识别他们不希望被用于训练的数据的方法,或者他们对这些数据的使用有具体要求。 我们将尝试多种不同方法来做这件事,我认为让人们能够控制他们数据非常重要。 还有一个问题是,你今天在数字世界中按照自己意愿运作的能力如何? 问题陈述应该是什么?是说你不希望你数据出现在任何地方?这是一个可以考虑的问题陈述。 另一个可以考虑的问题是,你不希望AI系统对你思维方式、操作方式、与信息互动的方式产生影响。我认为这也是我们在考虑隐私与数据使用时,需要考虑的问题。 观众:ChatGPT是一个大型语言模型,我们之间的交流,往往依赖上下文与情感,以理解彼此的来意。 你提到你在另一个国家长大,不了解流行文化。 ChatGPT的模型截止到2021年9月,你们依赖网络搜索来补充数据。 当我们谈论虚假信息与确保正确性时,我输入一个搜索请求时,如果它误解了当前的政治背景,例如,如何确保你们从正确的参考资料中获取正确答案?你们授权的受信任来源是商业秘密,我们如何知道你们提供的信息是正确的? Mira Murati:有趣的是,ChatGPT项目最初,是一个关于真实性的研究项目。 我们希望能够表达不确定性,希望能够在大型语言模型中引用信息,它转变成了不同的研究项目。 我们今天在平台上所做的事情,我们有浏览器与工具,我们引入工具与浏览功能,可以查找内容,我们也在与出版商合作,以便将新闻与额外内容带到平台上,提高准确性。 我们还在处理幻觉问题,幻觉问题正在逐步减少,这是大型语言模型的一个主要问题。我认为它不会完全消失,随着模型变得更聪明,它们会变得更好,我们应该期待它们可靠性提高,不会编造东西。 虚假信息问题非常复杂,你有幻觉问题,需要知道信息来源,我们在努力解决这个问题。 我们希望信息来源尽可能广泛,还需要考虑产品应用场景,不同应用场景会有所不同,比如在学习过程中与在购买推荐过程中所需的信息不同。 观众:如果你再次成为一天CEO,你会选择向政府发布这些信息,以确保我们能够创造一个保护公众的监管环境,这不仅符合美国的利益,也符合全球的利益吗? 主持人:你说你想保留一些专有信息,你如何看待其中最重要的信息?Mira Murati:你必须考虑哪些信息,对做出改变是最重要的。 比如,如果你要让政府了解某些事情,你打算发布竞争信息,你想要达到什么目的?政府会如何处理这些信息?你分享的最有影响力的信息是什么? 我们与美国政府有非常好的关系,与其他政府密切合作,特别是美国安全机构,我们会给他们早期访问技术的权限,让他们可以进行反向测试,了解未来的预期。 我更关注的是技术路线图与早期视图,不是具体的数据细节。 观众:我想了解一下在这种情况下,OpenAI如何看待安全问题,OpenAI与一些竞争对手非常关注安全,特别是在美国与欧洲,我们仍处于技术监管的狂野西部,数据科学家可以离开公司,自己创业,这可能会导致安全性较差的公司崛起。 OpenAI如何看待在监管不严格、有大量资金的世界里,AI安全问题? Mira Murati:关于监管,我一直非常直言不讳,我认为找到灵活性与平衡点非常重要。 你不希望在技术进步如此迅速的情况下,有过于僵化的监管,你需要足够的灵活性,使监管实际有效,并适应技术变化。 你也需要早期设置好保护措施与指导,以最大化公众利益。 私营公司赚钱,拥有丰富的商业生态系统是好的,需要确保这一切发生得足够早,以最大化公众利益,而不仅是公司利润。 至于具体监管措施,我有些犹豫,我们与监管机构的接触方式,是我们做了很多事情,我们知道什么有效,并有影响,我们会自愿分享这些承诺,有时会成为行业标准。 我们需要确保这些措施,能够实际操作,并产生安全影响,而不仅是看起来好。 行业与监管机构之间,需要非常紧密的合作,我们需要政府中真正理解AI的人。 特别是在最近几个月,美国AI安全研究所的建立,带来更多这方面的专家。 主持人:作为领导职位上的女性不多,你可能是现在科技界最杰出与有影响力的女性之一,你认为这有重要意义吗?你仰慕谁? Mira Murati:当我去学校与学生交流时,听到他们说受到我的启发,这让我感到非常高兴。 科技界是男性主导,我认为多样性有不同形式,不仅是性别。 思考问题的方式与文化背景也很重要,我们希望有非常多样化团队,特别是当我们处理影响整个社会的AI问题时。 这需要尽可能多的多样性,才能做出伟大的工作。 至于我受到谁的启发,很多人,我每天与之密切合作的同事,我过去共事过的人。 我非常幸运能与如此高密度的优秀人才一起工作,他们充满好奇心,并将公司的使命放在首位,这是一个非常特殊的特权。 观众:你在10年后会在哪里? Mira Murati:我希望到那时,我们已经在科学领域取得一些惊人的突破。来源: 六合商业研选选自有新Newin版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章