Redian新闻
>
OpenAI再压谷歌一头,最强模型GPT-4o免费发布,语言对话媲美人类反应

OpenAI再压谷歌一头,最强模型GPT-4o免费发布,语言对话媲美人类反应

公众号新闻

 防走失,电梯直达安全岛报人刘亚东A 




来源:网易科技
作者:普子胥

GPT-4o 语音延迟大幅降低,能在 232 毫秒内回应音频输入,平均为 320 毫秒,这与对话中人类的响应时间相似。

5月14日,OpenAI春季发布会,依旧是奥特曼熟悉的味道:
不仅抢在自己最大竞争对手“Google I/O”大会前发布,并在会前数次吹风:“将会带来很有意思的东西。”
现场,OpenAI首席技术官MiraMurati,在轻松的氛围中宣布:Open AI推出桌面版ChatGPT,并推出名为GPT-4o的全新旗舰人工智能模型。
那么,GPT-4o有何特别之处?
而堪称AI圈里最懂PR的奥特曼,这一次,有没有继续吹牛?

电影《Her》,
从科幻走进现实
“GPT-4o 可以综合利用语音、文本和视觉信息进行推理。”
现场,OpenAI首席技术官MiraMurati指出,过去的GPT-4可以处理由图像和文本混合而成的信息,并能完成诸如从图像中提取文字或描述图像内容等任务。
不过,GPT-4o的强大之处,就是可以在GPT-4的基础上,新增语音处理能力。
并且,GPT-4o还可接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。
这也意味着,GPT-4o相比GPT-4,不仅能看文本,还能看图像,能言善道,反应迅速。
并且更加像人。
而这,是这次GPT-4o的核心变化。大家纷纷惊呼,OpenAI再次改变世界!
1、实时回应,反应迅速
现场,演示者提问结束后,GPT-4o 几乎可以做到即时回应,没有停顿。
答案生成后,GPT-4o 能够立马将文本转语音,进行朗读。
准确来说,这不像是和一个AI进行模块式问答,而更像是和一个“真人”对话。
事实上,GPT-4o有着更快的反应速度:它可以在232毫秒的时间内响应音频输入,平均为320毫秒,这与人类在谈话中的反应时间,基本一致。
此外,GPT-4o在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了50%,速度是GPT-4-turbo的两倍。
与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。
2、全能立体,沟通无障碍
相比前辈们,GPT-4o变得更加强大了。
现场,它不仅可以通过画面实时解答数学方程,并能根据统计画图,进行现场指导。
并且,GPT-4o还能跨越国界,掌握多国语言。
现场,GPT-4o就根据实时提问,来了一段意大利语。

事实上,根据传统基准测试,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能。
此外,GPT-4o同时在多语言、音频和视觉功能上设置了新的高水位线。
3、更加自然,更加真实,也更加“像人”
GPT-4o 还有着更加拟人的功能。
现场,GPT-4o还能调整说话时的语气,根据指令改变声音。
能够以自然的、听起来像人类的声音说话,甚至还可以唱出部分回应。
不管是夸张、戏剧,乃至低沉阴冷,甚至机械嗓音。
GPT-4o都展现出了其声音极强的张力和可塑性。
不仅如此,在与人对话中,它还能发出不止一种语气词。
以及最重要的,对话中,GPT-4o体现了很多“情绪化”的表达。能够查看图表图像并进行讨论,检测用户情绪。
现场,它能通过音频感知,去试着对观看提问者的面部表情,做出情绪分析。
这不由得令人联想道电影《Her》中,那位具有磁性嗓音、复杂多变的AI,正从科幻走向现实。

更加简单、直观的GPT-4o ,
要不要钱?
那么,强大的GPT-4o是如何感知情绪的?它是否会收费呢?

GPT-4o 之前,人们虽然可以使用语音模式与 ChatGPT 对话。然而,其平均延迟为2.8秒 (GPT-3.5) 和5.4秒 (GPT-4)。
一般而言,ChatGPT 采用的语音模式,是由三个独立模型组成:例如,其中一个简单的模型,是将音频转录为文本,GPT-3.5或 GPT-4接收文本并输出文本,再由型将该文本转换回音频。
然而,这也意味着GPT-4丢失了大量信息:它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。
因此,此次的 GPT-4o,则达成了跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。
这也使得,该模型使用起来将更加简单、直观。
GPT-4o 的出现,则标志着一个够使用文本、语音和视觉交互的数字助手,一个能够查看用户上传的屏幕截图、照片、文档或图表,并进行对话的贴心管家,正在加速而来。
此外,OpenAI 首席技术官 Mira Murati 表示,ChatGPT 现在还将具有记忆功能,这意味着它可以从之前与用户的对话中学习。
“这是我们第一次在易用性方面真正迈出一大步,”穆拉蒂在公司旧金山总部的现场演示中说道。“这种互动变得更加自然,也更加容易。”
值得注意的是,此前OpenAI 发布新版 ChatGPT 模型时,通常会将其置于付费墙之后。不过,这次 GPT-4o 将免费提供给所有用户,付费用户则可以享受五倍的调用额度。
Mira Murati表示,该模型将在未来几周内分阶段集成至 OpenAI 的各个产品之中GPT-4O将免费提供。
此外,OpenAI还将推出桌面版ChatGPT,并推出名为GPT-4o的全新旗舰人工智能模型。

GPT-4o只是开胃小菜
尽管此次GPT-4O亮点不少,然而,不管是展示时间置于谷歌大会前一天的微妙,还是推出桌面版ChatGPT免费使用,无一例外都凸显了OpenAI 隐隐的竞争压力和增长焦虑。
事实上,本次OpenAI 春季发布会之前的数天,OpenAI创始人萨姆奥特曼就多次发声,提前预热,给观众留足了悬念:“我们一直在努力开发一些我们认为人们会喜欢的新东西,对我来说感觉就像魔法一样。”
不过,最终呈现的产品,既不是GPT5、也不是搜索引擎,似乎摆了大众一道。
从这点伤说,奥特曼堪称AI圈最懂PR的人。
此前,Sora发布的时间点,恰好赶在 Anthropic 的 Claude3以及其他大模型上线时间段。
彼时Sora登场“抢戏”,就用生成式视频的形式,对其他文本大模型进行降维打击。
于是立即舆论调转,全世界都将聚光灯对准Sora,OpenAI 又成了业界唯一的明星。可值得玩味的是,Sora直至现在,也没有开放给公众使用。
而屡屡“抢戏”的奥特曼,实则有着肉眼可见的急迫与压力。
一方面,OpenAI本次春季开发大会,呼声最高的AI搜索产品,就被放了鸽子。
业内人士曾指出,OpenAI要想在AI聊天机器人领域保持领先,AI搜索是绕不过去的,现在包括谷歌及AI搜索初创公司Perplexity等对手正在发力。
此前,Perplexity已凭借AI搜索和引用功能获得了10亿美元的估值。此外,OpenAI强大的对手谷歌,也在全面AI化它的搜索引擎业务,并计划在下周的开发者大会上公布Gemini AI模型的最新计划。
然而,根据报道,先前ChatGPT搜索的内测资格,虽然总体评价不错,但仍有瑕疵:OpenAI的AI搜索评价是,对于它不知道的信息会去联网,但对于非常实时的信息,依然不能很好地处理。
不仅如此,此次GPT-4O的免费推出,则凸显出OpenAI在增长上的面临的焦虑。

此前,OpenAI的用户增长在短时间内经历了显著的波动。
例如,从2023年初到中期,OpenAI的月活跃用户数量迅速增长,从1亿增加到接近10亿。
然而,进入2024年后,OpenAI的GPT-4的性能下降和用户体验问题开始受到关注。一个直观的例子是,即用户在使用GPT-4时,发现其记忆能力和对指令的遵从性有所下降,这意味着GPT-4可能无法有效地记住之前的对话内容或正确执行复杂的指令。
此外,OpenAI与微软的合作关系紧张也影响了开发者社区,导致一些中小企业开发者选择离开OpenAI平台。
尽管,竞争与增长并非是OpenAI一家难念的经。不过,作为AI的领头羊,OpenAI这次的GPT-4O,或许只能是道开胃小菜。




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《歌德堡变奏曲1531》OpenAI发布全新模型GPT-4o;淘宝改版首页:频道入口由三栏变双栏呈现……2024世界年轻大学排名发布,英国失业率上升,OpenAI推出GPT-4o用GPT-4纠错GPT-4!OpenAI推出CriticGPT模型;谷歌Gemma 2发布,与第一代相比性能更高丨AIGC日报OpenAI掌门人最新专访:GPT-4o让我爱不释手 下代大模型可能不叫GPT-5四大维度深度体验,GPT-4o为何被称作“最强”;OpenAI超级对齐团队“分崩离析”;脑机试验招募第二名患者|一周国际财经神秘模型gpt2-chatbot实力被赞超越GPT-4:sam亲自确认,或是OpenAI全新模型全能模型GPT-4o惊艳发布!AI可提供情绪价值,还结婚么?OpenAI爆炸更新:GPT-4免费了!新模型GPT-4o发布,视觉、语音能力大幅增强,速度起飞,API打骨折Ilya离开OpenAl,谷歌一口气拿出十余款新品也难出风头? |【经纬低调出品】AI搜索引擎来了!谷歌放大招,发布最强AI模型,语音功能正面刚OpenAIIlya离开OpenAl,谷歌一口气拿出十余款新品也难出风头?昇腾社区回应网传华为发布会大模型生成图片系人工操控;Sam Altman:新款语音模型GPT-4o尚未发货丨AIGC日报未央播报 | 央行进一步推动优化支付服务工作 OpenAI发布多模态大模型GPT-4oAI早知道|OpenAI发布GPT-4o;混元文生图大模型宣布全面开源ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5OpenAI CEO最新演讲:GPT-5性能远超GPT-4;媲美Sora,视频生成模型EMO上线通义APP丨AIGC日报GPT-4o 不再是最强!Claude 3.5 深夜发布,还免费可用 | 附体验链接OpenAI发布全新模型GPT-4o;麦当劳回应使用过期食材;王化回应小米 SU7 刹车故障;璩静离职后发声...GPT搜索引擎原型曝光!新模型GPT4-Lite驱动,虽然鸽了发布会但代码已上传牙桥惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发王炸开场,世界最强模型重回OpenAI《歌德堡变奏曲1532》GPT-4o团队引发OpenAI组织创新热议!应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云OpenAI发布新旗舰模型GPT-4o;字节跳动正式发布豆包大模型|AIGC周观察第四十三期端侧模型 OctopusV3 发布:手机上的超级助理,性能媲美 GPT-4V 和 GPT-4 的组合?在网上碰到争执怎么办?【行业日报】 OpenAI推出新人工智能模型GPT-4o!沃尔玛计划裁减数百名公司员工!OpenAI一夜干翻语音助手!GPT-4o模型强到恐怖,ChatGPT学会看屏幕,现实版Her来了现实版《Her》来了,旗舰AI模型 GPT-4o 免费公布,震撼全场!OpenAI 官宣旗舰模型 GPT-4o,完全免费、无障碍与人交谈!奥特曼:这是我们最好的模型3D生成竞技场来了!比拼360°环绕视频,最强模型由你pickOpenAI震撼发布GPT-4o:打造全能AI助理,将向所有用户免费提供 | 环球科学要闻《歌德堡变奏曲1533》
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。