Redian新闻
>
GPT-4o 尝鲜!发布会里没说的,我们先体验了

GPT-4o 尝鲜!发布会里没说的,我们先体验了

公众号新闻

Google 应该向 OpenAI 的营销取取经。
今年 2 月,Gemini 1.5 官宣几小时后,被文生视频的 Sora 抢去风头。今天凌晨,OpenAI 的产品发布,挑在了 Google I/O 前一天。
Sora 打出模拟物理世界的概念,GPT-4o 颠覆了我们对语音和视频助手的想象。
不过,Sora 预计年内发布,GPT-4o 最劲爆的实时语音和视频功能还要等上几周。
每个熬夜的 AI 信徒都心潮澎湃却又体验不到,只能望穿秋水,边焦急地等待,边相信 OpenAI 隔着大洋喂来的饼。
GPT-4o 初体验:从惊艳到失落
GPT-4o 里的「o」指「omni(全面)」,它的特点在于可以接受文本、音频和图像的组合作为输入,更快的输出回应。
一倍速展示 GPT-4o 的生成速度
因此,即便现在 GPT-4o 的语音交互功能还没上线,我们只可以从聊天对话框中感受这个新模型,我们还是尽可能结合多种媒介来体验。
在发布会上,OpenAI 研究主管 Barret Zoph 在语音模式下实时让 ChatGPT 判断自己的「心情」。
那我们也来让 GPT-4o 来看图猜猜心情吧。
无论是 GPT-4 还是 GPT-4o,在读取图片后都没认出图中人是汽车节目「Top Gear」主持人兼「著名农民」Jeremy Clarkson 。
在识别情绪时,GPT-4 和 GPT-4o 都能看出 Jeremy 心情好,人放松。相比之下,GPT-4o 还结合了人物所处环境和着装,提供稍多的判断信息。
识别完图片,让我们来挑战一下视频。
我输入了一段 Jeremy 首逛二手农用品拍卖会的「惊奇」体验,让两个模型来分析一下内容。

GPT-4 在收到视频后,直接放弃👇
GPT-4o 虽没法直接看视频,但很「机智」地从视频提取了一张图像,然后推测内容👇
被要求总结视频内容时,GPT-4o 决定每 5 秒提取一帧图片来获得更具有延续性的理解。最后的结论不算错,但笼统。
这个过程让我意识到,GPT-4o 在理解视频时都只是通过部分图像来「断章取义」,但视频中另一重要组成「声音」却未被利用起来。
于是我将视频转化为音频,测试两个模型对音频的理解,结果都失败了。
相比之下,GPT-4o 会提出一些建议(把工作甩回给我)。
测试完理解后,让我们来试试「创造」。
我让两个模型设计一款海报,以下是文案需求和视觉素材参考👇
文字对 GPT 们来说显然是个难题。
GPT-4o 生成的图像视觉上好看,但对中文的理解还是很有限。
被要求更正后直接开始「创字」(请问是学习了徐冰的作品吗?)
即便最后改成英文,莫名还是可以出错。
GPT-4 生成时没有 GPT-4o 那么直接,而是先给我复述了一遍需求(如果有语音对话版我可能听到它开始啰嗦就要疯狂「stop」「stop」了),然后再开始生成海报。
可见,无论中文还是英文,还是比较吃力。
「写字」难,但两个模型在识别图像上的文字则都还可以。GPT-4 👇
GPT-4o 就更贴心一些,在我输入中文提示词的前提下,直接帮我把图片里的德语翻译成中文了。
总的来说,和 GPT-4 相比,GPT-4o 在面对视频和图像时的处理能力会更强一些,同时处理速度也会稍微快一点。
但不得不说,和发布会的惊艳演示相比,对话框里的体验还是让人相当不满足。
人手一个的贾维斯,还在不久的未来
以上,是目前 GPT-4o 可以体验到的功能,略微让人失望。
GPT-4o 的完整形态,是通过声音、视觉、文本和世界互动。
然而目前,几乎没有延迟、情绪价值拉满的语音模式,并没有开放使用。
OpenAI 表示,今天先发布 GPT-4o 的文本和图像功能,语音功能将在未来几周内,以 GPT-4o 的 alpha 版和大家见面,Plus 用户优先。
看来,每月 20 美元的信仰充值还是有好处的。
体验不够的我们,只能其他渠道找到代偿。
除了 26 分钟的直播,OpenAI 的官方博客还给出了很多演示,让我们一窥「离人类只缺副身体」的  GPT-4o 的未来。
看到这些演示的第一印象,不是觉得强大或者神奇,而是很想和 AI 唠唠嗑。因为它很通人性,特别能提供情绪价值,如果你蒙上眼睛不看画面,可能以为是一个 e 人在说话。
如果你向分享自己的爱宠,它会像你在小区遛狗时遇到的某个七大姑八大姨,激动地大夸特夸,让铲屎官也与有荣焉。

向 GPT-4o 介绍自己的狗

但谈到 AI 的人性,最具冲击力的例子,还得是 OpenAI 总裁 Greg Brockman 亲自演示的。
两台手机各有一个 GPT-4o,其中一个 GPT-4o 看不见,通过提问的方式,让另一个 GPT-4o 向它描述周围的人类和环境。
两个 AI 互相接得住话,看得见的讲完了,看不见的热情地回应,做出点评和追问。听到两个 AI 在讨论人类穿了什么衣服,确实是非常科幻的一幕。
让两个 GPT-4o 交互并唱歌
同时,人类也能参与它们的谈话,追问周围的突发情况,让看得见的 AI 解答。视频结尾,AI 们甚至按照人类的要求,即兴创作了一首歌,你来我往交替唱着。
两只 AI 恰好一个男声一个女声,不抢话,不延迟,很自然地参与到多方谈话之中,又能察觉周遭环境的变化。隔着屏幕的观众,只觉得它们身上闪烁着人性的光芒。
如果说实时对话的能力让人心疼海螺 AI,GPT-4o 似乎也要在音乐领域出道,抢走 Suno 的饭碗。
除了即兴,GPT-4o 还能给睡不着的你唱摇篮曲,给没人陪伴的你唱生日快乐歌,甚至还能分饰两角,自己给自己唱和声。

让 GPT-4o 唱首给定主题的摇篮曲
翻译也是 GPT-4o 正在征服的领域,既可以用不同语言你说一句我说一句,再由 AI 交替传译,也可以直接让 AI 教你学习某门语言。

让 GPT-4o 教西班牙语
指哪打哪,这个用西班牙语怎么说,那个用意大利语怎么说,GPT-4o 像一台智能的、长了眼睛的点读机,出国旅游不必再八分手舞足蹈两分蹩脚口语了。
GPT-4o 覆盖了很多生活场景,同时也能够丝滑地用到职场中。
如果有重要面试,可以请 GPT-4o 帮忙看看,穿着得不得体,它不会言辞尖锐,但会用温柔的讽刺让你羞愧难当。
类似的视觉功能,可以用到无障碍领域,让视障人士也能「看到」周围的环境。这个年代的 AI,连导盲犬的工作也要减减负。
GPT-4o 为视障人士识别环境
让 GPT-4o 加入视频会议,挑起你是猫党还是狗党的争议话题,它可以作为会议主持和秘书,cue 人发言,总结大家的立场和观点。

GPT-4o 做视频会议助手
让家长们最爱的、让教培机构有危机感的,是让 GPT-4o 辅导孩子。
非营利教育机构可汗学院创始人 Sal Khan 和他儿子,被邀请来给 GPT-4o 站台,在 GPT-4o 逐步的引导和鼓励的语言下,男生解决了一道数学题。
演示中共享屏幕的 AI 版本,我们目前无法体验到。辅导作业从来是件苦差事,可以大胆设想,AI 的耐心可能是人类无法企及的,上一代孩子学习靠网课,下一代孩子靠 AI。
美中不足的是,GPT-4o 的普通话不太行,一股外国人说中文的味道,懂中文的沉默了,不懂中文的被带偏了,翻译人才暂时还是个刚需。
和 AI 一对一,多人和 AI 开视频会议,让 AI 和 AI 互相聊天,似乎都已经实现了。不过,Demo 惊艳是事实,但视频和语音还有待未来用户们的亲自体验。
OpenAI 被批评成 CloseAI 之后,好像又回到了初衷——让最好的模型低价甚至免费造福更多人。
最初的 ChatGPT,已经展示了语言界面的潜力;而 GPT-4o 则在体验上有了质的飞跃,反应迅速、智能、有趣、自然且实用。
可能是语音模式本身就有很浓的人情味,也可能是 OpenAI 有意为之,在演示中刻意选择了很多生活化的场景,击穿了普通人们的心理防线。
GPT-4o 落地到每个普通人在生活中非常具体的需求:社交局三缺一没事,不懂面试技巧没事,出国旅游时不会讲外语也没事......
相比藏着掖着的 GPT-5,GPT-4o 可能在技术上不是那么颠覆,但作为一个拟人化的 AI 产品却很有价值。
它打败了空有其表的 AI 硬件,让普通人觉得有用、有意思,像电影里穿越出来的东西,情绪价值还很足,永远充沛有活力。
如果未来几周实测语音和视频,GPT-4o 真像演示这样,那么,语音和视频模式或成为 Altman 口中的最佳计算界面,一如自然语言的对话挑战搜索框。
语音和视频,关乎我们对 AI 的心理认知,让我们觉得 AI 更像人,也关乎我们的使用门槛,让我们心理负担更小地体验。
AI 是黑箱里的魔法,同时也是更好用的产品。把模型做得更强,把功能做得更日常然后进入更多人的生活,意义一样厚重。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
千金不换明前茶,入口便知龙井香,性价比超高,49元尝鲜!“GPT-5”发布时间曝光!GPT-3是幼儿,GPT-4像高中生,新一代大模型将达博士水平体验了三天华为Pura 70 Ultra,我明白了为啥P系列要改名。GPT-4o团队引发OpenAI组织创新热议!应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云有一种讲不清楚,叫做爱情桌面版ChatGPT登台演讲,能视频通话还会实时读屏,GPT-4o最新demo再次惊艳:“能力还是被低估了”GPT搜索引擎原型曝光!新模型GPT4-Lite驱动,虽然鸽了发布会但代码已上传腾讯大模型App元宝上线,我们用它「单挑」了下GPT-4o法国娇韵诗 CLARINS X 星尚|悉尼、墨尔本抢先体验法式奢华,引领高端护肤新风尚!昇腾社区回应网传华为发布会大模型生成图片系人工操控;Sam Altman:新款语音模型GPT-4o尚未发货丨AIGC日报微软发布新AI PC全家桶,支持GPT-4o/苹果发布更新修复照片复现问题/ChatGPT 语音酷似「寡姐」,本人回应在人类与AI博弈之前,我们先迎来了员工与老板的博弈我与跑步及休斯顿马拉松的情缘音乐界 ChatGPT 最新功能尝鲜!任何声音一键写歌,AI 让音乐彻底无门槛抢先体验!AI技术如何助力律师业绩翻倍?GPT-4o成为全领域SOTA!基准测试远超Gemini和Claude,多模态功能远超GPT-4四大维度深度体验,GPT-4o为何被称作“最强”;OpenAI超级对齐团队“分崩离析”;脑机试验招募第二名患者|一周国际财经OpenAI掌门人最新专访:GPT-4o让我爱不释手 下代大模型可能不叫GPT-5抢先体验 GPT-4o 后,我们发现了这些发布会没说的细节GPT-4o 不再是最强!Claude 3.5 深夜发布,还免费可用 | 附体验链接网络奇幻小说 《虚头八脑》 连载 一谷歌放大招,AI搜索引擎来了,发布最强AI模型!发布会现场:总共提了120次AI、视频模型登场......苹果有史以来最疯狂的发布会!发布颠覆性个人智能系统Apple Intelligence,并彻底改革SiriOpenAI爆炸更新:GPT-4免费了!新模型GPT-4o发布,视觉、语音能力大幅增强,速度起飞,API打骨折用GPT-4纠错GPT-4!OpenAI推出CriticGPT模型;谷歌Gemma 2发布,与第一代相比性能更高丨AIGC日报狗引儿【长篇】(五十四)Apple WWDC24的18条总结:从GPT-4o开始集成ChatGPTOpenAI发布新旗舰模型GPT-4o;字节跳动正式发布豆包大模型|AIGC周观察第四十三期OpenAI一夜干翻语音助手!GPT-4o模型强到恐怖,ChatGPT学会看屏幕,现实版Her来了ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发限时尝鲜!中国进口马蹄笋,‘脆嫩鲜’天花板,夏日笋王,错过等一年抢先体验!La Prairie全新限量版SKIN CAVIAR THE MIST“鱼子精华喷雾”!闲谈专注力GPT-5 体验首次曝光!发布时间也被剧透,来看看这些内幕消息GPT
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。