Redian新闻
>
比Siri更懂iPhone!GPT-4V可“操作”手机完成任意指令,无需训练

比Siri更懂iPhone!GPT-4V可“操作”手机完成任意指令,无需训练

公众号新闻
丰色 发自 凹非寺
量子位 | 公众号 QbitAI

GPT-4V,就是Siri终结的开始。

一项研究发现:

无需任何训练,GPT-4V就能直接像人类一样与智能手机进行交互,完成各种指定命令。

比如让它在50-100美元的预算内购买一个打奶泡的工

它就能像下面这样一步一步地完成选择购物程序(亚马逊)并打开、点击搜索栏输入“奶泡器”、找到筛选功能选择预算区间、点击商品并完成下单这一系列共计9个操作

根据测试,GPT-4V在iPhone上完成类似任务的成功率可达75%。

因此,有人感叹有了它,Siri渐渐就没有用武之地了(比Siri更懂iPhone

谁知有人直接摆摆手:

Siri压根儿一开始就没这么强好嘛。(狗头)

还有人看完直呼:

智能语音交互时代已经开始。我们的手机可能要变成一个纯粹的显示设备了。

真的这么🐂🍺?

GPT-4V零样本操作iPhone

这项研究来自加州大学圣地亚哥分校、微软等机构。

它本身是开发了一个MM-Navigator,也就是一种基于GPT-4V的agent,用于开展智能手机用户界面的导航任务。

实验设置

在每一个时间步骤,MM-Navigator都会得到一个屏幕截图

作为一个多模态模型,GPT-4V接受图像和文本作为输入并产生文本输出。

在这里,就是一步步读屏幕截图信息,输出要操作的步骤。

现在的问题就是:

如何让模型合理地计算出给定屏幕上应该点击的准确位置坐标(GPT-4V只能给出大概位置)

作者给出的解决办法非常简单,通过OCR工具和IconNet检测每一个给定屏幕上的UI元素,并标记不同的数字

这样一来,GPT-4V就只需面对一张截图指出要点什么数字进行操作就好。

两项能力测试

测试率先在iPhone上展开。

要想成功操纵手机涉及到GPT-4V不同类型的屏幕理解能力:

一个是语义推理,包括理解屏幕输入和阐明完成给定指令所需的动作。

一个是指出每一个动作应执行的精确位置(即该点哪个数字)的能力。

因此,作者开发了两组测试分别进行区分。

1、预期动作描述

只输出应该干啥,不输出具体坐标。

在这个任务中,GPT-4V理解指令并给出操作步骤的准确率为90.9%

比如在下面这个Safari浏览器的截图中,用户想要打开一个新标签页,但左下角的+号是灰色的,应该怎么办?

GPT-4V回答:

通常这样操作是ok的,但从截图来看,您似乎已经达到了500个标签页的上限,要想再打开新的,需要关闭一些已有选项卡,然后再看看+号是否可以点击。

看图理解表现得很不错~更多例子可以翻阅论文。

2、本地化动作执行

当让GPT-4V把这些“纸上谈兵”都化为具体行动时(即第二个测试任务),它的正确率有所下降,来到74.5%

还是上面的例子,它可以遵循自己给出的指令,给出正确的操作数字,比如点击数字9关闭一个标签页。

但如下图所示,让它找一个可以识别建筑物的应用程序时,它可以准确指出用ChatGPT,但是却给出了错误数字“15”(应该是“5”)

还有的错误是因为屏幕截图本身就没有标出对应位置。

比如让它从下面的图中开启隐身模式,直接给了wifi处于的“11”位置,完全不搭嘎。

此外,除了这种简单的单步任务,测试也发现GPT-4V完全可以不需训练就胜任“买起泡器”这样的复杂指令。

在这个过程中,我们可以看到GPT-4V事无巨细地列出每一步该干什么,以及对应的数字坐标。

最后,是安卓机上的测试。

整体来看,比其他模型比如Llama 2、PaLM 2和ChatGPT表现得明显要好。

在执行安装、购物等任务中的总体表现最高得分为52.96%,这些基线模型最高才39.6%。

对于整个实验来说,它最大的意义是证明多模态模型比如GPT-4V能够将能力直接迁移到未见过的场景,展现出进行手机交互的极大潜力。

值得一提的是,网友看完这项研究也提出了两个点:

一是我们如何定义任务执行的成功与否

比如我们想让它买洗手液补充装,只想要一袋,它却加购了六袋算成功吗?

二是大伙也不能兴奋得太早,要想真的商用这项技术,前进空间还很大。

因为,准确率可达95%的Siri都还经常被吐槽很差劲呢。

团队介绍

本研究一共12位作者,基本都来自微软。

共同一作两位。

分别是加州大学圣地亚哥分校的博士生An Yan,以及微软的高级研究员Zhengyuan Yang,后者本科毕业于中科大,博士毕业于罗切斯特大学。

参考链接:
[1]https://arxiv.org/abs/2311.07562
[2]https://x.com/emollick/status/1724272391595995329?s=20

《2023年度十大前沿科技报告》案例征集

量子位智库《2023年度十大前沿科技报告》,启动案例征集。诚邀顶级研究机构、一流投资大咖、前沿科技创新公司,参与共创,分享案例。

扫描图片二维码参与前沿科技案例征集。了解更多细节可联系报告负责人:郑钰瑶(微信:CarolineZheng_,请备注企业+姓名)。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
交朋友,顺其自然苹果:别争了,AI 时代的新「iPhone」,还是 iPhone!iPhone 15 Pro支持录制空间视频/ChatGPT版微型手机来了/腾讯将在中国独家代理Meta VR头显| 未来周报TUM、LMU食堂纷纷罢工!泼天的富贵这次轮到Döner店了?NeurIPS 2023 | PointGPT:点云和GPT大碰撞!点云的自回归生成预训练媲美GPT-4V,仅使用1.2M数据、8个A100,一天内完成训练,LLaVA-1.5刷新11个基准SOTA重磅!OpenAI 官宣上线 GPT Store!超300万个 GPTs 大爆发7B羊驼战胜540B“谷歌版GPT”,MIT用博弈论调教大模型,无需训练就能完成消息称iPhone16标准版迎来高刷,iPhone 16 Pro屏幕增大到6.3英寸北大具身智能新成果:无需训练,听指令就能灵活走位大隐隐于市!越南一家人在San Jose开的小店全是越南客人——Phở Cường 2重磅!ChatGPT放大招!GPT Store应用商店今天上线!超300万GPTs,内卷之下的赚钱机会!iPhone SE 4将基于iPhone 14打造/微信支付与三大运营商条码支付互通/ChatGPT版微型手机来了| 灵感周报开源版 GPT-4 代码解释器,可安装任意 Python 库,本地终端运行便宜 iPhone:Straight Talk iPhone SE 3代仅需 $94 倒赚攻略,可 trade-in $160从几天到几十秒,从繁杂操作到一条指令,AI 帮你征服 PPTOpenAI祭出绘画神器,Midjourney一夜下台!DALL·E 3联手ChatGPT,无需prompt一笔成神NeurIPS 2023 | InstructBLIP:指令微调训练通用视觉-语言模型刚刚开源!中科大提出利用GPT4-V构建大规模高质量图文数据集ShareGPT4V,助力模型霸榜多项多模态榜单!职涯中篇-【起点之起点5】-风信子MiniGPT-4升级到MiniGPT-v2了,不用GPT-4照样完成多模态任务Altman首次自曝GPT-5加急训练中!暗示比GPT-4更复杂,无法预测真实能力GPT turbo 看了没?!这真是大批失业人员在路上。不到1分钟开发一个GPT应用!各路大神疯狂整活,网友:ChatGPT就是新iPhoneChatGPT「看图说话」大变身!动嘴传图秒解答,幕后新模型GPT-4V亮相大跌眼镜!GPT-4V错觉挑战实录:该错的没错,不该错的反而错了用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用谎言的力量GPT-4完成正确率仅6%!北大等提出首个「多轮、多模态」PPT任务完成基准PPTC微软发布 166 页 GPT-4V 测评报告,ChatGPT 的高阶用法都在这|Hunt Good 周报How Guangdong Pioneered Chinese Photographychat gpt 怎么上不去了? 彻底罢工了nǚ hóng?nǚ gōng回头是岸-【天命1】-新篇-跨入北美大行《谷雨立夏间》(4)立夏的柠檬时间的湾 1AI造成幻觉?剑桥辞典2023年度字选出:意指「幻觉」用GPT-4V和人类演示训练机器人:眼睛学会了,手也能跟上
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。