Redian新闻
>
GPT-4不会图形推理?“放水”后准确率依然只有33%

GPT-4不会图形推理?“放水”后准确率依然只有33%

公众号新闻
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

GPT-4的图形推理能力,竟然连人类的一半都不到?

美国圣塔菲研究所的一项研究显示,GPT-4做图形推理题的准确率仅有33%

而具有多模态能力的GPT-4v表现更糟糕,只能做对25%的题目。

虚线表示16项任务的平均表现

这项实验结果发表后,迅速在YC上引发了广泛热议。

赞同这项结果的网友表示,GPT确实不擅长抽象图形处理,“位置”“旋转”等概念理解起来更加困难。

但另一边,不少网友对这个结论也有所质疑,简单说就是:

不能说是错的,但说完全正确也无法让人信服。

至于具体的原因,我们继续往下看。

GPT-4准确率仅33%

为了评估人类和GPT-4在这些图形题上的表现,研究者使用了自家机构于今年5月推出的ConceptARC数据集。

ConceptARC中一共包括16个子类的图形推理题,每类30道,一共480道题目。

这16个子类涵盖了位置关系、形状、操作、比较等多个方面的内容。

具体而言,这些题目都是由一个个像素块组成的,人类和GPT需要根据给定的示例寻找出规律,分析出图像经过相同方式处理后的结果。

作者在论文中具体展示了这16个子类的例题,每类各一道。



结果451名人类受试者平均正确率,在各子项中均不低于83%,16项任务再做平均,则达到了91%。

而GPT-4(单样本)在“放水”到一道题可以试三次(有一次对就算对)的情况下,准确率最高不超过60%,平均值只有33%。

早些时候,这项实验涉及的ConceptARC Benchmark的作者也做过类似的实验,不过在GPT-4中进行的是零样本测试,结果16项任务的平均准确率只有19%。

而多模态的GPT-4v,准确率反而更低,在一个48道题组成的小规模ConceptARC数据集中,零样本和单样本测试的准确率分别只有25%和23%

而研究者在进一步分析了错误答案后,发现人类的有些错误看上去很可能是“粗心导致”,而GPT则是完全没有理解题目中的规律

针对这些数据,网友们普遍没什么疑问,但让这个实验备受质疑的,是招募到的受试人群和给GPT的输入方式。

受试者选择方式遭质疑

一开始,研究者在亚马逊的一个众包平台上招募受试者。

研究者从数据集中抽取了一些简单题目作为入门测试,受试者需要答对随机3道题目中的至少两道才能进入正式测试

结果研究人员发现,入门测试的结果显示,有人只是想拿钱,但根本不按要求做题。

迫不得已,研究者将参加测试的门槛上调到了在平台上完成过不少于2000个任务,且通过率要达到99%。

不过,虽然作者用通过率筛人,但是在具体能力上,除了需要受试者会英语,对图形等其他专业能力“没有特殊要求”

而为了数据的多样化,研究者在实验后期又将招募工作转到了另一个众包平台,最终 一共有415名受试者参与了实验。

尽管如此,还是有人质疑实验中的样本“不够随机”。

还有网友指出,研究者用来招募受试者的亚马逊众包平台上,有大模型在冒充人类

再来看GPT这边的操作,多模态版本比较简单,直接传图然后用这样的提示词就可以了:

零样本测试中,则只要去掉相应的EXAMPLE部分。

但对于不带多模态的纯文本版GPT-4(0613),则需要把图像转化为格点,用数字来代替颜色

针对这种操作,就有人表示不认同了:

把图像转换成数字矩阵后,概念完全变了,就算是人类,看着用数字表示的“图形”,可能也无法理解

One More Thing

无独有偶,斯坦福的华人博士生Joy Hsu也用几何数据集测试了GPT-4v对图形的理解能力。

这个数据集发表于去年,目的是测试大模型对欧氏几何的理解,GPT-4v开放后,Hsu又用这套数据集给它测试了一遍。

结果发现,GPT-4v对图形的理解方式,似乎“和人类完全不同”。

数据上,GPT-4v对这些几何问题的回答也明显不如人类。

论文地址:
[1]https://arxiv.org/abs/2305.07141
[2]https://arxiv.org/abs/2311.09247
参考链接:
[1]https://news.ycombinator.com/item?id=38331669
[2]https://twitter.com/joycjhsu/status/1724180191470297458

「中国AIGC数据标注产业全景报告(量子位智库出品)」下载

大模型时代到来,以数据为中心的AI开发模式加速走向台前,数据的价值从未像今天这样被充分挖掘。数据标注,正迎来关键洗牌时刻。

量子位智库发布《中国AIGC数据标注产业全景报告》,点击可查看并下载完整报告>> 中国AIGC数据标注全景报告:百亿市场规模,百万就业缺口


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
招商银行如何利用AI提升审查效率和准确率?国外Java工程师力证:GPT-4不能解决逻辑谜题,但确实具备推理能力后门准确率降至3%,主任务性能几乎不变!华工JHU提出全新「联邦学习后门攻击识别」解决方案|ICCV2023AI反诈!Deepfake音视频检测技术亮相CES,准确率超90%目标:燃烧 23333333 大卡!🤜🤛DeepMind让大模型学会归纳和演绎,GPT-4准确率提升13.7%DeepMind曝新一代AlphaFold,预测准确率暴涨近10%!DNA和RNA的AlphaFold时刻来了魔都夜景美不胜收7A抑菌,清洗150次,抑菌率依然优秀,精梳棉袜!OpenAI回应ChatGPT服务故障;新研究以99%准确率识别ChatGPT生成化学论文;三星发布自研大模型丨AIGC日报长文本信息准确率超过ChatGPT,Meta提出降低大模型幻觉新方法GPT-4搞“人肉搜索”,准确率高达95.8%全新免费编程神器!比Copilot快两倍,准确率高20% | 非十科技发布谷歌让大模型更具“心智”,GPT-4任务准确率大增LLM准确率飙升27%!谷歌DeepMind提出全新「后退一步」提示技术微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%全新免费编程神器!比 Copilot 快两倍,准确率高 20%,国产!!60s视频识别心理健康状态,准确率达78%,鸿钧智能布局AI心理健康说一个有关Open AI的Chat GPT 创投人和我家的小故事美股这两天的大跌是对滞胀担忧的反应Sci Rep | 新型肿瘤标志物检测胃癌达到近90%的准确率让大模型看图比打字管用!NeurIPS 2023新研究提出多模态查询方法,准确率提升7.8%GPT-4完成正确率仅6%!北大等提出首个「多轮、多模态」PPT任务完成基准PPTC《带节奏的英语课堂》第九课更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%LLM准确率飙升27%!DeepMind提出全新「后退一步」Prompt技术港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉回乡小记(六)长安三万里脑机接口重要突破!国内团队成功实现「全谱汉语解码」:Top 3准确率接近100%维基百科+大模型打败幻觉!斯坦福WikiChat性能碾压GPT-4,准确率高达97.3%AI看图猜位置,准确率超90%!斯坦福最新PIGEON模型:40%预测误差不到25公里chat gpt 怎么上不去了? 彻底罢工了GPT turbo 看了没?!这真是大批失业人员在路上。费城日本花园,眼中小景时间的湾 1大模型搞“人肉搜索”,准确率高达95.8%!研究作者:已提醒OpenAI谷歌Meta单次准确率超97%!普译生物发布中通量纳米孔基因测序仪,实现高精准长读长测序解题准确率较GPT高出70% 夸克大模型多项考试评测成绩领先行
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。