Redian新闻
>
谷歌MIT最新研究证明:高质量数据获取不难,大模型就是归途

谷歌MIT最新研究证明:高质量数据获取不难,大模型就是归途

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】数据获取最新解,便是从生成模型中学习。


获取高质量数据,已经成为当前大模型训练的一大瓶颈。
前几天,OpenAI被《纽约时报》起诉,并要求索赔数十亿美元。诉状中,列举了GPT-4抄袭的多项罪证。
甚至,《纽约时报》还呼吁摧毁几乎所有的GPT等大模型。
一直以来,AI界多位大佬认为「合成数据」或许是解决这个问题的最优解。
此前,谷歌团队还提出了用LLM代替人类标记偏好的方法RLAIF,效果甚至不输人类。
现如今,谷歌MIT的研究人员发现,从大模型中学习可以得到使用真实数据训练的最佳模型的表征。
这一最新方法称SynCLR,一种完全从合成图像和合成描述学习虚拟表征的方法,无需任何真实数据。

论文地址:https://arxiv.org/abs/2312.17742
实验结果表明,通过SynCLR方法学习到的表征,能够与OpenAI的CLIP在ImageNet 上的传输效果一样好。

从生成模型中学习


目前表现最好的「视觉表征」学习方法依赖于大规模的实际数据集。然而,真实数据的收集却有不少的困难。
为了降低收集数据的成本,研究人员本文中提出了一个问题:
从现成的生成模型中采样的合成数据,是否是一条通往大规模策划数据集的可行之路,从而训练出最先进的视觉表征?
与直接从数据中学习不同,谷歌研究人员称这种模式为「从模型中学习」。作为建立大规模训练集的数据源,模型有几个优势:
- 通过其潜在变量、条件变量和超参数,为数据管理提供了新的控制方法。
- 模型也更容易共享和存储(因为模型比数据更容易压缩),并且可以产生无限数量的数据样本。
越来越多的文献研究了生成模型的这些特性和其他优点和缺点,并将其作为训练下游模型的数据源。
其中一些方法采用混合模式,即混合真实数据集和合成数据集,或需要一个真实数据集来生成另一个合成数据集。
其他方法试图从纯粹的「合成数据」中学习表征,但远远落后于表现最好的模型。
论文中,研究人员提出的最新方法,使用生成模型重新定义可视化类的粒度。
如图2所示,使用2个提示生成了四张图片「一只戴着墨镜和沙滩帽的金毛猎犬骑着自行车」和「一只可爱的金毛猎犬坐在寿司做成的房子里」。
传统的自监督方法(如Sim-CLR)会将这些图像视为不同的类,不同图像的嵌入会被分开,而不会明确考虑图像之间的共享语义。
另一个极端是,监督学习方法(即SupCE)会将所有这些图像视为单一类(如「金毛猎犬」)。这就忽略了这些图像在语义上的细微差别,例如在一对图像中狗在骑自行车,而在另一对图像中狗坐在寿司屋内。
相反,SynCLR方法将描述视为类,即每个描述一个可视化类。
这样,我们就可以按照「骑自行车」和「坐在寿司店里」这两个概念对图片进行分组。
这种粒度很难在真实数据中挖掘,因为收集由给定描述的多张图片并非易事,尤其是当描述数量增加时。
然而,文本到图像的扩散模型从根本上就具备这种能力。
只需对相同的描述设定条件,并使用不同的噪声输入,文本到图像的扩散模型就能生成与相同描述相匹配的不同图像。
具体来说,作者研究了在没有真实图像或文本数据的情况下,学习视觉编码器的问题。
最新方法依赖3个关键资源的利用:一个语言生成模型(g1),一个文本到图像的生成模型(g2),以及一个经过整理的视觉概念列表(c)。
前处理包括三个步骤:
(1)使用(g1)合成一组全面的图像描述T,其中涵盖了C中的各种视觉概念;
(2)对于T中的每个标题,使用(g2)生成多个图像,最终生成一个广泛的合成图像数据集X;
(3)在X上进行训练,以获得视觉表示编码器f。
然后,分别使用llama-27b和Stable Diffusion 1.5作为(g1)和(g2),因为其推理速度很快。
合成描述
为了利用强大的文本到图像模型的能力,来生成大量的训练图像数据集,首先需要一个不仅精确描述图像而且展示多样性的描述集合,以包含广泛的视觉概念。
对此,作者开发了一种可扩展的方法来创建如此大量的描述集,利用大模型的上下文学习能力。
如下展示了三个合成模板的示例。
如下是使用Llama-2生成上下文描述,研究人员在每次推理运行中随机抽取三个上下文示例。
合成图像
对于每个文本描述,研究人员都会用不同的随机噪声启动反向扩散过程,从而生成各种图像。
在此过程中,无分类器引导(CFG)比例是一个关键因素。
CFG标度越高,样本的质量和文本与图像之间的一致性就越好,而标度越低,样本的多样性就越大,也就越符合基于给定文本的图像原始条件分布。
表征学习
论文中,表征学习的方法建立在StableRep的基础上。
作者提出的方法的关键组成部分是多正对比学习损失,它的工作原理是对齐(在嵌入空间)从同一描述生成的图像。
另外,研究中还结合了其他自监督学习方法的多种技术。

与OpenAI的CLIP相媲美


实验评估中,研究人员首先进行消融研究,以评估管道内各种设计和模块的有效性,然后继续扩大合成数据的量。
下图是不同描述合成策略的比较。
研究人员报告了9个细粒度数据集的ImageNet线性评估准确性和平均准确性。这里的每个项目包括1000万个描述和每个描述4张图片。
下表是ImageNet线性评估与细粒度分类的比较。
尽管只使用了合成数据,但SynCLR与OpenAI的CLIP和DINO v2模型取得了不相上下的结果。
下表是在相同的合成数据上比较SynCLR和CLIP,可以看出,SynCLR明显优于CLIP。
具体设置为,每个标题生成4个图像,SynCaps-150M为SynCLR和CLIP提供了更好的表示。
PCA可视化如下。按照DINO v2,研究人员计算了同一组图像的斑块之间的PCA,并根据其前3个分量进行着色。
与DINO v2相比,SynCLR对汽车和飞机的绘制的图更为准确,而对能绘制的图则稍差一些。
图6和图7中,分别展示了不同训练规模下的ImageNet线性准确率,以及不同训练参数规模下的精细分类。
为什么要从生成模型中学习?
一个令人信服的原因是,生成模型可以像数百个数据集一样同时运作,能够为策划训练数据提供了一种方便有效的方法。
总而言之,最新论文研究了视觉表征学习的新范式——从生成模型中学习。
在没有使用任何实际数据的情况下,SynCLR学习到的视觉表征,与最先进的通用视觉表征学习器学习到的视觉表征不相上下。
参考资料:
https://huggingface.co/papers/2312.17742



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Rokid祝铭明:Vision Pro带动行业热度是好事,但VST最后会消失弥合2D和3D生成之间的次元壁!X-Dreamer:高质量的文本到3D生成模型大学生智商一代不如一代,最新研究证实“你们是我带过最差的一届”《人生路遥》&《借梦》“向量数据库”还是“向量搜索插件 + SQL 数据库”?PingCAP 黄东旭:我对 2024 年数据库发展趋势的思考MIT最新研究:什么样的语言最有可能激活大脑的语言处理中心?OpenAI动荡之际 谷歌Meta等竞争对手抢夺客户今年向量数据库“杀疯了”,但纯向量数据库“凉”了?| 盘点今日Arxiv最热NLP大模型论文:复旦大学最新研究,如何让大模型说出“我不知道”?何立峰:以推动上市公司高质量发展助力信心提振、资本市场稳定和经济高质量发展养老不难,大“招”指“南” ,一起打卡“时光养老站”月不一定是故乡的明特级教师贲友林:高质量课堂,从真备课开始推动信息通信业高质量发展,为新型工业化夯实数字基础——2024年推动工业和信息化高质量发展系列述评之四红色日记 派性招工 1975年 26岁 7.1-15提升科技创新能力,推动重点产业链高质量发展——2024年推动工业和信息化高质量发展系列述评之二免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!超越同级7B模型! 中国团队开源大规模高质量图文数据集ShareGPT4V,大幅提升多模态性能普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练GPT-4无法造出生物武器!OpenAI最新实验证明:大模型杀伤力几乎为0向量数据库,是大模型原生应用的基石大学生智商正在下降,最新研究证实“你们是我带过最差的一届”?夏婳:两情难相知(四十九)线上开售!大模型时代的向量数据库 AI 技术论坛圆满收官Deita: 用高质量数据在微调中“四两拨千斤”今日arXiv最热NLP大模型论文:IBM研究院提出Genie方法,自动生成高质量数据集拼多多三季报分析:高质量发展战略带动高增长,Temu表现超预期大模型落地,向量数据库能做什么?谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文狠狠打脸!研究证明:并不是所有超加工食品都对身体有害…纯文本模型训出「视觉」表征!MIT最新研究:语言模型用代码就能作画文明斑高质量,高水平!CTS-AMI研究证实,通心络可显著改善急性心梗患者近期和远期临床预后一部iPhone实时渲染300平房间,精度达厘米级别!谷歌最新研究证明NeRF没死别被“科技与狠活”魔怔了!研究证明:并不是所有超加工食品都对身体有害…
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。