Redian新闻
>
干掉MLP!KAN:全新神经网络架构爆火!网友:发论文"新坑"来了

干掉MLP!KAN:全新神经网络架构爆火!网友:发论文"新坑"来了

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

重磅!CVer学术星球最大优惠!限时送新用户50元优惠券(下方左图),老用户7折+20元续费券(下方右图),每天分享最新最优质的AI/CV内容,助力你的科研和工作!快抢!

白交 衡宇 发自 凹非寺
转载自:量子位(QbitAI)

一种全新的神经网络架构KAN,诞生了!

与传统的MLP架构截然不同,且能用更少的参数在数学、物理问题上取得更高精度。

比如,200个参数的KANs,就能复现DeepMind用30万参数的MLPs发现数学定理研究。

不仅准确性更高,并且还发现了新的公式。要知道后者可是登上Nature封面的研究啊~

在函数拟合、偏微分方程求解,甚至处理凝聚态物理方面的任务都比MLP效果要好。

而在大模型问题的解决上,KAN天然就能规避掉灾难性遗忘问题,并且注入人类的习惯偏差或领域知识非常容易。

来自MIT、加州理工学院、东北大学等团队的研究一出,瞬间引爆一整个科技圈:Yes We KAN!


甚至直接引出关于能否替代掉Transformer的MLP层的探讨,有人已经准备开始尝试……


有网友表示:这看起来像是机器学习的下一步

让机器学习每个特定神经元的最佳激活,而不是由我们人类决定使用什么激活函数。

还有人表示:可能正处于某些历史发展的中间。

GitHub上也已经开源,也就短短两三天时间就收获1.1kStar。

对MLP“进行一个简单的更改”

跟MLP最大、也是最为直观的不同就是,MLP激活函数是在神经元上,而KAN把可学习的激活函数放在权重上。

在作者看来,这是一个“简单的更改”。

从数学定理方面来看,MLP的灵感来自于通用近似定理,即对于任意一个连续函数,都可以用一个足够深的神经网络来近似。

而KAN则是来自于 Kolmogorov-Arnold 表示定理 (KART),每个多元连续函数都可以表示为单变量连续函数的两层嵌套叠加。


KAN的名字也由此而来。

正是受到这一定理的启发,研究人员用神经网络将Kolmogorov-Arnold 表示参数化。

为了纪念两位伟大的已故数学家Andrey Kolmogorov和Vladimir Arnold,我们称其为科尔莫格罗夫-阿诺德网络(KANs)。

而从算法层面上看,MLPs 在神经元上具有(通常是固定的)激活函数,而 KANs 在权重上具有(可学习的)激活函数。这些一维激活函数被参数化为样条曲线。

在实际应用过程中,KAN可以直观地可视化,提供MLP无法提供的可解释性和交互性。

不过,KAN的缺点就是训练速度较慢。

对于训练速度慢的问题,MIT博士生一作Ziming Liu解释道,主要有两个方面的原因。

一个是技术原因,可学习的激活函数评估成本比固定激活函数成本更高。

另一个则是主观原因,因为体内物理学家属性抑制程序员的个性,因此没有去尝试优化效率。

对于是否能适配Transformer,他表示:暂时不知道如何做到这一点。

以及对GPU友好吗?他表示:还没有,正在努力中。

天然能解决大模型灾难性遗忘

再来看看KAN的具体实现效果。

神经缩放规律:KAN 的缩放速度比 MLP 快得多。除了数学上以Kolmogorov-Arnold 表示定理为基础,KAN缩放指数也可以通过经验来实现。

函数拟合方面,KAN比MLP更准确。

而在偏微分方程求解,比如求解泊松方程,KAN比MLP更准确。

研究人员还有个意外发现,就是KAN不会像MLP那样容易灾难性遗忘,它天然就可以规避这个缺陷。

好好好,大模型的遗忘问题从源头就能解决

在可解释方面,KAN能通过符号公式揭示合成数据集的组成结构和变量依赖性。


人类用户可以与 KANs 交互,使其更具可解释性。在 KAN 中注入人类的归纳偏差或领域知识非常容易。

研究人员利用KANs还重新复现了DeepMind当年登上Nature的结果,并且还找到了Knot理论中新的公式,并以无监督的方式发现了新的结不变式关系。

DeepMind登Nature研究成果

Deepmind的MLP大约300000 个参数,而KAN大约只有200 个参数。KAN 可以立即进行解释,而 MLP 则需要进行特征归因的后期分析。并且准确性也更高。

对于计算要求,团队表示论文中的所有例子都可以在单个CPU上10分钟内重现。

虽然KAN所能处理的问题规模比许多机器学习任务要小,但对于科学相关任务来说就刚刚好。

比如研究凝固态物理中的一种相变:安德森局域化。

好了,那么KAN是否会取代Transformer中的MLP层呢?

有网友表示,这取决于两个因素。

一点是学习算法,如 SGD、AdamW、Sophia 等—能否找到适合 KANs 参数的局部最小值?

另一点则是能否在GPU上高效地实现KANs层,最好能比MLPs跟快。

最后,论文中还贴心的给出了“何时该选用KAN?”的决策树。

那么,你会开始尝试用KAN吗?还是让子弹再飞一会儿~

项目链接:
https://kindxiaoming.github.io/pykan/

论文链接:
https://arxiv.org/abs/2404.19756

参考链接:
[1]https://twitter.com/ZimingLiu11/status/1785483967719981538

[2]https://twitter.com/AnthropicAI/status/1785701418546180326

重磅!CVer学术星球最大优惠!限时送新用户50元优惠券(下方左图),老用户7折+20元续费券(下方右图),每天分享最新最优质的AI/CV内容,助力你的科研和工作!快抢!

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集


Mamba、多模态和扩散模型交流群成立

扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。


一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer5555,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
顶刊TPAMI 2024!北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023玻璃缸里的孙凤 (53)今日arXiv最热大模型论文:AI"参审",论文评审迎来"神助攻"?护士发SCI论文系列 之 文献计量分析:没有实验结果,也能发论文AI数据中心网络架构需求:400/800G光模块比2020还惨"瞌睡乔"PK"极端份子"总统竞选首场辩论将"丑陋难堪"。CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet网络架构如何支持超万卡的大规模 AI 训练?数据中心网络架构设计与挑战让"马铃薯"国际化!美国"靓女"当众掀衣露"凶器"跨国大直播。脑袋被劈开,震撼全美华人圈"双杀侄"案终宣判,恶毒姑父坐牢"两辈子",背后原因竟是"猜测"。厉害了!阿里云提出新一代AI网络架构HPN7.0全新神经网络架构KAN一夜爆火!200参数顶30万,MIT华人一作,轻松复现Nature封面AI数学研究加速十倍,前向传播立大功!基于神经网络的偏微分方程求解器新突破爆火后反转!「一夜干掉MLP」的KAN只是一个普通的MLP?参与图书馆空间改造临王宠《竹林七贤》第一遍早春二月杏花开AI在用 | 一个超级提示,用Claude 3生成神经网络架构动画"总统是骗子"白宫被3000米布条包围,变身"红色海洋"数千名抗议者齐呼"拜登说话不算话"。GPU服务器AI网络架构设计(下)清华大学团队NSR综述:混合神经网络(ANN+SNN→HNN)推动类脑计算MLP一夜被干掉,全新神经网络架构KAN破纪录!MIT华人一作,轻松复现Nature封面AI数学研究WWW 2024 | 港理工等联合提出线性时间图神经网络,适用于大规模推荐系统一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构设计方法“最先进”不一定“最佳”——配电通信网需要安全灵活智能的网络架构GPU服务器AI网络架构设计(上)MLP一夜被干掉!MIT加州理工等革命性KAN破记录,发现数学定理碾压DeepMind美国亚裔1家5口一夜爆火!网友:活该他们火!太解气了!彻底根除“论文工厂”的方法,只会是“更简单的论文发表方式”;文献计量分析,让医生彻底解脱开发论文的桎梏!爆火后反转?「一夜干掉MLP」的KAN:其实我也是MLP巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024基于微环境感知图神经网络构建指导蛋白质定向进化的通用人工智能一切都不一样了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。