Redian新闻
>
AlphaDev将排序算法提速70%!C语言库作者一文详解DeepMind最新AI

AlphaDev将排序算法提速70%!C语言库作者一文详解DeepMind最新AI

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】阿尔法家族新成员AlphaDev近来引发不少关注与讨论。一位曾在谷歌工作的研究人员对这项最新研究进行了详解。


几天前,DeepMind推出了AlphaDev,直接把排序算法提速70%。

这一全新AI系统,便是基于下棋高手AlphaGo打造。

而这项研究恰恰激起了前谷歌研究人员Justine Tunney的兴趣。

她表示,作为一名C语言库的作者,我一直在寻找机会来策划最好的东西。

一起看看Justine如何详解DeepMind排序算法。

DeepMind排序算法


DeepMind的这一发现赢得了当之无愧的关注,但不幸的是,他们本可以更好地解释AlphaDev。

接下来,从DeepMind发布的汇编代码开始,该代码将一个有三个项目的数组进行排序,从伪汇编翻译成汇编:

我将这个函数命名为 move37() ,是因为DeepMind的博客文章,将其与AlphaGo下的令人震惊的「第37步」进行了比较。

在2016那场人机大战中,AlphaGo下了一颗违反人类直觉的棋,一个简单的肩冲,击败了传奇围棋选手李世石。

所以如果运行DeepMind代码:

但是,在我看来这是一个错误。

我们给它的数组是{3,1,2},但 move37() 将其排序为{2,1,3}。

DeepMind一定在欺骗我们,因为我不相信2在1之前。再来看看他们对LLVM libcxx所做的开源贡献,这有望澄清一些事情:

所以 move37() 实际上不是一个排序函数,而是一个排序内核,旨在用作 sort3() 函数的构建块。

如果论文和博客文章能提到这一点就好了,因为它让我在最短的时间内感到非常困惑。下面是更好的代码版本,其中包括缺失的交换(swap)操作。

为了解释为什么他们的代码很重要,让我们考虑一下这个算法在高层次上是如何工作的。当我第一次尝试自己解决 sort3() 问题时,我想到了这个:

然后我查看了libcxx,发现它们也在做同样的事情。上述代码的问题是,编译器并不善于优化它。

如果你尝试编译上面的代码,就会注意到你的编译器插入了大量的分支指令。这就是DeepMind试图通过LLVM贡献来改进的地方。

然而,这些技术往往不太容易理解。

我实际上喜欢天真无邪的代码,因为如果我们眯起眼睛,可以看到一种模式,与DeepMind最先进的汇编代码有相同的基本想法。

这个想法是这个问题本质上归结为3个比较和交换操作:

上面的代码是之前排序网络的最先进技术。现在,这就是DeepMind的新发现发挥作用的地方。他们发现有时上面的 mov 指令是不必要的。

如果你试着运行上面的代码,你会发现不管有没有被删除的行,它都是100%正确的。

这行代码看起来像是在做什么,但实际上什么也没做。所以我并不惊讶这样的事情会被计算机科学忽视几十年。

现在也应该更清楚AlphaDev是如何工作的。

DeepMind基本上构建了一个人工智能,它可以摆弄汇编代码,随机删除一些东西,看看它是否损坏。

我这么说并不是要否定AlphaDev的智能,因为如果我说我没有做同样的事情,那就是在撒谎。

上面的代码中还有两个 mov 指令,我们有可能将其删除。通过使用ARM64指令集来做到这一点,它可以为类似的问题提供更小的代码。

在这里,我们不需要任何指令来创建临时变量:

Arm公司最近风头正劲,我想上面的例子可以作为他们赢得名声的证据。

Arm也是目前开源领域最好的公司之一。比如,他们的MbedTLS库是我迄今为止见过的最被低估的瑰宝之一。

当我开始使用它时,我原本有这样的计划,即修改Arm的代码,使之在x86硬件上更好地工作。

我编写了所有这些精心设计的汇编优化,使其与x86上的OpenSSL达到相同的性能。

MbedTLS是简单、可移植、可破解的C代码,因此对于任何想要一个不是Perl生成的汇编的加密库的人来说,是个好消息。

我告诉了Arm公司的人我在做什么,他们并没有觉得这是颠覆性的。

我希望有一天能找到时间做DeepMind做的事情,并在上游进行修改。Arm公司的优化程序库也是多产的,它在质量上与双转换无懈可击。

它对C库对此特别感兴趣,因为几十年来,开源社区一直依靠Sun Microsystems在90年代初编写的数学函数来维持生计。

Arm找到了一种改进其中几个函数的方法,例如 pow(x,y) 。考虑到这是数学中最基本的运算之一,这是一件非常有影响力的事情。

比如,如果你在纯软件中使用Arm的解决方案在x86机器上实现 pow(x,y) ,那么它将比英特尔的原生x87指令快5倍。

很幸运,DeepMind也加入了这个游戏,所以我冒昧地把他们的libcxx diff翻译成可读的C代码。

这是我希望在论文和博客文章中看到的另一件事,因为在这段代码中,你会发现专家们用来让编译器生成无分支 MOVcc 指令的规范技巧。

当我看到 Sort5() 函数,我觉得自己对DeepMind研究的动机有了更好的理解。

如果你在ARM64上编译 Sort5() 函数,那么编译器将产生一个处理11个寄存器的函数。如果你在推理一个数学方程,那么你能一次在你的工作记忆中保存11个变量吗?

可能不会。这就是为什么有一个像 PartialSort3 这样优秀的内核函数如此有用的原因。

值得一提的是, Sort3() 和 Sort5() 本身就是内核,因为它们旨在成为传统排序功能的构建块。

博客文章涵盖了这个主题,但我认为分享一些实际上可移植和可执行的东西会很有用。

The above algorithm shows what the new and improved libcxx is doing. It's basically quicksort except it switches to the sorting kernels and insertion sort when recursing into smaller slices. With libcxx I think they even took the added step of schlepping in heapsort, which is kind of slow, but prevents adversaries from smashing your stack. 上面的算法显示了新的和改进的libcxx正在做什么。它基本上是快速排序,除了在递归到更小的切片时切换到排序内核和插入排序。对于libcxx,我认为他们甚至采取了在堆排序中移动的额外步骤,这有点慢,但可以防止对手破坏您的堆栈。

    The main thing you may be wondering at this point is, can I use this? Do these sorting network kernels actually make sorting go faster? I would say yes and no. When all you want is to sort ascending longs, the code above will go 2x faster than the standard qsort() function provided by your C library. Except you don't need the kernels to do that. What I've determined so far is that, on my personal computer (which has an Intel Core i9-12900KS) the above function sorts longs at 255 megabytes per second. However if I comment out the sorting kernels: 在这一点上,你可能想知道的主要事情是,我可以使用这个吗?这些排序网络内核真的能让排序变得更快吗?我会说是和不是。当你只想对升序长进行排序时,上面的代码将比你的C库提供的标准 qsort() 函数快2倍。只是你不需要内核来做到这一点。到目前为止,我已经确定,在我的个人电脑上(它有一个英特尔酷睿i9-12900KS),上面的函数以每秒255兆字节的速度排序。但是如果我注释掉排序内核:
然后我的 longsort() 函数以每秒275兆字节的速度运行,通过简化算法实现了7%的性能提升。
long 的好处是它足够长,可以存储 int 键值对,能够快速对地图条目进行排序是一个有用的技巧。
上面的函数编译后只有181字节的x86-64机器代码。
由于DeepMind的 sort3() 只有42字节,我希望可以交换一些大小以获得性能优势。
因为到目前为止,我发现的下一个最佳算法是改用基数排序,速度为400 MB/s,但除了依赖于 malloc() 之外,还需要高达763字节的二进制占用空间。因此,如果能看到这些内核做得更好就好了。
这并不是说DeepMind的想法没有价值。
我认为值得注意的是,DeepMind非常慷慨,去年给了我们他们的矢量化快速排序库(当时他们被称为Google Brain),并通过这样做实现了永远无法挑战的排序优势。
Vqsor在我的电脑上以1155 MB/s的速度对长时间进行排序。
它甚至略微优于djbsor,后者是开源社区中最受欢迎的库之一,尽管它从未推广到比 int 更多的数据类型。
这两种实现实现的方式都是通过矢量化排序网络。我认为这就是排序网络技术真正闪耀的地方。
我想,如果就智能实体而言,AlphaDev不是一个蹒跚学步的孩子,它就会这样做。
当你从基本原则开始时,仅基线指令集就非常难以支持。如果我们等待,那么我认为我们可以期待在未来看到AlphaDev的伟大成就,因为它正在努力应对更强大的挑战。
我也很喜欢DeepMind让算法变得更小的事实,因为这是我不常看到的。
大小编码是我最喜欢的爱好之一。在这个博客上,我发布了一个383字节的lambda演算虚拟机和一个436字节的带有垃圾回收机制的lisp机。
我还在博客上介绍了我在cosmpolitan c库中使用的大小优化技巧。
我也喜欢DeepMind的母公司,因为几周前Google给我颁发了开源同行奖金,很高兴看到他们分享我使软件变小的热情。
很高兴看到他们用它来改进矢量化快速排序。
最后,我喜欢人工智能公司用机器语言编写代码的机器的想法。他们为什么不呢?机器的本质就是机器。
作为一个建设者,我发现这比OpenAI正在创造的未来要少得多。
他们已经建立了一个巨大的家长式机器,在零和经济中与地球上的每个建设者竞争,然后诱使世界上的寻租者通过政府监管来控制这台机器。
我不认为OpenAI承诺将所有我最喜欢做的任务(如编码)自动化是一种进步。我想要的是能够控制一台机器,这台机器能够完成我自己无法完成的事情,比如发现排序内核。这才是真正的进步。
我认为,我们能够砍掉的每一条装配线都是朝着这个梦想的积极方向迈出的一步。

参考资料:
https://justine.lol/sorting/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一文详解!带你真正看懂“长空之王”比人类算法快70%!谷歌DeepMind用AI改进数据排序,登上Nature7 Papers | DeepMind用AI重写排序算法;将33B大模型塞进单个消费级GPU它发现了更快的排序算法,速度快 70%AlphaDev革新计算基础!DeepMind用AI重写排序算法,速度快70%谷歌 DeepMind 打破十年算法封印,AlphaDev 惊世登场,颠覆人类算法格局!GPT-4两句话复刻DeepMind最快排序算法?马库斯:过于讽刺AI重写排序算法,速度快70%:DeepMind AlphaDev革新计算基础,每天调用万亿次的库更新了为什么我躲不过七情六欲硬核观察 #1026 人工智能发现了更快的排序算法前哨速览:SpaceX招聘14岁软件工程师,DeepMind推出新的Alpha AI工具一文详解CMP设备和材料IEEE高级会员,IEEE中国联合会前任主席,IEEE北京分会前任主席冯进军当选北京“最美科技工作者”谷歌DeepMind打破十年算法封印,AlphaDev惊世登场,颠覆人类算法格局!《心中的歌唱》&《无念》DeepMind最新研究登Nature,揭示AI时代科研新范式,开拓未知领域,带来全新挑战不动产统一登记都登记什么?有何影响?一文详解掉脑袋的事:Google Brain和DeepMind合并成Google DeepMind!!!旅行杂记:泰国清迈儿童雾化药物怎么选择?如何联用?一文详解AI帮助人类打破十年算法瓶颈:谷歌 DeepMind 发现更快排序算法,已集成到C++库盼。。俄罗斯传兵变!一文详解 多方最新回应来了!重现当年AlphaGo神来之笔!DeepMind新AI发现提速70%排序算法,十年都没更的C++库更新了语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路【国际移民研究】加拿大华人和印度人政治参与比较研究Agustín Hernández:中美洲建筑背景下的未来主义巨构打破十年算法封印,DeepMind发现更快的排序算法碾压GPT-4!谷歌DeepMind CEO自曝:下一代大模型将与AlphaGo合体DeepLab、DeepLabv3、RefineNet、PSPNet…你都掌握了吗?一文总结图像分割必备经典模型(二)提升工作效率!一文详解 Ansible 自动化运维机器人可“自我学习”!谷歌DeepMind发布首个机器人算法模型,“潘多拉魔盒”打开了?ICML 2023杰出论文奖放榜!北大校友一作斩获大奖,华人作者参与三篇,DeepMind苹果纷纷获选2023 ICML大会来了!一文速览谷歌DeepMind的最新研究复旦NLP组开源PPO-Max:32页论文详解RLHF背后秘密,高效对齐人类偏好
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。