Redian新闻
>
Transformer出逃八子最后一人正式创业!坐标日本搞AI“群”模型,本人:在谷歌有被困住的感觉

Transformer出逃八子最后一人正式创业!坐标日本搞AI“群”模型,本人:在谷歌有被困住的感觉

公众号新闻
萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

谷歌经典Transformer论文8位作者的最后一位,创业去向已定!

新公司base东京,目标是做一家“世界级人工智能研究室”,目前已知的创始成员有两位,Transformer作者Llion Jones和另一位谷歌前同事。

Llion Jones表示,虽然对谷歌没有恶意,但这家公司确实让他有“被困住的感觉”:

谷歌已经发展到了一种规模,让我觉得在里面我什么都做不了。

我发现自己总在找各种软件出bug的原因,以及这个bug是谁写的……这极大地分散了我研究的注意力。

此次出来创业,AI圈全是祝福声,从英伟达高级AI科学家Jim Fan到也从谷歌离职创业的高产研究员Yi Tay,都在线表示了自己的祝福。

有网友羡慕称:这正是我想做的那种研究!

所以,Llion Jones创办的新公司究竟要做什么,在创办新公司之前他又有哪些值得一提的研究?

Transformer八子最后一人出走

创业之前,Llion Jones在谷歌已经干了8年。

他本硕毕业于伯明翰大学,在Delcam、油管、谷歌都工作过,谷歌是他待得最久的一家公司。

据FourWeekMBA介绍称,在他之前的工作经历中,“曾两度与谷歌的工作擦肩而过”。

第一次是他刚毕业找工作时,虽然投了谷歌伦敦软件工程师的简历,并通过了两轮电话面试,但最终相比谷歌,他选择了位于英国的CAD/CAM软件公司Delcam。

第二次是工作18个月后,他又接到了谷歌的招聘电话,询问他是否想重新申请,但他依旧没去谷歌,而是随后加入了YouTube。

在Youtube做三年软件工程师期间,他对人工智能产生兴趣,自学了Coursera的机器学习课程,并终于在2015年的时候加入谷歌研究院,担任里面的高级软件工程师。

也正是在此期间,他与其他七名作者一起发表了那篇著名的Transformer论文Attention Is All You Need

这篇论文如今已经成为大部分大模型的“奠基研究”,引用次数达到8.5w+。

随后,Llion Jones还与其他研究人员一起,发表了名为Natural Questions: A Benchmark for Question Answering Research的一篇论文。

这篇论文提出了第一个公开可用的自然语言问答数据集,这些语料由谷歌搜索引擎收到的查询问题构成,一共有30多万个样本。

目前,这篇论文的引用已经达到1300+次。

除此之外,Llion Jones也在谷歌参与了不少研究,包括ProtTrans、Tensor2Tensor等。

之所以选择离开谷歌,是因为公司目前已经发展到一种规模,使得他无法继续进行自己想做的工作。

除了每天都在浪费精力排查其他人的bug,他还需要花时间从这家公司中找资源,试图获得访问某些数据的权限。据彭博社采访Llion Jones称:

遗憾的是,我确实感到自己在谷歌之外(的事情中)干活效率更高。

因此,在这家互联网巨头工作多年后,他意识到自己还是想做一家初创公司,而不是离职加入OpenAI等其他AI公司。

毕竟在Llion Jones眼中,OpenAI从微软和其他投资者那里筹集了数十亿美元后,现在正在靠近谷歌这样的互联网巨头,其创新力同样正在减弱。

目前Llion Jones在东京已有一段时间,在领英上可以看见,他还给自己起了个日文名ライオン(狮子),也和英文名发音有所对应。

所以,这个在日本的新公司究竟要做什么?

新公司要做“AI集群”

这个新公司名叫sakana.ai,其中sakana是日语“魚”(さかな)的罗马读音。

顾名思义,sakana.ai在做的事情也像“鱼群”一样:

大自然中的鱼会基于某种简单的规则成群活动。因此,AI们也能借鉴它们的思想,无需更大的体积就能完成很复杂的任务。

具体来说,公司计划开发一种基于自然启发智能(nature-inspired intelligence)的基础模型,借鉴自然领域中的“进化”和“集体智慧”思想,让一群AI协作,类似于当前AI领域的生物启发计算方向。

据《金融时报》介绍称,Llion Jones认为,当前的AI模型之所以存在局限性,是因为它们被设计成无法改变的结构,这种结构往往是脆弱的。

相比之下,发挥“集体智慧”的自然系统,对于周围的变化非常敏感。基于此原理搭建的AI也会具有更好的安全性、更低的搭建成本。

虽然目前模型还没有搭建起来,不过或许可以从两位前谷歌研究员在2021年的共同研究找到一点参考信息:

这篇研究提出了一种叫做AttentionNeuron的网络层,可以将每个输入通道连接到一个独立的神经网络模块,通过注意力机制交流信息。

这样即使输入顺序被随机打乱,网络输出也是已知的,具有良好的鲁棒性。

在自动驾驶环境CarRacing中测试表明,AttentionNeuron即使没学习过环境内容,也可以实现一定程度上的自动驾驶,表现出一定的泛化能力。

这种AI具体如何落地应用?

一方面,这类AI也能像大模型一样,用于生成文本、图像、代码等多个模态的内容;

另一方面,它也能给ChatGPT这样的产品提供支持、协同更多大模型产品工作,实现能力上的“无缝衔接”。

目前,sakana.ai已经建立了官网,上面有一小段话的介绍,表示新公司将位于日本东京,“要做一个世界级的AI研究实验室”。

之所以选择东京,是因为北美那边的生成式AI研究人员竞争非常激烈(手动狗头),但在日本这边也能找到一些高质量AI人才。

公司融资情况目前尚未透露,毕竟办公室还没搭起来。

不过据CNBC透露,sakana.ai目前已经从学术圈聘请了一名兼职研究员,未来还将招揽更多人才。

One More Thing

其实,“Transformer八子”全部离职,今年7月已有征兆。

虽然Llion Jones的领英显示,他在谷歌干到了今年8月:

不过就在7月份,论文Attention Is All You Need悄悄更新过一版arXiv,8名作者的邮箱(包括Llion Jones的谷歌邮箱)已经全部被划掉了:

(8月份这篇论文又更新了一版,所有邮箱都被加了回来)

至少在一个月前,8人全部离职创业的念头就已经尘埃落定了。

参考链接:
[1]https://sakana.ai/
[2]https://arxiv.org/pdf/1706.03762v6.pdf
[3]https://www.cnbc.com/2023/08/17/transformer-co-author-llion-jones-leaves-google-for-startup-sakana-ai.html
[4]https://www.ft.com/content/1f0cee71-2a44-4080-8c79-b037243ac6f5
[5]https://twitter.com/YesThisIsLion

「中国仿生机器人产业全景报告 · 量子位智库」下载

AGI 的火热发展为仿生机器人的实现补全了最后一块拼图,仿⽣机器⼈将在技术创新和商业模式上迎来新周期。量子位智库发布《中国仿生机器人产业全景报告》,扫描下方二维码即可查看并下载完整报告。

9月6日,我们将在北京举办仿生机器人行业沙龙,欢迎感兴趣的企业联系活动负责人王琳玉,联系方式见下方。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Transformer八子谷歌一个也没留住!最后一名作者已宣布离职创业Transformer后继有模!MSRA提出全新大模型基础架构:推理速度8倍提升,内存占用减少70%NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击Transformer八子全部叛逃谷歌!最后一位共同作者月底离职创业炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens最新NaViT模型炸场!适用任何长宽比+分辨率,性能能打的Transformer1000000000!微软改进Transformer一次能记住这么多token了ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响最新综述!南洋理工和上海AI Lab提出基于Transformer的视觉分割综述彻底抛弃Transformer,八金刚之一再创业!联手前谷歌Brain大佬创建自然启发智能模型Transformer速查宝典:模型、架构、训练方法的论文都在这里了ChatGPT危了!注意力机制的神秘bug曝光!Transformer模型恐大受冲击...鸡贼看世界之北京篇Transformer+强化学习,DeepMind让大模型成为机器人感知世界的大脑Transformer+强化学习,谷歌DeepMind让大模型成为机器人感知世界的大脑transformer的细节到底是怎么样的?Transformer 连环18问!ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!谷歌最后一位Transformer论文作者离职创业,野心不小,要颠覆当前生成AI范式ViLT: 没有卷积和区域监督的视觉-语言Transformer模型微软新出热乎论文:Transformer扩展到10亿token揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?一只鼠头引起的一场娱乐百度谷歌成为AI黄埔军校,Transformer八子融资超8.7亿刀!「AI行业全景报告」总结GenAI大爆发云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理《越来越好》&《向云端》专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统【父亲节活动】我曾有个家Transformer论文「重磅更新」!八子全部离职,谷歌删除Attention Is All You Need所有作者邮箱Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手第二章 文明的产生和发展 (3)华为将推盘古数字人大模型;搜狗原CMO加盟王小川公司;首个线性注意力Transformer大模型推出丨AIGC大事日报用 Transformer 和 RLHF「炼」大模型,危?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。