如何有效提升算力?专家有话说!
8月16日,英特尔公司高级副总裁、英特尔中国区董事长王锐在英特尔2023中国学术峰会上表示,中国10亿级参数规模以上的大模型已经有近80个。大模型及其参数指数级的叠加,大大增加了对算力的巨大需求,如何有效提升算力成为大家关注的焦点。
如何有效提升算力
在芯片制造层面上,算力的提升不仅仅是制程数字持续缩小,还是材料、设备、芯片架构、制造工艺、供电技术、封装技术的全面升级。
英特尔研究院副总裁、英特尔中国研究院院长宋继强介绍,先进制程是为了实现在单一计算设备中集成更多的晶体管,单一计算设备指的不仅是单芯片,而是单个封装中所有芯片的总和。目前在单一计算设备中能集成1000亿个晶体管,但是英特尔的愿景是到2030年在单一计算设备中集成10000亿个晶体管,将来会通过高数值孔径的EUV光刻、GAA晶体管架构、背面供电等技术实现。
此外,推动先进封装技术,是保障芯片在有限的面积内,依旧能持续性地提升芯片性能。未来,2.5D以及3D封装技术能够大幅度减少芯片封装的尺寸。
探索创新类脑计算、量子计算等高能效算力技术,也为算力提升带来了新思路。宋继强表示,比如神经拟态计算等类脑计算芯片不仅通过模仿神经元的结构构建硬件,还能采用脉冲式神经网络等新技术,实现实时在线学习,甚至可以对多种不同的模态进行整合。高密度量子比特芯片技术同样具有可观的增长潜力。
据了解,量子比特是计算机比特的量子版本,是计算机中最小的数据单元。和传统的比特一样,量子比特的编码信息可以是1或0。但与传统比特不同的是,量子比特能够利用量子力学的概念,完成传统比特无法完成的任务。宋继强表示,在高密度量子比特芯片中,硅自旋量子位很受业内关注,其性能方面与超导量子位旗鼓相当,但是面积缩小了100万倍。
此外,高能效数据传输也能够进一步提升算力。例如,集成硅光子技术能够替代金属材料为各服务器节点提供高带宽传输技术。该项技术适用于大规模图计算等连接节点较多的大型计算领域,能够有效提升数据传输效率。
集成硅光子技术未来愿景
软件定义芯片另辟蹊径
很多专家强调了软件对于AI芯片设计的重要性,并表示软件是满足芯片定制化功能的关键,让芯片变得更加“智能”,这也是提升算力的关键。
“如果把AI比喻成工具,那么软件就是驾驭工具的能力。通过软件编程主要可以从四个方面更好地驾驭AI功能。第一,分而治之,通过软件编程把大问题化成小问题。第二,循序渐进,即用编程解决小问题后,在逐步提升能力解决大问题。第三,试错迭代,用软件编程的方式对技术进行迭代,并不断修复程序错误。第四,异常处理,通过编程语言来处理各种异常情况,并掌握正确的发展方向。”华东师范大学副校长周傲英表示。
宋继强也表示,若想让AI芯片在AI生态中蓬勃发展,需要软件的加持。芯片要与上层操作系统进行搭接,并适配不同的垂直软件栈,才能挥出最大的作用。
尽管如今高性能计算机的计算能力已经进入到了“E级”时代(“E级”是指每秒可进行百亿亿次数学运算的超级计算),但人们对于更高算力的追求从未停滞,这也使得软件定义芯片的概念愈发深入人心。
“软件定义芯片才是创新的关键。”清华大学教授魏少军表示,“通用”仍然是人工智能芯片的主流架构,然而此通用非彼通用,未来的通用人工智能芯片,需要在通用的基础上,变得更加“智能”,以满足各种各样终端应用的定制化需求。而若想让芯片变得更通用、更智能,可以以应用定义软件,再用软件定义芯片,保证芯片在具备灵活性的同时大幅提升效率。这不仅可以满足各种人工智能应用的定制化需求,也能有效增强算力供给。
合理分配算力也是关键
尽管算力提升的方式多种多样,但算力分配不均的现象仍存在,如何合理分配算力,成为了产业关注的焦点。
魏少军提出,由于ChatGPT需要大量算力的堆积,一定程度上带来了高校算力紧张。据了解,ChatGPT的爆火引发算力需求剧烈扩张,本属于其他AI领域的算力资源被大模型分走,使得研发能力受到掣肘,加剧了算力的“贫富分化”。
有数据显示,ChatGPT的用户基数在今年7月骤降,下降了12%,从17亿下跌至15亿。可见,AI技术已经从第一阶段过渡到了第二阶段,从盲目的算力堆积,到广大从业者逐渐趋于理性,并思考如何合理化分配有限的算力资源,使得AI技术能够更广泛地赋能千行百业。
“算力作为AI技术的动能,在采集之前,要更加具有目的性并明确技术需求,这有助于让算力流向真正所需要的地方,让更多真正所需的AI技术得到发展。”周傲英说。
周傲英表示,科技发展已经进入了一个崭新的阶段,即科学与技术融合发展的时代。此前,是科学引领着技术的发展,而现在是技术在倒逼着科学的进步。因此,未来AI技术的发展需要产业发展、应用场景、科技创新三者紧密相连,并且要以产业、应用的需求带动科技创新的发展,有效保障算力的合理分配,避免“算力荒”的出现。
微信扫码关注该文公众号作者