AI 堪称当今科技界最热门的话题,它不但深刻影响人们的生活,同时也为科学研究带来了新的可能性。作为一种将“AI”和“科研”深度融合的新兴科技形态,AI for Science(人工智能驱动的科学研究)被称为“科学研究第五范式”,其利用 AI 技术学习、模拟、预测和优化自然界和人类社会的各种现象和规律以解决各种科研问题,从而推动科学发现和创新。 如今,AI for Science 已成燎原之势,面对这场已经到来的科技革命,8 月 10 日,由中关村论坛指导、北京科学智能研究院主办的“2023 科学智能峰会”在北京拉开帷幕。此次峰会旨在搭建 AI for Science 领域科研突破、技术培育、人才交流的共建共创平台,共同推动 AI for Science 的基础设施建设、激发创新效能。
会上,来自学术界和产业界的四位嘉宾代表围绕“大模型与 AI for Science”议题并结合各自领域进行了深入地交流与探讨。专家各抒己见,激烈争锋,综述恐有遗珠,特逐字实录如下。
张林峰:接下来的问题提给王坚院士。无论科学计算还是 AI 计算,以及今天的 AI for Science,计算基础设施一直是基础中的基础,从 2008 年作为阿里云的创始人,到近期履任之江实验室主任,您在云基础设施前沿深耕 15 年。像云计算这个方向,其实也经历了一个从愿景走向流行再到面临不断变化的新局面这一过程,这个过程势必充满曲折艰辛,也注定对 AI for Science 正在从愿景走向流行有很多启示,在这个背景下您最想对大家说一些什么?
第二个观点,事实上大家今天讲的基础设施不是基础设施,为什么呢?我认为基础设施有两个最基本的特点,一个特点就是非常容易得到,第二个特点就是便宜,如果不满足这两个条件就不能称之为基础设施。所以回到当年我做云计算的时候,其实目标也非常简单,就是在世界任何地方可以享受这个东西,就算买不起计算机但用得起云计算,这是最基本的逻辑,我认为今天在 AI 领域也是满足这两个要求的。
王坚:我觉得 AI 基础设施如果做好的话,就像普通的学生向最好的教授拿一个大项目一样,它是可以获取的基础设施,这是我的理解;第二个理解,就是你今天想要用一张卡做研究,你明天想用 1 万张,那就明天用 1 万张卡,而不是今天用 1000 张卡做事情,需要准备一年才可以做这样的事,我觉得这个时候就满足基础设施。就今天而言,有点像明明就是去趟八达岭,结果还要修一条高速才可以去,当然,我们今天依然处在这么一个状态。
张林峰:接下来的问题提给黄铁军老师,黄老师在过去几年一方面见证了 AI 方向全方面的进展,也在推动 AI、大模型等方面做了很多工作和布局,领域在飞速的变化,关于 AI 与大模型,您有哪些最新的判断和认识,可否介绍这些年您的思考和实践?
黄铁军:大模型这个词是智源研究院在 2021 年 3 月份第一次提出来这么一个概念,但是现在已经很普遍了。大模型可能大家很容易理解“大”,但实际上大模型最深刻的肯定不是大,大是一个基本条件,更深刻的是具备“涌现”或者产生预料之外能力的这样一种特性,这种特性使得它是划时代的,AI 做了这么多年,大模型之前的 AI 研究都是人作为设计者,是完全可控的,你设计一个什么样的算法,你用什么样的数据,设计什么样的规则是确定的,这个系统能干什么,除了出错可能无法把握,只要不出错,那这件事情就是确定的,就是完全可控的。但是大模型之后出现了产生‘不确定性’的创新能力,而这是 AI 的一次大革命。
像我们说科技创新,创新就是别人完全没有想到的一个新发现、新发明、新的 idea 在你的脑子里冒出来了,这才叫真正的创新。其他也有很多科技工作,但不叫真正的创新,所以大模型有了创新能力,但这个创新和人的创新肯定还是有很大差别,也还有很多不足,但是“有”和“无”这件事情特别重要。ChatGPT 让大家一下子熟悉了 AI 到底能干什么,实际上大家从 2017、2018 年到现在,过去五年大模型形成了一个分水岭。
大模型在 AI for Science 这样的语境下能发挥什么样的作用,现在大家桌子上都有一本报告,去年的报告我认为写得特别好,今年写得更好。其中 1.3 节就是大语言模型可能对 AI for Science 的一些作用,我觉得那里面很多观点我都完全认同,唯一结论那个地方讲的,它有很多优势也有不少缺点,我对缺点不是太认可,实际上都是临时并不是长期的。为什么这么说呢?大家可能都试过,大家去尝试语言对话模型,都能发现经常还会出现幻觉,大家通常说的“一本正经胡说八道”现象是存在的,而且也是不断改进的,如果问科学问题,那更不靠谱,别说伪科学,那是连伪科学都谈不上的回答。
还有一个我说得可能乐观了的一点,我觉得可能对搞科技的人,两三年之内,用科学论文和数据训练的大模型,可以实现新数学定理的证明,这是有可能的。而且我相信那个东西一出来,会比 ChatGPT 更受瞩目。因为第一次非人类系统作出真正科学数据的证明或者科学的发现,我觉得两三年以内,这种可能性还是不小的。 我们怎么去用好这种最新的技术平台工具,去做真正的科技创新,而不是仅仅挑它的毛病。任何新工艺出来肯定是有毛病,从悲观角度来说可能什么事都做不成,从乐观的角度来说,我们不可能说 AI 大模型所有的回答都严丝合缝,一点逻辑错误都没有,那是不可能的,我们要看它的这种可能的新突破的地方。其实,我们每个人也一样,一个科学家一辈子能做一个真正的科学创新就不容易了,哪能做的所有事都是对的,不出毛病,这是不可能的事情,很多次尝试这一辈子能做出一个重大发现已经不得了,为什么我们这么苛求 AI 呢?当然,还是拿结果说事,当然某一天 AI 大模型实现新的科学发现,我觉得大家的观点一定会发生重大变化。
张林峰:您这么一说,可能在座很多不同方向的老师和同学一定有非常多自己的想法,我们也拭目以待。今年是 2023 版的 AI for Science 报告,期待 2024、2025 年的时候,您的批判已经成为被解决的问题,您的预言也能够成真。 距离 2018 年探讨 AI for Science 到目前已经过去了五年,那个时候 AI 作为新的技术可能性,似乎对 Science 有一个系统性提供新方案的机会,而在眼下在鄂老师的报告里面,一方面从宏观角度来说奠定了“四梁 N 柱”的思考,另一方面从新的技术要素来讲,我们 AI 新浪潮又来了,是大语言模型。
在我们讨论 2023 年之前,我想其实无论 2008 年云计算还是 2018 年的 AI for Science 早期,所产生的原创性的认识可能是更加弥足珍贵的,也或许站在现在的时间点能给大家带来更多的启发。刚才鄂老师介绍了更为宏观的引导,可能也作为给您的一个补充问题,想邀请您分享一下,您和汤老师在 2018 年的时候是怎样的机缘巧合,怎样的认识之下提出了 AI For Science 这样一个概念?
鄂维南:我只记得有一点,当时汤超老师说了,我们北大搞 AI for Science,我到时候把一号院让出来搞 AI for Science,这一点他现在已经不承认了。
汤超:你刚才问我变与不变,还有一个不变就是,从多年前我们提出这个东西开始到现在,我认为 AI for Science 有三层意思,其中一个就是应用场景,涉及各方面的应用,这方面的成功非常大;还有一个用 AI 来找新的科学规律;最后一个是 AI 为什么能这么成功,它里面的 Scinece 是什么,它跟我们的大脑有什么关系,能不能最后来理解我们的大脑,甚至超过我们的大脑。
我觉得第一个进步非常大,迄今为止还是这样的。铁军很乐观,他说两年以后可能就会找到新的科学规律。但我要说到现在为止 AI 没有找到一个新的科学规律,我想激励大家去往这个方向去想,我个人是相信 AI 能找到新的科学规律,也许要有不同做法,但现在确实是没有找到。大语言模型出来我特别兴奋,大语言模型给我们提供了一个新的机会,但是你仔细想大语言模型为什么这么成功?它是一个语言模型,语言首先就把很多人类知识消化在语言的框架下面,它有自己的逻辑结构,有自己的表征,然后大模型把这些东西学会了,它本质上还是一个统计模型。
科学可能跟这个有点不一样,科学也许有它自己内在的一些思维方式,有些东西是不能用语言表征的。我们也一直在想怎么用大语言模型来做一些具体的科学问题,但是总觉得很多地方都不成熟。现在 AI 就是在已经知道的科学技术方面,比如已经知道量子力学,你用量子力学来计算化学、材料、能源,可以越做越好,我一点都不怀疑这方面有巨大的应用前景。但是 AI 能不能发现一个新的量子力学,比如 X 力学,这是我期待的,我相信可能在很久的将来也能做到,但用现在大模型的架构能不能做到我不知道,要怎么学习我也不清楚,仅仅读论文是不是就够了?这个我也不是很清楚。总之,我觉得这是一个很有意思的问题,也是很大的挑战。
大模型与 AI for Science 目前的技术路线和应用存在哪些异同?以及各自的优势?
张林峰:谢谢汤老师,也谢谢各位老师的分享和发言。确实,刚才一系列的分享已经让我们逐渐进入今天的主题,下一个问题其实也是主题大模型与 AI for Science 进一步的凝练,接下来希望跟各位老师一起探讨两者就目前的技术路线、应用有什么样的异同?各自的优势又是什么?是否有一些大模型无法解决的问题或者需求?我想还是先请王坚老师做一些分享,您也见证了科学计算、AI 等各方面的计算发展的整体情况,其实这方面很多都是“带着镣铐跳舞”,您是对“镣铐”最有感觉的人。
第二件事情偶然性在哪里呢?ChatGPT 刚才黄铁军老师讲那个事情,今天早上闭门会的时候发生过一件事情,他就问了 ChatGPT 很多很认真的问题,他就觉得 ChatGPT 乱说,我当时听了以后就觉得这个说法不公平,因为 ChatGPT 的发明就是让你胡说八道的,他不是让你来回答科学问题的,ChatGPT 的核心不是 GPT,而是 Chat。从 2000 年往回回溯几年,你会发现这个领域的进步都是 GPT 的进步,只不过到了去年年底的时候“Chat”这件事情出来以后,大家突然发现这个东西还是很有能力的。所以我为什么说它的核心是 Chat,是这些人理解了这样的一个技术可以跟 Chat 结合在一起,让大家觉得了不起,它没有说要跟科学发现结合在一起,我觉得大家还是要意识到这个问题。只不过我们今天试图想把它跟科学结合在一起,然后认为它这个不能干,那个不能干,我觉得这个逻辑还是有些问题的。 不是 AI for Science,我自己的理解,而是 Science for AI,科学家解决问题的时候让 AI 有一次巨大的进步,这是我的理解,也是我的期待。我觉得事实上是 Science for AI,哪一个时代它解决了 Chat 我觉得已经是很了不起的了,你不要想着这样的一个框架,怎么修修补补就一定能解决很了不起的问题,所以我更期待的是 Science for AI。正好汤老师在自然科学基金会,我觉得这个逻辑更加对一点,确实能够推动 AI 这个学科的发展,这是我自己的理解。
汤超:我觉得 Science for AI 这个讲法也挺好的,现在 AI 的发展确实得益于 Science。从整个 IT 领域,到芯片,其底层的 Science 其实是经过很多年的积累才发现的,麦克斯韦方程、量子力学、半导体等等,现在我们希望 AI 发展到一个阶段来 help Science,可以做很多事情。
Science 的 GPT 是一个统一的大模型还是有一个 Science 的大模型?
张林峰:我想顺着王坚老师的观点,其实也更加有针对性的问您接下来的问题。无论是 AI for Science 还是 Science for AI,接下来我们从解决问题的角度来看,Science for AI 的角度可能是 AI 现在已经到了大语言模型级别,我们加上 Science 会有啥?然后会让 AI 变得更怎么样?而从 AI for Science 的角度,GPT 也不见得只是属于 AI 的,其实我们在 Science 里面恰好有一系列符合大模型需求的架构以及一系列预训练的可能性和生成型的一个可能性,所以 Science 的 GPT 是怎样的?会是一个统一的大模型还是有一个 Science 的大模型?
鄂维南:这是两个不同问题,首先是 Science for AI,的确 AI 现在看上去怎么看怎么是像 Engineering,不像 Science,我在有些场合试图给一个报告,基本的想法就是以后出来的这些新的网络架构我们不会觉得特别惊叹。比如说 ChatGPT 让我们感觉就好像非常惊艳,如果我们要想 Develop Science for AI,至少我们要达到这样的目标。
的确也有一些先例,比方说我经常举的例子就是计算流体力学、计算空间动力学,我们希望神经网络也能做到这一点,我个人觉得这个是有希望的。我觉得比较困难的是所谓的“涌现”。涌现不是数学的事情,是物理的事情,物理领域里面有一个很有名的说法,叫 More is different,这个涌现就感觉有那个味道。
所以我觉得大模型出来以后,这是一个很有意思的现象,这个涌现是怎么出来的,而且也正因为大模型出来了,它毕竟还是人类创造的东西,不像神经元我们不能把它一个个打开看。所以,我一直希望通过对这种 AI 的研究,比如现在大模型出来,通过对大模型的研究,能不能让我们更深刻的来理解“涌现”这个东西,再反过来肯定也还会再促进更高层次的 AI。我们现在还不明白什么情况“涌现”会出现,到底要多少神经元,多少参数,这些问题我们都没有明白。 鄂维南:物理里面有没有一些比较简单的例子能够帮助理解涌现这个现象?
科学是要研究现象或者事物背后的规律的,这叫科学,而 AI 不是。千万别觉得 AI 是技术和工程,好像有点贬低,我们一点没这个意思。我说没有贬低的意思是 AI 也好,还是包括计算机也好,其实它是要做一个东西出来,比如说涌现,我们很兴奋的是我们做出来一个有涌现这种现象和功能的系统,至于为什么,那是科学家的事儿。这个东西不做出来,除了研究自然界的涌现,你怎么研究人工系统的涌现呢?所以这就是工程或者技术的追求。
王坚:铁军说的还是有点问题的,铁军说的感觉像搞 AI 的人就会蛮干,脑筋都不动,只有搞物理学的人动点脑筋。关于大模型,第一我不搞这个东西,我刚才讲到 ChatGPT 的核心是 Chat,你再往上提一提的话,汤超老师刚才讲物理学的东西,我不觉得这是一个智力的问题,这是一个人创造力的问题,跟智力没有关系。可能数学跟物理学很多东西都是一个人灵感的问题。今天我们谈“Chat”,它都还没有延伸到“智力”,汤超老师想要把它再延伸到“创造力”,我觉得这个步子迈得太大了一点,就搞得铁军胡说八道了,这根本就不是同一件事情。
有一次我跟《人类简史》的作者正好在一个论坛上,他在台上说了几句话,我在台下听的就不舒服。他的意思是,他认为人工智能没什么东西,大概很快就会做完了,我觉得这是对人工智能的曲解,他说人类还有更了不起的事情,叫人工意识,我坐在下面听的很不舒服,结果那天也碰巧他发完言就是我发言,我跑上去调侃了一下,我说这个话也对也不对。人太复杂了,先不说有没有人工意识,我们连 AI 能做好都不知道是哪天,等到人工意识做完以后,你突然发现人还有更了不起的事情,就是无意识。我理解我们今天是在“Chat”这个级别,能不能到“智力”都是一个很大的问号,汤老师一定要把我往绝路上逼,把“创造力”逼出来,这我觉得太过分了一点。
黄铁军:咱们经常说基础研究,科学基础,技术是应用,这种思维方式太习以为常了,其实是错误的。刚才说的从 0-1 的发明和从 0-1 的发现都是伟大的,为什么四大发明伟大,是因为没有科学原理能发明出来,如果科学原理都有了,那只不过是照做,那不伟大。所以 AI 不简单,不仅仅是说从 0-1,完全没有想到的东西能做出来,你不知道它怎么想到做这么一个网络结构,做出这么一个功能,尝试了很多种可能性,终于做到了这一点,所以我没有贬低 AI 的意思,只是大家太把科学摆在神的位置,所以总觉得一说工程技术就是似乎是一个应用,那是错误的,真正的技术、真正的原创、从 0-1 的发明同样都是伟大的。
第二,我认为现在的 AI 是有创新能力的,但要看怎么定义。比如计算机,人会计算,后来我们设计一个机器,这个机器会计算,你会觉得不神奇,但是计算机算的快,所以它能解决很多问题。现在 AI 创造能力和人的创造能力当然还有很大的差别,但是能把很多看似无关的东西,联系在一起,即融会贯通,这个能力也是人的创造中很重要的一部分。我们很多时候说灵感,这个灵感也分不同,爱因斯坦想出相对论的灵感,和我们读书破万卷,下笔如有神那个灵感肯定有差别,但是后面的灵感也是灵感。数学定理有的证明确实要靠直觉,没有直觉真的做不出来。出的结果我们肯定要承认是一个真正的创新,只是说不像人的灵光一闪那么巧妙,但我认为现在的这代 AI 是能做到的,我们还会建立更复杂的 AI 系统。我自己梦想是在 2045 年做出真正像人脑创造力,而且比人速度更快的系统,但还有很多的技术上的问题需要突破。即便如此回到今天,我们仍然要对今天已经实现的大模型报以欢呼,它真的是 AI 从来没有做到过的创新能力。
大模型与 AI for Science 过程中的核心瓶颈是什么? 张林峰:谢谢铁军老师,刚才的对话也体现了我们这次峰会主题,即“碰撞中凝聚共识”,刚才是碰撞比较激烈的一段环节,也让凝聚共识的主题充满挑战。接下来一个问题,是一种凝聚共识方式。第一个共识,大模型与 AI for Science 大有可为,会有机会和光明的未来,可能这是大家都有的共识。给定这样的共识,从另外角度来看,这个过程中核心的瓶颈是什么?以及又该如何突破瓶颈、如何破局?
王坚:其实我觉得这还是一个认识上的问题,包括刚才鄂院士在引导发言的时候,他讲 AI for Science 会涉及很多过去不同的东西,其中经常会讲到数据驱动。我自己对数据比较感兴趣,我一直在问自己,数据驱动以前到底是什么驱动?在 AI for Science 的语境下,我自己的理解可能有一个东西是第一步走的,因为今天大家讲 AI for Science 的逻辑,基本上以数据解决至少是我们已经知道的或者已经产生的假设,如果真的要做到汤超老师那样讲的,我个人觉得针对所有的研究都是假设驱动的,从这个角度,我们通过数据能不能形成新的假设,我觉得这是一个蛮挑战的问题。
对我来讲,数据驱动对应过去假设驱动的研究范式,数据最重要的作用不是解决问题,数据最重要的作用是形成问题,没有这个东西的话,我觉得可能真正意义上的创新,特别是 AI for Science 我觉得还有很长的距离要走,这是我觉得瓶颈所在的地方。
鄂维南:关于大模型瓶颈我就不说了,留给铁军。关于 AI for Science 的瓶颈,我本人出发点和汤超有点不一样,我是做数学出身,所以我关心的是打造基础设施,就是打造刚才王坚院士说的那种基础设施。从这个角度来说,我个人觉得眼下、短时间内最大瓶颈是组织能力,是把资源用好,用到该用的地方,也包括刚才汤超说的这些数据,其实也是组织能力的问题。从长远角度来说,一个当然是人才问题,第二个就是要有效组织起来,把基础设施建起来,就像电子显微镜等新一代基础设施建起来,我觉得组织是主要的问题,怎么样把资源用到该用的地方。
黄铁军:我觉得几位老师讲的很好,其实大模型也好、AI for Science 也好,包括其他领域也好,当然在我们中国当下的语境来讲,我觉得两个瓶颈,一个瓶颈就是合作协作,我们是什么东西热,很多团队做,但是都是分别各自做,各自以最快速度发一篇论文,这种是做不了大事的。我们国家每年发 40 多万篇论文,美国发 35 万篇,但实际上很多都是说这事已经很清楚了,往上加一点发一篇论文,但是真要做大问题,肯定得有多方合作,数据组织比如说大模型数据组织、算力组织、算法组织都要去做。为什么中国很多论文是别人准备好的数据集,别人有的框架算法。我们要解决大问题,必须要有合作精神,我觉得这是咱们的一种文化意义上的瓶颈,这个必须突破,经常说集中力量办大事,我觉得我们很难做到,我觉得鄂老师刚才讲的很好,但是能做到这一点,投入是一方面,大家有没有合作性,真的建那么几个平台,把几个大问题解决掉,我觉得这是一个问题。
技术和科学不一样,科学就一个原理,不会有第二个原理,第二个原理也是比第一个原理更深入的原理,技术路线从来都是多种多样的,从来都是有多种可能性。今天问题解决了,用这种方法不等于说是唯一的方法。咱们讲 AI for Science,我希望咱们的科学包括广义的科技工程能够有这样的东西出来,那我们就更欢欣鼓舞了。