终极场景是,人和机器人已经不能区分了,机器人可能是人,人也可能是机器人。
《财富》杂志称,没有一款人工聊天机器人能与ChatGPT相提并论。根据使用者的提问,它可以天马行空地吟诗作赋,可以幽默风趣地聊天对话,可以帮助人类敲代码、写论文、写脚本、编故事……与它的对答过程,已非通常意义上的提问和搜索,这种人机交互更像是一场跨物种间的对话。而这也符合科学家对人工聊天机器人的早期设想。早在1966年,麻省理工学院的计算机科学家等人就共同推出了一款人机对话软件“Eliza”,其被定位为模拟心理治疗专家的人工智能软件。如今,AI“治愈”心灵的想象似乎将要演变为现实。作为自然语言生成领域的资深专家,黄民烈创办的聆心智能开创了人工智能在心理健康领域的前沿应用,已推出AI情绪疗愈机器人Emohaa,并与知名精神心理平台好心情达成合作。如今黄民烈团队推出「AI乌托邦」,再将AI在各行业的应用可能性推上新台阶。2月22日,在和《中国企业家》的直播对话中,清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈告诉《中国企业家》:“AI带来的第三次科技浪潮已势不可挡,我们要抱有积极拥抱的态度。”1.ChatGPT的出现是整个AI历史上的一个里程碑事件。2.国内公司更需要建立一个完整的生态,而非全部像OpenAI这样的底层模型公司。3.AI必然会朝着拟人化的方向发展,在更远的未来有可能非常类人。4.AI未来一定会消灭一些工作机会,但同时它也会产生一些新的工作机会。对于它的存在,我们要持积极拥抱的态度。5.当真正的AGI实现的时候,人和机器人已经不能互相区分了,机器人可能是人,人也可能是机器人。
《中国企业家》:ChatGPT的成功,对包括您在内的人工智能大模型领域的研究者,会有什么启发?黄民烈:ChatGPT之所以能够成功,是因为OpenAI在2020年就做出了GPT3,在此基础上的两年多近三年的时间里,它已经积累了大量的数据,并且团队也做了很多技术上的尝试,比如加上代码、类似于思维链的训练方式、带有人类价值观的一些指令等,然后通过数据不断去反馈和优化它的模型。所以说ChatGPT是基于工程、技术、数据等方面的综合成功。其成果的推出让我们会产生做出ChatGPT很简单的感觉,实际上这些数据研究、训练背后存在着大量的试错成本。OpenAI虽然没有详实披露这些细节,但这些都值得我们对它进行深入探讨和分析。我们现在采用一些捷径,做到相当于人家七八十分的成绩应该并不难。但如果想要达到ChatGPT的同等能力水准,这需要一些创新的方法,比如去探索一些更创新、前瞻的方向,包括一些技术路线。如果能够做到这一点,我觉得我们有可能实现一定程度的快速追赶。《中国企业家》:ChatGPT出现后,很多知名的企业家、人工智能领域的专家等,说这是一场变革,您觉得它的出现对人工智能当前和未来意味着什么?黄民烈:首先,它的出现是整个AI历史上的一个里程碑事件。第二,它让我们看到通用人工智能似乎并不遥远,因为过去大家都不敢想象,一个模型能够解决如此多的任务,达到如此高的智能水平。2020年-2022年期间其实发生了大量事件,像 Google 的对话系统Meena和 LaMDA,基本上都具有类人的对话能力,可以做到跟人一样的无障碍交流,我觉得这也标志着人机对话未来能够进入到非常广泛的应用场景上,即人机对话真正成为AI连接万物的沟通渠道。所以人和AI共生的未来是可以预见的,我非常相信这一点,它肯定很快就会到来。黄民烈:其实我觉得它(人和AI共生)已经在发生了。AGI时代的 companion(伙伴)是可以去想象的。过去,包括大家觉得很傻的Siri,大家都不爱用。但是如果说有一个非常智能的助理,同时还能够附加一些情感,能非常懂我,我们建立很强的信任关系和紧密的社交连接,我会不会愿意用它呢?所以我觉得AI未来会改变人和信息、人和机器的关系。至少现在来看,技术已经足够去给用户提供一个玩伴、学伴,甚至是理财顾问等。我们的能力已经颠覆了之前第二代的能力水平,所以我把它称作第三代的 AI浪潮。《中国企业家》:AI再往前进化的未来能够预见吗?是接近人还是超越人?会不会有一个边界或上限?黄民烈:会超越人,我觉得我的想法比较大胆,但超越是在更远的未来。但这个超越不是全面超越,是某些技能方面超越,而其他综合能力非常human like。所以目前我们先不谈超越,先做到human like,就是拟人,我觉得这是我们可以去期待的。《中国企业家》:现在有很多公司都在宣称进入或转入AI赛道,这些公司需要有哪些方面的技术积累,才能更容易转到这上面来?这个赛道的门槛高吗?黄民烈:现在市场上很多号称要做中国的OpenAI 的公司和团队,我就不评论了。但我觉得,大家要对这件事保持应有的敬畏和谦卑,这一行业其实是不那么容易做的,会有很多的“坑”存在。因为我们是国内最早做大模型的团队之一,我们在自己的框架下,也做了一些大模型,所以我们清楚知道这里的难点,而克服的方法也不是每个团队都能做到的。从整个公司的层次上来划分的话,国内的公司更需要建立一个完整的生态,而非全部像OpenAI这样的公司。我认为中国未来最多可能只有两三家,能够做到中国的OpenAI层次,更多的我觉得应该是专注做垂直业务的大模型、底层应用等。我们把这些东西用好,整个生态就能够转起来。如果仅仅是大家都砸钱,重复地去投入做同样的事情,最后的恶性竞争对整个大模型的发展生态非常不利,最后就是大家都活得不好,这是非常糟糕的。
《中国企业家》:人机对话的模型最早是从心理学的应用开始的,您为什么也选择从心理学方向切入?黄民烈:对话这个方向,最早是在1966年,由麻省理工学院的一名教授Joseph Weizenbaum开发的聊天机器人,叫ELIZA,定位是心理治疗机器人。他当时做了一个模拟心理治疗师的对话系统,交给他的同事用了,结果他同事跟机器人说了很多私密的话。后来教授告诉他说,其实我能看到你们的私密对话,他觉得非常的shock,因为他把这个机器人当做是人来倾诉的。这是人工智能早期的一个小故事。从这可以看到人类科学家非常有梦想和情怀,因为大众普遍认为心理咨询是最难的事情,但是1966年科学家就敢去挑战这样艰难的任务。到了2022年我们终于把这件事情做成了,基于神经网络的模型,我们做了一个心理咨询系统。就是通过让它学习心理咨询师的话术,普通人可以跟它流畅地聊天对话。OpenAI在2016、2017年成立的时候,他们就想要去创造每个人都能用的AI,即通用人工智能。所以还是要拥有梦想和情怀,才有可能干成比较大的事情。聆心智能也如此,我们希望给每个人创建一个 AGI companion,我们认为如果没有拟人的特征,没有情感,那AI就是一个冷冰冰的机器,未来可能就是我们把一些human like的属性加进来,AI就能变成一个伙伴,这也是我们的一个梦想和情怀。《中国企业家》:拟人化AI真的能通晓人的情感情绪吗?还是只是基于算法进行推测?黄民烈:它只是一定层面的建模。如果说我们从AI研究来讲,有很多人会问到底大脑是如何思考的。模拟大脑的思考过程,能不能把个人神经元全部扫描出来,通过物理化学模型全部建立,然后再去模拟神经之间的计算?这条路线并没有成功。Transformer大模型的成功,虽然有人类大脑的影子在里边,但它的本质还是计算的方法。是一个纯数学优化的路径。Transformer这种架构完全是把大数据大模型堆起来,然后用现代优化的方式去求解,不过这种方式跟大脑的机制完全不同。但这个方法却能够大获成功。所以说并不一定要完全把人脑模式将AI模拟出来,才能做到拟人,借助计算的和优化的方法,也可以实现。《中国企业家》:拟人化AI跟人沟通时,它能知道自己在说什么吗?黄民烈:你怎么定义知不知道这件事呢?就像今天的ChatGPT一样,你说它有理解能力吗?你既可以说它有,也可以说它没有,你要问它理解是什么?什么叫理解?我们今天会说ChatGPT有很强的意图理解能力,比如说你让他改个10他就改个10,你让他做个表他就做个表。但也有人不这么认为,比如说像纽约大学的马库斯教授。他觉得理解必须要到符号层面,能够把一个句子分成主语、谓语、宾语,然后区分它的语义类型,这才是理解。所以每个人对理解的定义不一样,主要是个人怎么去看待这个问题。《中国企业家》:人工智能发展至今,可能会存在一些安全问题,甚至是伦理性问题,这可能也会让大家产生一些担忧。我们是否能从技术角度去规范它,让 GPT或者聊天机器人,能符合人的预期,避免失控?黄民烈:谈及伦理,这就是一个比较复杂的问题。说实话,我们目前也没有特别好的捷径去解决它。我们现在能做的,就是要把所有知识都教给机器人,让机器人在这些情况下,不能乱说,或学会在不同的情形下该怎样说话。使AI可控还可以体现在对知识的运用上,就是让它不去胡说,即“不知为不知”,AI不知道的信息,就不应该乱说。另外还有一些边界的问题等。总体来讲,我们需要一些特殊的技术手段去控制AI的行为,让他能够表现得跟我们的预期比较一致。在我看来,这需要到技术相对成熟的阶段才能实现。
《中国企业家》:随着AI从技术和体验上往更细的方向发展,拟人化的技术在产品应用端,除了刚刚提到的心理学,还有哪些方向?黄民烈:应用很多,比如教育里的学习伴侣,游戏的玩伴,理财顾问……一方面是老一代技术可能直接被颠覆;另一方面也可能会衍生出一些新的业态,比如现在广为流传的营销助手、新闻写作助手、文档阅读助手等,都是AI可以去做的事情。《中国企业家》:部分工作职业等未来可能会被AI消解掉,我们要如何快速适应人工智能无所不在的环境?黄民烈:我觉得首先要有一个积极拥抱的态度,包括我的学生,我会对他们说,因为我们就在做大规模语言模型方向,现在GPT已经做得这么好了,我们还要做什么样的研究才是有价值的?我跟他们说,我们还是要去积极地去看别人的优缺点,还有哪些本质问题没有解决,我们是不是可以去攻克。其实未来我们还有很多可以做的,比如说我们能不能把一些符号的东西加进去,让它精确运算得更准确。从工业界实践的角度来讲,我们能不能找准一些特殊的应用场景,可以在商业上做得很成功,进一步把技术、产品和工程结合得非常巧妙?我觉得这是我们应该思考的问题。《中国企业家》:您说到陪伴问题,越来越多的人使用ChatGPT或者其他AI对话机器人,这个过程中人和机器该怎么相处?黄民烈:这是一个非常好的问题,也很难回答。你看现在ChatGPT这么火,也是第一次让大众都知道了AI的能力范围,也就是它能做的事和不能做的事。这是一个特别好的科普AI大模型的机会,使得公众的认知门槛、使用门槛都因此降低。所以未来AI对产业的赋能也会产生一些比较深刻的影响,但人类和AI究竟该如何相处,其实一直以来是个难题。AI未来一定会消灭一些工作机会,但同时它也会产生一些新的工作机会。比如AI训练师,可能就是一个新的职位,人的工作就是跟AI去聊天,或者给AI写语料。当然这还是比较浅的层面,更深的层面就是人和AI如何共生、共融。即什么东西应该AI负责,什么工作该由人管理,人和AI之间是什么样的关系,这涉及到了社会哲学、伦理、治理等各方面的研究。这些研究就不仅包含计算机科学家,可能还会涉及到社会学家、伦理学家、哲学家等等,需要大家一起来探讨AI的治理和边界。《中国企业家》:当GPT大模型更强大后,您对AI有没有一个终极场景的设想?黄民烈:我觉得终极想象的场景就是人和机器人已经不能区分了,机器人可能是人,人也可能是机器人。《中国企业家》:阿西莫夫曾提出机器人的三原则,机器人最终是为人类服务的,这个原则有没有可能突破,或者是在失控的情况下突破这个原则?黄民烈:我觉得不应该突破,因为包括欧美在内的整个AI界,大家都应该追求的是有用、可信、安全的 AI系统。这个系统肯定应该是我们整个科技界、整个AI界、整个人类应该追求的目标,因为我们创造AI的目的是为人类谋福祉,为了科技向善。所以我觉得这个原则是不应该突破的。新闻热线&投稿邮箱:[email protected]