2023年,大模型+虚拟人开始给娃上课了
编辑|李薇
头图来源|受访者
来源:受访者
“怎么这个东西又火了一遍”
2023年春节后,当大众也开始对ChatGPT津津乐道的时候,有道技术团队的感觉是,“怎么这个东西又火一遍?”
因为过去的积累和技术的敏锐度,有道技术团队在GPT-3.5出来的时候,也就是2022年12月到2023年1月间拼命关注、研究和测试,跟行业投资人和创业团队交流,考虑如何跟自己的业务做结合。
Transformer技术是现在AI的主流技术,GPT中的T也是Transformer的缩写,而Transformer正是从机器翻译开始做的,第一篇Transformer的论文也是与机器翻译相关的。
来源:受访者
2017年,周枫接触到Transformer,而早在2008年,有道成为国内第一家提供统计机器翻译模型的公司;2017年,有道从机器翻译引擎升级成神经网络翻译引擎,随后又升级到现在主流的Transformer技术。根据QuestMobile最新数据,到目前有道词典月活用户已经超过1亿,排名国内词典翻译市场第一,也意味着这是Transformer方案下市场份额最大的翻译产品。
技术积累的优势首先体现在团队的快速成型上,“有道做大模型的过程,其实完全是在之前团队框架下来做的,没有额外组建团队来做,因为很多技术和资源都是一脉相承的。”网易有道首席科学家段亦涛告诉《中国企业家》。
从2016年开始,有道协同构建AI基础能力,同步组建语言、视觉、声音等团队,目前积累了有道神经网络翻译(NMT)、计算机视觉、智能语音AI技术、高性能计算(HPC)四大底层技术能力。
2017年开始,有道升级到主流技术Transformer后,将AI能力统一在大模型之下,并重视其在端侧的落地应用。2019年,有道词典笔2代首次搭载离线Transformer NMT,将Transformer装到词典笔这样的小设备里面。
因此,技术积累的优势还体现在,过往的技术工程经验,让团队在处理大模型带来的算力、成本等难题时,能稍显从容一些。周枫回忆,当时神经网络的翻译上线时,团队碰到技术升级和成本问题完全一样,当时花了三个多月时间才把这些问题解决掉。
过去6年多时间,有道技术团队除了将Transformer用在翻译产品外,也将其用在语音、视觉、OCR字符文字识别上,因此有道的算法团队对于这次大模型的技术变化并不陌生,甚至曾试用过GPT-2的技术,到ChatGPT3.5之后,大模型带来很多不一样的东西,如参数规模、技术做法上的差异,但段亦涛认为总体技术路线是一脉相承的。
“很多时候成本挑战是一个相对的过程,你如果能做到行业内对资金利用率、对人员利用率比较高的话,其实就完全没问题的。有道总体上不需要增加什么额外的特别大的投入,因为有道AI团队也不小。”周枫告诉《中国企业家》。
大模型带给教育从业者的挑战
大部分人沉浸在大模型给教育场景带来新变化的同时,也有一部分担心这会对从业者带来一定的冲击和挑战,尤其像Hi Echo这样的虚拟口语教练,是否会导致一部分老师失业?
虚拟口语教练。来源:受访者
周枫认为,对英语教学团队来说会是一个巨大的好消息,虽然他们可能三个月之后才能认知到。因为教育最大的挑战就是因为人力不足,所以才导致无法真正做到对每一个学生因材施教,只是,未来老师们的教法必然要改变。
“以前老师的教法是告诉学生技巧,学生听老师说,回家自己练,老师设计一套方法要求你一定自己练,不练就惩罚你。现在老师有这样更好的产品,可能教学方法就要变,老师没有必要讲这些抽象的东西,就应该让学生每天去练就行了,老师们需要适应这样的技术,最后带来的一定是生产力和效益的大幅提升。”周枫表示。
还有人担心大模型驱动的教育应用是否会变成新的抄作业工具,让学生变得懒于思考。
周枫表示,有道在自己的产品中反复强调不直接给答案,且有家长管控功能。他觉得当下更值得考虑的另外一个问题是,大模型诞生之后对于学生长远的学习方式和目标,肯定会产生深远的影响,就像有了计算器之后,对学生计算能力的影响。大模型必然会对死记硬背的知识性学习的要求降低,不是把“偷懒”作为一种产品需求。
过去半年多时间,周枫带领团队一直在拼命赶工,大家都处于比较紧张的状态。在大模型到来之后,周枫真正欣慰的是,当它应用到教育领域后,相比上一轮AI热潮,大模型给了很多承诺,起码能实现50%,甚至更多。
比如作文其实一直是学习中的痛点,但原来能够解决作文类型的产品非常少,很多学生也比较怕写作文,以前的技术手段也不太管用。可在大模型基础上,作文也是一个非常好的应用场景。
教育从来都是一个极度复杂和碎片化的领域,深耕10多年,周枫已然习惯了这种复杂性。“生意上没有一劳永逸的事。”
新闻热线&投稿邮箱:[email protected]
。END 。
关注“中国企业家”视频号
[ 推荐阅读 ]
微信扫码关注该文公众号作者