CHATGPT(包括最近的视频生成SORA)不可能走向真正的‘智能’。因为它的所有生成都是通过概率,而对世界本质没有理解
Nizhenda
楼主 (北美华人网)
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。