Redian新闻
>
CHATGPT(包括最近的视频生成SORA)不可能走向真正的‘智能’。因为它的所有生成都是通过概率,而对世界本质没有理解
avatar

CHATGPT(包括最近的视频生成SORA)不可能走向真正的‘智能’。因为它的所有生成都是通过概率,而对世界本质没有理解

Nizhenda
楼主 (北美华人网)
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。

avatar
dpdpdp
2 楼
全职家妇不懂这个,我们只拥护民主党
avatar
一个用户
3 楼
你对世界本质有理解?
avatar
Nizhenda
4 楼
一个用户 发表于 2024-03-16 23:07
你对世界本质有理解?

可能本质定义的太严格。可以理解为人对物理世界里的因果关系,在对人类生活有用的尺度内,当然是有理解的,要不然我们早死了。
avatar
Silverwing
5 楼
其实依然就是大数据总结 机器替代体力拧螺丝 GPT替代脑力拧螺丝 仅此
avatar
gnapgnapad
6 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。
理解不正确的地方有望指正。


说的很好,这也是我理解的,大量训练可以触类旁通,但也是高屋建瓴,没有基础。除非程序员事先把所有可能情况都给设定好,才能得出正确结论。
avatar
痘痘猪
7 楼
别说他, 人类知道世界的本质是啥吗
avatar
superfan3
8 楼
按楼主的说法还是数据和算力不够呗。比如那个楼房不倒塌的例子,人脑能做出判断也是因为人脑被小概率事件训练过的。如果真出了个人类还不知道的外星高科技,一直维持楼房倒,人脑也做不出正确的判断。
avatar
HelloWorld321
9 楼
你说的边界情况也可以变成概率加入ai里。
avatar
Nizhenda
10 楼
痘痘猪 发表于 2024-03-16 23:22
别说他, 人类知道世界的本质是啥吗

你完全没有理解我在说什么。我说的本质不是“宇宙真理”,从科学角度,当然人类现在的认知和真理差的十万八千里,也可能没有绝对真理。但在人类的认知范围内,我们有一套常识,而我们和人,和物的互动, 是通过这套常识,并且被不断的扩充和改善。这个AI不同,AI没有理解,只有模仿,当然是高级高精度的模仿,在很多情况下可以以假乱真,但是你能很快看出他只不过是鹦鹉学舌而已。
avatar
A20170216
11 楼
世界的本质不是概率吗?
avatar
平明寻白羽
12 楼
Nizhenda 发表于 2024-03-16 23:09
可能本质定义的太严格。可以理解为人对物理世界里的因果关系,在对人类生活有用的尺度内,当然是有理解的,要不然我们早死了。

因果关系的逻辑模块是硬件ROM, genetic code在大脑里的。
属于最基础的脑功能,低级生物就具备了。不具备的就被淘汰了。
avatar
Nizhenda
13 楼
按楼主的说法还是数据和算力不够呗。比如那个楼房不倒塌的例子,人脑能做出判断也是因为人脑被小概率事件训练过的。如果真出了个人类还不知道的外星高科技,一直维持楼房倒,人脑也做不出正确的判断。
superfan3 发表于 2024-03-16 23:22

当然不是。我可能一辈子没见过一个充气玩具楼要倒。但我知道空气密度,重力,引力,等基本概念。不需要看见过就能判断。难道牛顿推出万有引力是他目睹了世界上所有东西掉下来,所有东西往前动被外力推了一下改变轨迹?
人们说中国古代没有产生科学是因为经验论, 没有系统提炼出底层原理,靠的是老师傅一辈子见多识广,而西方靠的是欧几里得,牛顿,伽利略从基本原理推导。
AI 就是中式的老师傅经验论,可以出成果,但上限很低。
avatar
crazyHat
14 楼
回复 13楼 Nizhenda 的帖子
这个叫做generalization…
民科真的就算了😐
avatar
HelloWorld321
15 楼
人的意识是怎么形成的?现在还没有人知道。人脑的本质就是千亿个神经元及其突触连接形成的巨大网络,网络中神经元通过树突接收发送信息。在训练ai的时候,研究员也不知道怎么ai就有了智力,无非就是给予大量的数据训练,这跟大脑运行方式很像。谁能知道当数据量和运算量达到一定的量级时,ai真正的意思会不会产生。我觉得会。
avatar
司芬克斯
16 楼
回复 1楼 Nizhenda 的帖子
您对什么是真正的智能可否下个定义?
据我所知,抛开宗教因素,人类是否有自由意志都难说。而人类对世界的理解,大部分都是不完全归纳,或者是基于不可证明的公理假设。
依我看,AI是否具有智力,就和判断某些软体动物(比如章鱼)是否有智力一样,完全取决于你怎么定义智力。
avatar
eragshs
17 楼
HelloWorld321 发表于 2024-03-16 23:35
人的意识是怎么形成的?现在还没有人知道。人脑的本质就是千亿个神经元及其突触连接形成的巨大网络,网络中神经元通过树突接收发送信息。在训练ai的时候,研究员也不知道怎么ai就有了智力,无非就是给予大量的数据训练,这跟大脑运行方式很像。谁能知道当数据量和运算量达到一定的量级时,ai真正的意思会不会产生。我觉得会。

人脑和AI的计算方式是不一样的啊
avatar
bnbn2020
18 楼
它不需要对世界本质理解,也已经能大范围改变现有的世界了。。。看了那个倒咖啡的机器人,10个小时从零学会操作咖啡机。。想想第一优先的军事引用,那是全球实力的重新洗牌啊。
avatar
superfan3
19 楼
Nizhenda 发表于 2024-03-16 23:29
当然不是。我可能一辈子没见过一个充气玩具楼要倒。但我知道空气密度,重力,引力,等基本概念。不需要看见过就能判断。难道牛顿推出万有引力是他目睹了世界上所有东西掉下来,所有东西往前动被外力推了一下改变轨迹?
人们说中国古代没有产生科学是因为经验论, 没有系统提炼出底层原理,靠的是老师傅一辈子见多识广,而西方靠的是欧几里得,牛顿,伽利略从基本原理推导。
AI 就是中式的老师傅经验论,可以出成果,但上限很低。

然而仅仅通过那些物理条件并不能做出100%的判断,因为你不知道充气玩具的具体状态。也许充气的气体密度比空气大很多,或者玩具材料的支撑强度不足,导致最后玩具大楼也会倒下。实际上你的大脑是被游乐场上的充气玩具训练了,所以得出了大楼不会倒的结论。 至于牛顿,正式因为他的观察不全面,所以他的很多公式在宇宙尺度和微观尺度并不成立。
avatar
Nizhenda
20 楼
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?
avatar
平明寻白羽
21 楼
eragshs 发表于 2024-03-16 23:43
人脑和AI的计算方式是不一样的啊

是一样的,现在的AI就是模拟人脑的神经网络工作模式建立的
只不过我们的神经网络是模拟信号系统,和底层硬件(神经元)绑定,mortal的
AI是数字信号,是immortal 的。 AI个体可以完美复制(数字系统, hardware independent)
avatar
athenana
22 楼
世界不就是概率吗??你怕是只学了经典力学
avatar
catakiri
23 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。
理解不正确的地方有望指正。


隔壁帖子明面讲的是AI,科技巨头的阴谋。实际上张口闭口trump,实则想影响版上华人的选票。实际讨论偏向于科幻片,不必当真。
avatar
HelloWorld321
24 楼
人脑和AI的计算方式是不一样的啊

eragshs 发表于 2024-03-16 23:43

有啥不一样的都是由神经元网络加上简单的电信号传输和接受外接信息。你如何解释人脑就是靠那一点点的电信号传输形成了意思,无非就是脑神经元多呗,换成ai,不就是的运算能力吗和数据么。
avatar
公用马甲27
25 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。
理解不正确的地方有望指正。


人也根本不需要"对物理世界底层原理的理解,知道力学,引力,这些基本概念",才能推测出“大楼倾斜有倒塌风险”。一个没上过一天学的文盲看见一个摩天大楼慢慢在倾斜,都会预测,这楼要倒了!
avatar
WernerCA
26 楼
实际上,目前这个AI的发展方向是和美国以及西方的传统思维方式非常一致的。比如现在业界颇为诟病的MBA 文化。当初之所以有MBA文化,是因为传统企业是小作坊方式发展起来的,公司领导层都是从生产第一线慢慢成长起来。虽然他们对生产工艺和客户需求有着深厚的理解,但是在财务、品控、物流和企业规划方面基本没有任何概念。所以当时提出MBA这个概念是为了给这些已经有了第一手生产经验的人提高他们在那些领域的技能,使得他们能够更好地规划和领导整个企业。所以对于申请读MBA的人有着一定的要求,比如要从业多少年,而且有管理领域的经历等等。可是后来就完全变成了表面的东西,连本科毕业生都可以直接去读,然后这些人就只是在财务和投资领域进行各种培训,根本就没有管理的才能,因为管理这个才能不是只靠读书能读出来的。你要真的在第一线和你的团队去打拼才能积累到的。而且你要具有这个领域的基本常识。可惜的是,近年来的大多数MBA都是Bean Counter. 只会整钱。因为控制了资本,就控制了企业的生命线。所以,MBA看似啥都懂,实际上都是照本宣科,和现在的AI差不多。因为他们都是拿教科书上的条条框框去”套“实际领域的问题。并不知道为什们会产生这个问题。而真正的”行家“,那些从第一线打拼上来的管理人员,他们是从本能的反应里就能知道问题所在。而不是头痛医头,脚痛医脚。但是要培养一个从一线经理到CFO或者CEO,那可是耗时耗财的事情。但是搞一个MBA空降来,你只要给够钱就行了,就像在Vegas找小姐一样,只要你给够钱,啥样儿的找不到?但是等找来了,对不起,就由不得你了。齐吃咔嚓给你一顿整,然后财务报表好看了,过不了两年一个好好的企业就霍霍完了。 然后现在连培养MBA都嫌慢,将来有了AI,直接就用它了。也不用付那么高的大包裹给那些MBA了。直接AI开整。反正就是那些案例吗,AI都知道,套就是了。
avatar
eragshs
27 楼
平明寻白羽 发表于 2024-03-16 23:46
是一样的,现在的AI就是模拟人脑的神经网络工作模式建立的
只不过我们的神经网络是模拟信号系统,和底层硬件(神经元)绑定,mortal的
AI是数字信号,是immortal 的。 AI个体可以完美复制(数字系统, hardware independent)

那说明神经元还不够底层
avatar
eragshs
28 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

现在很多人在炒vectordb的冷饭啊,不知道similarity search能不能做出模糊识别
Again,现在的计算机很可能永远没办法模拟人脑
量子计算机可以
avatar
Nizhenda
29 楼
世界不就是概率吗??你怕是只学了经典力学
athenana 发表于 2024-03-16 23:47

通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
avatar
简单
30 楼
AI总有一天会自我复制,干掉人类。
avatar
EightDishes
31 楼
楼主的对AI和人类思维的区别理解是对的,人类目前对思维产生的本质一无所知,AI是用大量的电力和训练数据去计算结果的概率,和人类的思维方式完全不一样。隔壁贴子说什么AI有自主意识,纯属是科幻片看多了。 在人类破解自身思维意识的机制之前,AI不可能产生意识。
avatar
ganymede
32 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

仅就这个例子来说,吊打AI不奇怪。两岁半的儿童,看猫十次,但可不是看了十次照片,而是三维的实物且是不同角度的,还有时间长度的。剩下的时间都没看猫,我觉得这训练远超过万亿张照片了。
再一个,人眼比照相机还是牛太多了。
avatar
whyforget
33 楼
回复 1楼 Nizhenda 的帖子
确实,AI的底层逻辑或者理论基础未知太多,现在还大都是black box
avatar
Nizhenda
34 楼
仅就这个例子来说,吊打AI不奇怪。两岁半的儿童,看猫十次,但可不是看了十次照片,而是三维的实物且是不同角度的,还有时间长度的。剩下的时间都没看猫,我觉得这训练远超过万亿张照片了。
再一个,人眼比照相机还是牛太多了。
ganymede 发表于 2024-03-17 00:17

还有,我一个人一天需要消耗多少焦耳的能量?AI需要多少?AI能不能一个两节AA电池就能干CHATGPT的活?
avatar
eragshs
35 楼
ganymede 发表于 2024-03-17 00:17
仅就这个例子来说,吊打AI不奇怪。两岁半的儿童,看猫十次,但可不是看了十次照片,而是三维的实物且是不同角度的,还有时间长度的。剩下的时间都没看猫,我觉得这训练远超过万亿张照片了。
再一个,人眼比照相机还是牛太多了。

这个例子和三维二维没有关系
avatar
eragshs
36 楼
Nizhenda 发表于 2024-03-17 00:21
还有,我一个人一天需要消耗多少焦耳的能量?AI需要多少?AI能不能一个两节AA电池就能干CHATGPT的活?

大脑的话大概每天吃一个馒头就够了
avatar
whyforget
37 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

哈哈,很欣赏楼主的思辨
avatar
nihainihai
38 楼
还是training model/data不到位。人类认识世界的本质也就是看很多现象总结归纳,为啥机器不能?它不能是因为你没把这些数据都提供给它。
avatar
saynomore
39 楼
AI比楼主open minded很多。
avatar
Leavesday
40 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。


楼主,几点想法,希望能拓展你的思维: 1. 现在大家都在谈论的AI 是用大量数据训练出来的巨大的神经网络,参数动辄上亿,这个级别的神经网络作出的预测,现在还无法解释输入和输出之间的因果关系,因为过于复杂。对于一个给定的输入,即使做出模型的人也无法直接说出模型的输出是什么,也得运行一遍这个模型才知道输出。这也是现在研究领域大家都很关注的一个问题,因为这个不确定性会引起很多安全性和道德方面的问题。反过来,也不能简单地说这样的模型不理解物理规律。巨大且复杂的神经网络里面,也有可能隐藏了物理规律。所以你的结论过于草率。 2 现在已经有很多人试着把物理规律驱动的模型和数据驱动的模型结合在一起,这样的模型有可能会集成两者的优点,自然也会使用物理规律做出预测。所以,你提到的AI的缺点,很快就会被克服。
avatar
Leavesday
41 楼
EightDishes 发表于 2024-03-17 00:13
楼主的对AI和人类思维的区别理解是对的,人类目前对思维产生的本质一无所知,AI是用大量的电力和训练数据去计算结果的概率,和人类的思维方式完全不一样。隔壁贴子说什么AI有自主意识,纯属是科幻片看多了。 在人类破解自身思维意识的机制之前,AI不可能产生意识。

让AI产生意识其实非常容易。
avatar
Ethangirl
42 楼
楼主多看看neuroscience 的书吧。看多了就明白人七情六欲的形成机理和AI大数据模型是一模一样的。所以别那么自以为是以为你人类有多了不起不能被AI取代
avatar
Melaniejj9991
43 楼
建议楼主去学习一下AI先
avatar
CloudY7764
44 楼
这怎么像是在写三体?
avatar
hankzhang
45 楼
我也觉得这样
avatar
minren
46 楼
楼主所说前半段属实。后半不能完全同意。chatGPT 即使是已触及天花板,也很了不起,因为AI已经能够取代掉人类比以往自动化时代更多的大量工作,有些是初级工作,有些是全部工作,最早的例子是职业棋手,如果愿意被取代的话。各行各业也都会取代初级工作:https://huaren.us/showtopic.html?topicid=3001027&fid=398,其取代难度不大。 总之,AI发展至今并非方法错误,其作用和影响已是划时代的。何况,1. 就连chatGPT极其衍生产功能也反映了它优于普通人脑的某些方面。2.世上越复杂的问题和情况都由概率决定,概率这条路有它自身意义,AI发展不非要与人脑行为方式一致。3. 在大量研究投入到AI领域之后,很可能会带来理论和算法的不断新突破。AI业界都认识到这一点,因此都预计AGI时代(通用AI 时代) 会在不远的将来到来。
avatar
feifeiduan
47 楼
楼主说的很对,现在一是有很多人云亦云的跟着说,二是有另一些人别有用心的说
avatar
shanggj
48 楼
whyforget 发表于 2024-03-17 00:26
哈哈,很欣赏楼主的思辨

这觉得 浓浓的 民科味
avatar
wlf
49 楼
重要吗? 重要的是它可以代替80%的人的工作
avatar
婚纱旗袍晚礼服
50 楼
wlf 发表于 2024-03-17 07:13
重要吗? 重要的是它可以代替80%的人的工作

同意 明早醒来公司又又又裁员了
avatar
min68
51 楼
还有,我一个人一天需要消耗多少焦耳的能量?AI需要多少?AI能不能一个两节AA电池就能干CHATGPT的活?
Nizhenda 发表于 2024-03-17 00:21

这个只是时间问题。 你现在的手机比几十年前的超算还快,能量消耗可能只是它的万分之一
avatar
liliAnn
52 楼
回复 1楼 Nizhenda 的帖子
你说的这种判断,AI是可以完成的。所有你所知道的所谓基本原理,概念,都可以加入到算法里。人类的思维,完全可以被AI吊打。就是你能够用大脑做的思考判断分析,AI都可以做到,现在没做到的,很快就能做到了,而且会做得更好,更快,更全面。
AI无法做到的,是人类的直觉。直觉有时候是反常识的,是和主流判断相反的,但是对的,好的。还有就是灵感,是昙花一现的,不是从思考中得来的,神来之笔,AI无法做到。所有人类通过学习得来的能力,AI早晚都能得到,而且能力更高。
这是我的两分钱。
avatar
drowned123
53 楼
黄仁勋说了,看你怎么定义人工智能。如果是说通过这种或者那种测试,比如MCAT,比如考BAR,5年之内AI就都能做了,以后还会做的更好,这就意味着AI确实在很多方面能替代人,也就是相当或超过一般意义上人的智能。
你说的认识世界本质,那是超智能。
avatar
Moscow79
54 楼
回复 20楼 Nizhenda 的帖子
那是因为小孩的脑神经经过了几亿年的进化,已经在一个很好的初值上了,不需要那么大的训练集。如果人刚生出来时候的大脑神经网络也是随机数胡乱连的,只怕还不如AI,让他看多少猫的图片也是白痴一个
avatar
EightDishes
55 楼
平明寻白羽 发表于 2024-03-16 23:46
是一样的,现在的AI就是模拟人脑的神经网络工作模式建立的
只不过我们的神经网络是模拟信号系统,和底层硬件(神经元)绑定,mortal的
AI是数字信号,是immortal 的。 AI个体可以完美复制(数字系统, hardware independent)

ANN (Artificial Neural Network) 也就是受人脑结构启发起了这么个听起来很牛的名字,实际过程和人脑工作方式相差十万八千里。人脑到底怎么工作的,目前地球上没有人能清楚的解释,更别说去模拟人脑了。 真正有人脑那样的意识的AI,依赖于认知科学的重大理论突破,而不是计算机科学。
avatar
nicolesean
56 楼
………………
avatar
meraviglia
57 楼
就想问问自动驾驶还要多久实现?
这就像现在的AI,有上限,而且很难突破,达到AGI。
avatar
EightDishes
58 楼
liliAnn 发表于 2024-03-17 08:21
回复 1楼 Nizhenda 的帖子
你说的这种判断,AI是可以完成的。所有你所知道的所谓基本原理,概念,都可以加入到算法里。人类的思维,完全可以被AI吊打。就是你能够用大脑做的思考判断分析,AI都可以做到,现在没做到的,很快就能做到了,而且会做得更好,更快,更全面。
AI无法做到的,是人类的直觉。直觉有时候是反常识的,是和主流判断相反的,但是对的,好的。还有就是灵感,是昙花一现的,不是从思考中得来的,神来之笔,AI无法做到。所有人类通过学习得来的能力,AI早晚都能得到,而且能力更高。
这是我的两分钱。

目前的AI只能在人类已有的知识理论框架下,以更快的速度解决人类也可以解决的问题。 AI放到日心说之前,它不会提出地球绕太阳转的想法 AI放到牛顿之前,它不能解释为啥苹果会掉下来 AI放到爱因斯坦之前,它也看不到“完美”解释了物理世界几百年的牛顿力学的局限性
avatar
半个马和甲
59 楼
对也不对。 AI没有所谓真正的逻辑学习。 (它只能在它有的数据库里,组合数据排列) 所以前段时间才闹出那个一个人的儿子车祸去医院后,医生说我不能手术这个孩子。因为他是我的儿子这个谜题的变性版完全错误的答案(因为它其实不会举一反三,通过现有逻辑用逻辑生成答案。可它牛逼的是,错一次,被喂了正确数据,它就”懂”了。你在问,他就看似会举一反三,不在错了).
所以你的neutral Network 最后有多强,还是要看给它学习什么是对的,相关的的东西越是精确,那它的回答就会越来越好。 (感觉LLM 就是bunch of math , 然后越来越接近你要的0 , 就是它可以展现许多排列组合,然后根据程序知道那些组合是没有意义的,哪些组合是有意义, 选出最可能和问题有关联的组合给你- 这也是为什么初期GPT会闹许多笑话。现在也还在闹笑话但少许多的原因吧).
有了这些基础(知道什么组合对于提问者书有意义,有关联的,算力够,它真的就是可以做许多许多的事情代替人类。 这个没法辩)
avatar
半个马和甲
60 楼
可是它应该无法推进人类未知的知识领域。
比如-1的根号有没有意义? 是什么意思? 这种跨时代的数学定义. 它做不到的。因为在怎么排列组合,它没有办法排列完全不存在的东西。但是在知道-1根号是i的情况下。它通过强大算力,是应该也可以得出e to the I pie 等于-1. . 并且得出泰勒展开。但是在没有人告诉它这个公式用处非常非常的多,极具意义,它不会把这个组合告诉人类。(除非有程序让它知道这个组合是有意义的).
以上为画外人员认知。不知道版上大神们怎么看
avatar
adorp
61 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。


Yes, you get it!
avatar
东君说
62 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

两岁半的小孩可能看猫不超过十次,但每次给他所接受的都是每秒不知道多少帧,每帧不知道多少分辨率的猫的三维立体数据。
人工智能从这一角度算力还有局限性
avatar
hr717
63 楼
big data 之后发现机器缺乏的general intelligence,可以用演算能力来弥补,现阶段的AI就是machine learning,而人脑植入芯片其实就是提高人类的演算能力。
avatar
adorp
64 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

You draw the conclusion after the careful observation and pondering, it's logically consistent.
The comments from others are more like very superficially generated nonsense by some foolish AI.
那些没理工尤其是纯数学和计算数学背景的,请别骚扰楼主了, OK?
avatar
adorp
65 楼
人也根本不需要"对物理世界底层原理的理解,知道力学,引力,这些基本概念",才能推测出“大楼倾斜有倒塌风险”。一个没上过一天学的文盲看见一个摩天大楼慢慢在倾斜,都会预测,这楼要倒了!
公用马甲27 发表于 2024-03-16 23:50

这不就证明了人类是有真正的智能吗?
而那些依靠统计概率论和统计数学才真的是hardcoded programming, 依然是某些人根据时代的局限依靠当时现有的知识设计出来的 an application with countless bugs in modeling per se!
注意我的各种用词: 人, 人类,某些人

avatar
adorp
66 楼
Nizhenda 发表于 2024-03-17 00:01
通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。

You get it!
avatar
adorp
67 楼
这个只是时间问题。 你现在的手机比几十年前的超算还快,能量消耗可能只是它的万分之一
min68 发表于 2024-03-17 07:50

你的例子就和这个AI(Artificial Intelligence)一样只是量变,根本和质变不搭介.
Artificial: 来自于古拉丁语 artificiālis, 意思是 技能和手工制造. 现在的意思是:人造的,假的
所以永远是假的智能 !非常机械的、呆板的、无智能的耗能极大的编程的死计算。这个程序和建模就是如来佛的掌心和它的局限。
avatar
texaslife
68 楼
Ethangirl 发表于 2024-03-17 01:18
楼主多看看neuroscience 的书吧。看多了就明白人七情六欲的形成机理和AI大数据模型是一模一样的。所以别那么自以为是以为你人类有多了不起不能被AI取代

有推荐的吗
avatar
lianqiao
69 楼
你完全没有理解我在说什么。我说的本质不是“宇宙真理”,从科学角度,当然人类现在的认知和真理差的十万八千里,也可能没有绝对真理。但在人类的认知范围内,我们有一套常识,而我们和人,和物的互动, 是通过这套常识,并且被不断的扩充和改善。这个AI不同,AI没有理解,只有模仿,当然是高级高精度的模仿,在很多情况下可以以假乱真,但是你能很快看出他只不过是鹦鹉学舌而已。
Nizhenda 发表于 2024-03-16 23:26

AI完全可以有你说的这些常识。我们把它输入就行了。比如我们做药物代谢的模型,就有好几种,一种是完全基于“常识”的,一种是完全基于数据的,一种是给它一些常识加一些数据。
基于“常识”的这种,会需要提供很多很多的参数,但是很多参数都无法测量,只能估计,其实大多数情况都不实用。完全基于数据的反而是最常用的,也就是你说的大数据training出来的AI。但是有时也不好用,那就用常识加数据这种模型,我们通常称为改进后的AI模型
avatar
adorp
70 楼
AI不可能成为真正智能的数学理论基础: 哥德尔(Kurt Gödel)不完备性定理
1931年数学家库尔特·哥德尔(Kurt Gödel)在一篇论文《Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme》中正式发表了不完备性定理。
1951年,哥德尔获得爱因斯坦勋章,冯 · 诺依曼评价说:「在现代逻辑中的成就是非凡的、不朽的 -- 他的不朽甚至超过了纪念碑,他是一个里程碑,是永存的纪念碑。」
avatar
EightDishes
71 楼
adorp 发表于 2024-03-17 11:35
You draw the conclusion after the careful observation and pondering, it's logically consistent.
The comments from others are more like very superficially generated nonsense by some foolish AI.
那些没理工尤其是纯数学和计算数学背景的,请别骚扰楼主了, OK?

没错,这楼里几个对楼主冷嘲热讽的人其实自己是半桶水。当然楼主有些讨论偏题了不在重点上。 那些说AI有意识的人,麻烦去问下chatgpt,人类意识的产生和本质是什么。
avatar
Felixa
72 楼
人的意志怎么产生的本身都还没研究出来,也就是说是未知的;那么何以断定AI就无法产生意识呢?现在讨论这个无异于几千年前在讨论天上下雨究竟是神仙哭了还是妖精生气了,因为那时候连下雨的原理都不知道
avatar
meftw
73 楼
同意楼主的说法,我也这么认为,尤其是识别猫的脑子。虽然这个世界由概率主宰,不代表人脑也是完全用概率思考的。
avatar
wonaiwangerxiao
74 楼
superfan3 发表于 2024-03-16 23:22
按楼主的说法还是数据和算力不够呗。比如那个楼房不倒塌的例子,人脑能做出判断也是因为人脑被小概率事件训练过的。如果真出了个人类还不知道的外星高科技,一直维持楼房倒,人脑也做不出正确的判断。

支持这个说法
avatar
aiyamayayongle
75 楼
我觉得人工智能面临的最大挑战是人类思维的不理性部分,以及冲动部分。
avatar
flyingforce
76 楼
Nizhenda 发表于 2024-03-16 23:29
当然不是。我可能一辈子没见过一个充气玩具楼要倒。但我知道空气密度,重力,引力,等基本概念。不需要看见过就能判断。难道牛顿推出万有引力是他目睹了世界上所有东西掉下来,所有东西往前动被外力推了一下改变轨迹?
人们说中国古代没有产生科学是因为经验论, 没有系统提炼出底层原理,靠的是老师傅一辈子见多识广,而西方靠的是欧几里得,牛顿,伽利略从基本原理推导。
AI 就是中式的老师傅经验论,可以出成果,但上限很低。

楼主再想想,实际上你所说的反而能证明AI是可以有用的。
比如说中式老师傅的经验,如果重复次数足够多,并且整理归纳下来,那么就是原理了;而AI的能力就是基于大量数据集来整理经验,一个老师傅一件原理也许一辈子不会见到超过1000次,他不能基于这1000次的结果概括原理,但是他如果见到了10万次,概括出原理的可能性就大很多;很多先贤的能力是也许就见到一次就能概括出原理,牛顿就被苹果砸了一次就能分析出重力,但是显然被苹果砸了很多次的人并不少,但是假设有人有一点物理学知识,然后被苹果砸了无数次,那么分析出重力存在的可能性就大很多,当被砸的次数多了以后,理解重力存在的可能性就趋近于1了,而AI靠数据就可以被砸无数次。
avatar
Tapeface
77 楼
人眼学习识别猫的数据量:576Mpixel x 24 frames per second x 60 seconds (假定人类需要 1 分钟 学习一个从来未见过的物体)
avatar
EightDishes
78 楼
Felixa 发表于 2024-03-17 13:11
人的意志怎么产生的本身都还没研究出来,也就是说是未知的;那么何以断定AI就无法产生意识呢?现在讨论这个无异于几千年前在讨论天上下雨究竟是神仙哭了还是妖精生气了,因为那时候连下雨的原理都不知道

古人没有飞机,现代人有了,这个过程是因为有空气动力学提供了理论基础,如果把空气动力学从人类知识体系拿出去,飞机仍然只是现代人的幻想。 人类能不能让AI产生意识?在目前的人类知识理论体系下,绝无可能。注意我说的是目前的知识体系下,将来如果认知科学有重大理论突破,能发展出类似麦克斯韦方程组、相对论这种级别的划时代理论,或许可以,但是目前讨论AI能不能产生意识这种无法证伪也无法证实的问题,纯属浪费时间。
avatar
magnoliaceae
79 楼
EightDishes 发表于 2024-03-17 09:39
ANN (Artificial Neural Network) 也就是受人脑结构启发起了这么个听起来很牛的名字,实际过程和人脑工作方式相差十万八千里。人脑到底怎么工作的,目前地球上没有人能清楚的解释,更别说去模拟人脑了。 真正有人脑那样的意识的AI,依赖于认知科学的重大理论突破,而不是计算机科学。


同意,楼主说得没错
现在的AI本质上和Word没有区别,几百万字的文档,你用纸笔来写,想要替换其中一个词的某个字,把所有的都替换,要花多少时间,用word,半分钟的事情,几百万字的文档,你自己去读了写个总结,要花多少时间,用AI一分钟,AI就是一个更强大的tool,但它终究还是个tool,不是主体
avatar
Ethangirl
80 楼
texaslife 发表于 2024-03-17 11:55
有推荐的吗

“How emotions are made: the secret life of the brain” https://www.amazon.com/How-Emotions-Are-Made-Secret-ebook/dp/B00QPHURT6
avatar
foreverf
81 楼
Ethangirl 发表于 2024-03-17 01:18
楼主多看看neuroscience 的书吧。看多了就明白人七情六欲的形成机理和AI大数据模型是一模一样的。所以别那么自以为是以为你人类有多了不起不能被AI取代

re 人从小到大的学习过程,和ai差不多, ai比人更理性,没有本能
avatar
happymc
82 楼
人脑就是个大型神经网络
avatar
seanxyz2
83 楼
你完全没有理解我在说什么。我说的本质不是“宇宙真理”,从科学角度,当然人类现在的认知和真理差的十万八千里,也可能没有绝对真理。但在人类的认知范围内,我们有一套常识,而我们和人,和物的互动, 是通过这套常识,并且被不断的扩充和改善。这个AI不同,AI没有理解,只有模仿,当然是高级高精度的模仿,在很多情况下可以以假乱真,但是你能很快看出他只不过是鹦鹉学舌而已。
Nizhenda 发表于 2024-03-16 23:26

说到世界的本质, 因为人类的局限,我们可能永远都无法确定,这个世界到底是不是物理存在的,还是有可能就是虚拟数据 人眼看到的世界,也是局限于大脑对光的反射,和眼球和大脑的构造,鸡和昆虫的眼睛看到的颜色和世界就和人看到的不同,到底那个是真实的. be open minded
avatar
aflier
84 楼
Nizhenda 发表于 2024-03-16 23:05
比如,你看到一个摩天大楼慢慢在倾斜,你会预测,这楼要倒了!而AI很可能也预测到同样结果。但是思维过程两者是不同的: 你是根据你对物理世界底层原理的理解,知道力学,引力,这些基本概念,然后推测出“大楼倾斜有倒塌风险”。而AI是通过看过大量大楼倒塌的视频,根据概率,预测出接下来要倒。可能在90%的情况下,你和AI的预测是吻合的,但是在一些特殊情况,一些边界和临近条件下,可能这个楼不会倒。比如大楼其实是个充气玩具楼。或者其实是下面有一根很细很细的钢丝拉着,在慢慢受控制的倒下,等等。你看到了,稍做分析,就能得出“哦,这个情况是不会倒的”,不是因为你见过很多类似的情况,而是你理解物理世界本质。但是AI就有可能这类边界情况不在他的训练数据里,就判断错误。其实这些所谓‘边界’情况,对人来说,一点也不‘边界’,也没有什么‘特殊性’,任何稍微有点‘常识’的人都能看出来,不会由于他以前从来没见过而无法判断。但在统计意义上来说是小概率事件,所以一旦AI没见过类似的,就不行了。
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。


大部分人都不能通过这些观察,自己抽象出引力,相互作用力等吧,大部分人的这个知识都是通过看书上课等得到的,也就是训练得到的,你这个例子最多证明AI不够聪明,只能到达普通人群水平
avatar
aflier
85 楼
Nizhenda 发表于 2024-03-16 23:45
我再举个例子。AI要识别一个照片是不是猫,要人工喂它几千万,上亿张猫和不是猫的图片,人工的来label是还是不是,他才能正确识别。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?

不需要几千万张,几十张就够了
相关阅读
全日程发布,Sora 之后的视频生成技术与应用| Q推荐阿尔特曼称GPT-5提升超想象;库克在中国首谈生成式AI;字节推出视频生成新模型丨AIGC大事日报随记(三十)———- 看脱口秀OpenAI CEO最新演讲:GPT-5性能远超GPT-4;媲美Sora,视频生成模型EMO上线通义APP丨AIGC日报复刻Sora的通用视频生成能力,开源多智能体框架Mora来了ChatGPT 偷懒行为是不是意味着他已经有自主意识了最美圆号三重奏—山风在勃拉姆斯身边吹过去年OpenAI announced ChatGPT, 投坦在讨论T《欢乐颂》不知生活中是不是真有何悯鸿这样又蠢又鸡贼的女生,她荣登我24年观剧最讨厌人物榜首 第2名徐帆《烟火人家》演的妈《春花秋月》&《一荤一素》中年人,你啥时候让梦想失去了斑斓?AI早知道|ChatGPT灰度测试多GPTs协同;新Bard逆袭GPT-4;百川智能发布Baichuan3把 formal dinning, 或者第二个 living room 变成 bedroom需要申请 permit 吗?昨天去朋友新开的饭店吃饭。这朋友已经有三家比较大的餐馆,两家卡啦OK,生意都不错。还在不断地开新的餐厅。这算创业吗?有的求教:chatgpt16、长篇家庭伦理小说《嫁接》第四章 求子心切(1)效果炸裂!OpenAI 发布首个视频生成模型,这就是 AI 视频的 GPT 时刻元旦惊魂撞车记【求职战报】全球金融交易平台Deutsche Börse Systems销售运营面试邀约!全日程发布|Sora之后的视频生成技术与应用疫情后北京的变化年轻人想租房,带German shepherd 和 border collie,说是emotional support。2024年,没有视频号名片,就没有生意!问题:毛对刘说,我小指头就能打倒你;和地方官对普通人说,我踩死你就像踩死一个蚂蚁。而且都能做到。心理和做法,有什么异同?7025 血壮山河之枣宜会战 “扑朔迷离”的南瓜店 2TIAA 管理费Learn English with President Obama and Mark Zuckerberg at Facebo10天前落枕,热敷两天后似乎消失。没想到后来背上的酸疼又出现,一周了,热敷没有好转,慢慢变到肩胛附近。难道是五十肩来了?【晨光粉黛】和冠军侯兄的【梅花旭日】鸿发超市「2000 万美元」买下82街前Walmart超市!开设第4家Hông Phát分店!赚钱首先应该用Roth IRA, 401K炒股,长持吧?但是我的fidelity不区分Roth和pre中国人受儒家毒害太深了,一发生什么事第一就是反省自己、指责同胞,看看印度人台湾人韩国人,做了贼干了坏事还理直气壮支持同胞
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。