avatar
AI的终极优化目标# Programming - 葵花宝典
p*e
1
我看老美家里都有好几套餐具,按季节,节日变换。
感觉很纳闷,往哪里放那么多套餐具呀。
avatar
w*g
2
讨论了半天AI的可行性,接下来就是怎么操作了。
所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
我们做这个AI,必须师出有名,也就是有一个
优化目标,而且这个优化目标必须符合宇宙运行
的原理。在这个目标的指导下我们具体操作起来
才能事倍功半。这里先给个摘要。
我多年思考的结论就是,最适合作为一个generic
strong AI的优化目标就是:max(I), I=信息。
这个目标基于下面三个原理:
1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
例1. 狼vs羊。羊吃草,熵增慢,狼吃羊,熵增快,
狼比羊更高级。
例2. 中国vs美国。随便查了个耗电量。
https://en.wikipedia.org/wiki/List_of_countries_by_electricity_consumption
从总体耗电量看,中国比美国更高级。
从per capita看,美国比中国更高级。
所以我们设计一个AI,熵增未必是直接目标,但是
一个好的目标在优化过程中必然导致很快很大的熵增。
2. Passive AI 等价于信息压缩
或者说是降低信息存储的成本。这个可以参考我之前的文章。
http://www.wdong.org/ji-qi-xue-xi-nei-gong-zong-gang.html
以及这个
https://en.wikipedia.org/wiki/Hutter_Prize
可以说,压缩做到了极致,就是AI。
比如对一堆质点进行机械运动的数据进行压缩,压缩到极致就是
牛顿定律+初始状态,intelligence就出来了。
这里说的是passive AI。至于active AI,也就是装备了AI的
agent,那还要考虑信息获取的成本和策略等等。这方面目前还没有研究。
前面有人讨论人的happiness。其实抛开生殖相关的那套东西,
人的很多happiness也是来源于信息的获取。比如人脑乍看到一个新鲜
东西会很干兴趣,因为信息增加了。同一个东西看多了会变得boring,
是因为没有新增的信息了。有时候看到一个笑话,两个不相关的东西
因为某种出乎意料的原因联系起来了,这种意外的神经连接很可能导致
大脑存储成本的急剧降低,刺激是如此强烈以至于人会笑出声来。
这一套reward系统我觉得对active AI同样适用。
3. 信息=负熵
极大的信息获取必然导致AI系统外部极大的熵增。这一点目前小规模的
passive AI系统体现不出来。但是这个保证了AI发展到一定程度后
可以“顺天者昌”。
目前用GPU训练的神经网络,我觉得其实真的是非常小儿科。
按照我的预测,下一步的AI很可能需要涉及大规模存储。
在算法上,这个需要人们开发出一个可以拼接的神经网络。
目前的多层神经网络是没法拼接的,中间任意一层结构改了,
整个网络,至少后续部分都得重新训练。这就决定了一个神经网络
的capacity不可能太大。一旦拼接的问题解决了,再配以早就
已经研究成熟的大规模信息索引技术,AI的能力将获得极大的扩展。
神经网络的fragment也就是知识点,将被以graph的形式存储在
磁盘/内存里并且以social network的方式被索引。
我预期创造性AI(写文章)很可能依赖这种拼接技术。
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
再具体一些。
我统计过,目前的CNN的神经元状态其实是非常稀疏的,其中绝大
部分都是0。换句话说,GPU进行的大量运算都是在做无用功。
实际有用的计算量,GPU其实比CPU高不了太多。未来几年内,
GPU vs CPU+大内存 势必还有一战。最后很可能是Intel在CPU内
引入某种GPU的计算能力后,以大内存优势胜出。而且一般来说,
计算速度上的劣势可以通过大内存来弥补,只是算法要具体研究。
Update:
dracodoc在这里提到了block chain
http://mitbbs.com/article1/Programming/31505627_3_0.html
我觉得block chain对大规模社会化计算的组织能力是无可匹敌的,
但是目前的block chain缺乏一个意义,就是为算而算。如果以合
适的方法把max(I)和block chain结合起来,并且把storage和算
法纳入计价系统,那很有可能会演化出天网。
avatar
F*t
3
有钱人就放成套的
我普通人,一年四季用一样的
老外感觉就喜欢这些表面功夫
avatar
g*t
4
(1)
无损压缩和有损压缩是本质不同的啊。
你看过 Kolmogorov complexity 吧?
我觉得物理本质上是聪明的有损压缩。
例如你说的牛顿定律是压缩质点运动的轨迹。
严格的说,应该是牛顿定律近似的压缩了
实际物体运动的轨迹。
(2)
你说的那个拼接问题。方向最后应该是universal neural machine?
就是神经网络在一个特殊的神经网络上获得表达。然后才能composable

【在 w***g 的大作中提到】
: 讨论了半天AI的可行性,接下来就是怎么操作了。
: 所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
: 我们做这个AI,必须师出有名,也就是有一个
: 优化目标,而且这个优化目标必须符合宇宙运行
: 的原理。在这个目标的指导下我们具体操作起来
: 才能事倍功半。这里先给个摘要。
: 我多年思考的结论就是,最适合作为一个generic
: strong AI的优化目标就是:max(I), I=信息。
: 这个目标基于下面三个原理:
: 1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。

avatar
F*t
5
所以全美各地到处都是storage
avatar
C*5
6
虽然没看太懂,跪舔了再说
avatar
p*e
7
哈哈,也是,也是。
他们只知道换餐具,不知道换食物。
啥时候去吃饭都是那几样:P

【在 F*******t 的大作中提到】
: 有钱人就放成套的
: 我普通人,一年四季用一样的
: 老外感觉就喜欢这些表面功夫

avatar
d*r
8
"""
我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
的根本性改变。
"""
那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
node 之间的 networking 做得更高速更可编程?
avatar
p*e
9
我还以为那些storage是给临时搬家的人用的呢,原来还有很多人租了做仓库lol

【在 F*******t 的大作中提到】
: 所以全美各地到处都是storage
avatar
w*g
10
对。我觉得linux cluster的计算和存储能力更强。
单个node的算力可以用GPU增强。但是如果算法变了,
GPU的SIMD架构可能拼不过CPU。一般来说,计算速度上
的劣势可以通过大内存来弥补,只是算法要具体研究。
算法铁三角:时间,空间,准确度三者不可得兼。
很多算法都在研究怎么用其中两者去换第三者。

【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?

avatar
F*t
11
是呀
家里堆不下又不舍得扔的就放哪里啦
香妃今天怎么有空啦

【在 p*****e 的大作中提到】
: 我还以为那些storage是给临时搬家的人用的呢,原来还有很多人租了做仓库lol
avatar
d*r
12
那长期修炼做分布式系统的能力, 一直有搞头

【在 w***g 的大作中提到】
: 对。我觉得linux cluster的计算和存储能力更强。
: 单个node的算力可以用GPU增强。但是如果算法变了,
: GPU的SIMD架构可能拼不过CPU。一般来说,计算速度上
: 的劣势可以通过大内存来弥补,只是算法要具体研究。
: 算法铁三角:时间,空间,准确度三者不可得兼。
: 很多算法都在研究怎么用其中两者去换第三者。

avatar
l*s
13
要看个人爱好了
床单也一样,根据心情用什么色彩的床单
avatar
g*t
14
现在需求还只是在界面,还早

【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?

avatar
p*e
15
汗~
我是香妃的话,乾隆何在?

【在 F*******t 的大作中提到】
: 是呀
: 家里堆不下又不舍得扔的就放哪里啦
: 香妃今天怎么有空啦

avatar
w*g
16
不是的。是有人想做,但是做不出来/还没做出来。
这东西做出来是能直接预测大盘的啊,经济利益在那里呢。

【在 g****t 的大作中提到】
: 现在需求还只是在界面,还早
avatar
p*e
17
床单不一样,总要换洗,起码得有3套吧。
我家里2套餐具,都没地方放,平时也就用一套。
也没有专为节日备的餐具。

【在 l**s 的大作中提到】
: 要看个人爱好了
: 床单也一样,根据心情用什么色彩的床单

avatar
l*m
18
看来你没写过gemm, conv kenels,main memory太慢了。dl主要拼memory in chip.

【在 d*******r 的大作中提到】
: """
: 我在股版吹过,NVDA的硬件很可能会被取代也是基于这种思考。
: 干掉NVDA的,我觉得不太可能是Google的TPU。而是神经网络
: 从稠密化向稀疏化,从紧耦合到松耦合的转化导致的软硬件架构
: 的根本性改变。
: """
: 那你想象那种硬件系统, 更类似现在AWS这种linux based cluster的改进版?
: GPU, TPU 之类只是现在单个算力强, 结构还是太死板了?
: 那比如 GPU/TPU based cluster, 然后每个 cluster node 上配置storage,
: node 之间的 networking 做得更高速更可编程?

avatar
l*s
19
总是用一套,天天看天天用,你不觉得单调吗?
我的咖啡杯都要换不同的
说不上来的感觉,就是当时内心的需要

【在 p*****e 的大作中提到】
: 床单不一样,总要换洗,起码得有3套吧。
: 我家里2套餐具,都没地方放,平时也就用一套。
: 也没有专为节日备的餐具。

avatar
C*5
20
Jeff Dean不正在弄嘛

【在 d*******r 的大作中提到】
: 那长期修炼做分布式系统的能力, 一直有搞头
avatar
p*e
21
还真不简单单调。因为,根据不同的食物会用不同的餐具。
盘子的形状,大小各异,喝汤的碗也有区别。
关键是,我的注意力主要集中在餐具里的东西上了,呵呵。

【在 l**s 的大作中提到】
: 总是用一套,天天看天天用,你不觉得单调吗?
: 我的咖啡杯都要换不同的
: 说不上来的感觉,就是当时内心的需要

avatar
l*m
22
GPU是simt, 有些simd不具备的功能,比如:单指令多地址,单指令多路径(flow paths)

【在 w***g 的大作中提到】
: 对。我觉得linux cluster的计算和存储能力更强。
: 单个node的算力可以用GPU增强。但是如果算法变了,
: GPU的SIMD架构可能拼不过CPU。一般来说,计算速度上
: 的劣势可以通过大内存来弥补,只是算法要具体研究。
: 算法铁三角:时间,空间,准确度三者不可得兼。
: 很多算法都在研究怎么用其中两者去换第三者。

avatar
q*z
23
很好,很小资.

【在 p*****e 的大作中提到】
: 我看老美家里都有好几套餐具,按季节,节日变换。
: 感觉很纳闷,往哪里放那么多套餐具呀。

avatar
d*r
24
哪个项目?

【在 C*****5 的大作中提到】
: Jeff Dean不正在弄嘛
avatar
l*s
25
呵呵。。。
嗯,有道理

【在 p*****e 的大作中提到】
: 还真不简单单调。因为,根据不同的食物会用不同的餐具。
: 盘子的形状,大小各异,喝汤的碗也有区别。
: 关键是,我的注意力主要集中在餐具里的东西上了,呵呵。

avatar
d*c
26
补充几点:
熵增:
------------
单纯说熵增快就更高级简化了一点,自然过程本身是熵增的,自组织,信息过程,生物
,智能有组织化,熵减的倾向,但这以消耗能量,造成外界熵增为代价。
能熵减最大化的个体是最高级的,这建立在消耗能量,消耗其他生物的贡献基础上(很
多时候效率很低,大量浪费)。
对于人来说,不仅是个体,更是群体的熵减,也就是社会的组织程度。文化和知识也成
为系统一部分。
压缩
-------------
所谓压缩最后都是一个索引加上查表,信息量是无法压缩的,但你可以减少重复,减少
冗余,用越来越复杂的一个生成系统 + 数据来重新生成原始数据。
这个推到极限就是大预言术重现历史:我们不需要记录历史,想查什么数据重演一下宇
宙就行。
人眼中的压缩有时似乎体现了事物本质,那只是人习惯这种表现方式而已。最本质的对
一件事的描述只有一种:时间空间坐标,一个指针。
GPU计算
--------------
AMD能把GPU和CPU做在一起,这方向有前景,看它做的怎么样。我发现AMD现在在软件上
发展的不错,Ryzen的性能提高实际上很多来自软件优化,还有ML, ANN,动态高精度
调整 -- 把CPU分成上千块,在毫秒级进行调整
Ryzen的核多,因为是多个die拼起来,而不是需要一个超级大的die,die越大生产良品
率越低,所以这样成本低。die之间用infinite fabric连接,这个同样适用于CPU和GPU
连接,以后做CPU GPU in a system是自然发展。
blockchain
---------------
其实我说的重点不在计算,在于信任,用开放的,计算的东西作为信任基础,这比基于
黄金的货币信用,政府信用是一大进步。
黄金的稀缺性是它的等价物保证。blockchain系统里稀缺性来自计算能力的浪费,就是
为算而算,这样的稀缺性容易控制。
avatar
s*k
28
WDONG大牛把AI按照信息熵概念来看,是不是准备做AI领域的香浓定理出来?

【在 w***g 的大作中提到】
: 讨论了半天AI的可行性,接下来就是怎么操作了。
: 所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
: 我们做这个AI,必须师出有名,也就是有一个
: 优化目标,而且这个优化目标必须符合宇宙运行
: 的原理。在这个目标的指导下我们具体操作起来
: 才能事倍功半。这里先给个摘要。
: 我多年思考的结论就是,最适合作为一个generic
: strong AI的优化目标就是:max(I), I=信息。
: 这个目标基于下面三个原理:
: 1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。

avatar
x*i
29
对不起,上面发错地方了。:(
avatar
d*r
30
这个对learning很必要么, 在CPU上软模拟的话, 最终会慢得不行么

paths)

【在 l*******m 的大作中提到】
: GPU是simt, 有些simd不具备的功能,比如:单指令多地址,单指令多路径(flow paths)
avatar
c*k
31
不同食物可配不同餐具,吃得可口,看得也舒心。
不过我们老家那里的传统好象就是过大节、来客人啥的用一套正式的餐具的,嘻嘻。
嗯,就等着安定一点后开始大买餐厨具啦。噢,还得找个大点的厨房,想想就很开心:D

【在 p*****e 的大作中提到】
: 还真不简单单调。因为,根据不同的食物会用不同的餐具。
: 盘子的形状,大小各异,喝汤的碗也有区别。
: 关键是,我的注意力主要集中在餐具里的东西上了,呵呵。

avatar
c*v
32
my two cents:
gemm就是矩阵乘法。
可能只有手工改GPU的汇编?
没有别的办法取巧。
如果有软办法,物理学家早几十年就搞进去了。

【在 d*******r 的大作中提到】
: 这个对learning很必要么, 在CPU上软模拟的话, 最终会慢得不行么
:
: paths)

avatar
s*i
33
两套半Corelle(送掉坏掉几个),最新的一套也用了四年半了,我好节约啊,哈哈
avatar
l*m
34
CPU:
An L1 cache can be accessed by one core only.
GPU:
An L1 cache can be shared by a block of threads (64 or more)
Besides L1 caches, GPU has shared memory, which can be regarded as an
explicitly managed (in your code) cache. Shared memory can be shared by a
block of threads as well.
Therefore, GPUs are able to provide more efficient memory IO given specific
operations at least.

【在 d*******r 的大作中提到】
: 这个对learning很必要么, 在CPU上软模拟的话, 最终会慢得不行么
:
: paths)

avatar
p*e
35
挺好:)
我现在特烦东西多。

【在 s*******i 的大作中提到】
: 两套半Corelle(送掉坏掉几个),最新的一套也用了四年半了,我好节约啊,哈哈
avatar
I*a
36
要不割了,
再来看看有多少happy的东西?
avatar
l*3
37
现在完全追求清新简练使用率高。。。东西多了头疼。。。
avatar
h*c
38
GPU 内存容错是怎么处理得。
avatar
k*u
39
如果我有钱有地方。。。我也会有N多套餐具的。。。从小看见漂亮碗啊碟啊杯子啊啥
的就走不动道儿。。。
我在国内的家里,就有好多漂亮餐具。。。
到了这,都是学姐神马的传下来的。。。偶尔自己买一买,也是当奢侈品犒劳自己的。。。
哭泣ing。。。
avatar
k*i
40
软工竟然规划硬件发展,要么用力过猛,要么不务正业,殊不知失之毫厘差以千里。
avatar
F*t
41
pat pat
会有的

【在 k******u 的大作中提到】
: 如果我有钱有地方。。。我也会有N多套餐具的。。。从小看见漂亮碗啊碟啊杯子啊啥
: 的就走不动道儿。。。
: 我在国内的家里,就有好多漂亮餐具。。。
: 到了这,都是学姐神马的传下来的。。。偶尔自己买一买,也是当奢侈品犒劳自己的。。。
: 哭泣ing。。。

avatar
s*k
42
我很喜欢餐具
看见好看的餐具就走不动路
哎。。。
以后注定我的厨房会被塞得满满的= =
avatar
l*3
43
没有错。。。。现在去逛街,看到好看的心里很长草。。。
可是想想以后还不知何处,就忍了。。。

。。。

【在 k******u 的大作中提到】
: 如果我有钱有地方。。。我也会有N多套餐具的。。。从小看见漂亮碗啊碟啊杯子啊啥
: 的就走不动道儿。。。
: 我在国内的家里,就有好多漂亮餐具。。。
: 到了这,都是学姐神马的传下来的。。。偶尔自己买一买,也是当奢侈品犒劳自己的。。。
: 哭泣ing。。。

avatar
A*F
44
我知道有几套餐具的,大多放在车库的closet里。我感恩节去的那家就是这样。他们家
的车库可以放3辆车,他们的车都停在driveway,所以车库很大。家大就业大,他们家什
么都多。烤箱2个,洗碗机也是,6个炉子。人只有4口。

【在 p*****e 的大作中提到】
: 我看老美家里都有好几套餐具,按季节,节日变换。
: 感觉很纳闷,往哪里放那么多套餐具呀。

avatar
d*e
45
###此帖已应当事人要求删除###

【在 A****F 的大作中提到】
: 我知道有几套餐具的,大多放在车库的closet里。我感恩节去的那家就是这样。他们家
: 的车库可以放3辆车,他们的车都停在driveway,所以车库很大。家大就业大,他们家什
: 么都多。烤箱2个,洗碗机也是,6个炉子。人只有4口。

avatar
R*s
46
餐具就是刀叉盘子么。。。其实盘子好看点就好。。。。

【在 p*****e 的大作中提到】
: 我看老美家里都有好几套餐具,按季节,节日变换。
: 感觉很纳闷,往哪里放那么多套餐具呀。

avatar
n*r
47
We have several full sets of dinnerware: Lenox, Ralph Lauren, Mikasa,
Johnson Brother. We also have a lot plates, but not in full sets. Love
Lenox and Waterford by Vera Wang.
We have two full sets of flatware and two fulls sets of crystal glasses (one
for red wine and one for white wine).
Still expanding collections.
avatar
l*i
48
4人用的一套餐具,装起来也就一盒,不占多少地方。一般家里总有常用的和更好的2套
以上吧?视乎这家主人预计某些特殊场合下最多需要多少餐具,需要什么档次的餐具。
此外,客观地说,比如某纪念日搞个情调什么的,用些平日难得一用的餐具装点一下还
是会有良好效果的。
avatar
l*s
49
re
骨灰瓷的餐具赏心悦目哈
觉得英国产的更细致

Love
glasses (one

【在 n********r 的大作中提到】
: We have several full sets of dinnerware: Lenox, Ralph Lauren, Mikasa,
: Johnson Brother. We also have a lot plates, but not in full sets. Love
: Lenox and Waterford by Vera Wang.
: We have two full sets of flatware and two fulls sets of crystal glasses (one
: for red wine and one for white wine).
: Still expanding collections.

avatar
l*2
50
没有一套的飘过,都是七零八落的,朋友给的,自己买的
总感觉没家,买这些将来还是要丢,等有房子了,买个几套
好的餐具确实增色不少
avatar
F*t
51
是呀
还没有置业经常要搬家整整套的餐具不方便

【在 l*******2 的大作中提到】
: 没有一套的飘过,都是七零八落的,朋友给的,自己买的
: 总感觉没家,买这些将来还是要丢,等有房子了,买个几套
: 好的餐具确实增色不少

avatar
n*r
52
Full set of dinnerware means: 12 sets of salad plates, dinner plates, soup
bowls, bread plates, desert plates or mugs. I only use the full sets for
Thanksgiving or Christmas dinner. For daily use, we have a lot of plates
from Vera Wang, Lenox, Waterford, and Mikasa, not full sets but good quality
. You can find them on sale in the department store or go to outlet. The
full set on sale is rare.
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。