g*t
2 楼
我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么都找这
些90年代的东西啊。估计不是热点了。这都是EE的东西。
些90年代的东西啊。估计不是热点了。这都是EE的东西。
g*t
4 楼
怎么可能AI社区没听过。
我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
扯淡。
现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
练不出来。
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
EE的东
西就对
: 了,搞AI的没听说过吧?
: 都找这
【在 h*i 的大作中提到】
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是EE的东西就对
: 了,搞AI的没听说过吧?
:
:
: 我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么
: 都找这
:
: 些90年代的东西啊。估计不是热点了。这都是EE的东西。
:
我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
扯淡。
现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
练不出来。
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
EE的东
西就对
: 了,搞AI的没听说过吧?
: 都找这
【在 h*i 的大作中提到】
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是EE的东西就对
: 了,搞AI的没听说过吧?
:
:
: 我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么
: 都找这
:
: 些90年代的东西啊。估计不是热点了。这都是EE的东西。
:
h*i
5 楼
Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
是这本么?
我是说这帮“DL end to end”的人听说过没有,他们没听说过就行了。
PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近的东东了。嗯
。王培算是她的师兄吧。
她最近来出来发了个文批判DL end to end来着。
【在 g****t 的大作中提到】
: 怎么可能AI社区没听过。
: 我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
: 士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
: 算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
: 扯淡。
: 现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
: 练不出来。
:
:
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
: EE的东
是这本么?
我是说这帮“DL end to end”的人听说过没有,他们没听说过就行了。
PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近的东东了。嗯
。王培算是她的师兄吧。
她最近来出来发了个文批判DL end to end来着。
【在 g****t 的大作中提到】
: 怎么可能AI社区没听过。
: 我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
: 士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
: 算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
: 扯淡。
: 现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
: 练不出来。
:
:
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
: EE的东
g*t
8 楼
我后来觉得调参数太辛苦了。都是分析数学。
我phd是用mathemtica做大规模多项式迭
代。有一种多项式神经网络,与之可以说类似。
假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
算的小圈子。都用Mathematica
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
: 是这本么?
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
过就行了。
: PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近
的东东
了。嗯
: 。王培算是她的师兄吧。
: 她最近来出来发了个文批判DL end to end来着。
【在 h*i 的大作中提到】
: 你是说搞过遗传算法的都听说过petri net?
我phd是用mathemtica做大规模多项式迭
代。有一种多项式神经网络,与之可以说类似。
假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
算的小圈子。都用Mathematica
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
: 是这本么?
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
过就行了。
: PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近
的东东
了。嗯
: 。王培算是她的师兄吧。
: 她最近来出来发了个文批判DL end to end来着。
【在 h*i 的大作中提到】
: 你是说搞过遗传算法的都听说过petri net?
h*i
9 楼
Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
符号计算现在有个Rubi https://rulebasedintegration.org/
我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
https://en.wikipedia.org/wiki/Physical_symbol_system
【在 g****t 的大作中提到】
: 我后来觉得调参数太辛苦了。都是分析数学。
: 我phd是用mathemtica做大规模多项式迭
: 代。有一种多项式神经网络,与之可以说类似。
: 假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
: clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
: 算的小圈子。都用Mathematica
:
:
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
:
: 是这本么?
:
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
符号计算现在有个Rubi https://rulebasedintegration.org/
我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
https://en.wikipedia.org/wiki/Physical_symbol_system
【在 g****t 的大作中提到】
: 我后来觉得调参数太辛苦了。都是分析数学。
: 我phd是用mathemtica做大规模多项式迭
: 代。有一种多项式神经网络,与之可以说类似。
: 假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
: clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
: 算的小圈子。都用Mathematica
:
:
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
:
: 是这本么?
:
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
g*t
10 楼
我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
当然,这只是一点浅见。
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
【在 h*i 的大作中提到】
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
当然,这只是一点浅见。
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
【在 h*i 的大作中提到】
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
h*i
11 楼
数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
不奇怪。
但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
【在 g****t 的大作中提到】
: 我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
: 感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
: 当然,这只是一点浅见。
:
:
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
:
: 符号计算现在有个Rubi https://rulebasedintegration.org/
:
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
:
: https://en.wikipedia.org/wiki/Physical_symbol_system
:
不奇怪。
但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
【在 g****t 的大作中提到】
: 我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
: 感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
: 当然,这只是一点浅见。
:
:
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
:
: 符号计算现在有个Rubi https://rulebasedintegration.org/
:
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
:
: https://en.wikipedia.org/wiki/Physical_symbol_system
:
h*i
12 楼
数理逻辑不够,其实在AI的早期就应该知道了。
看看Walter Pitts的历史,就应该明白了的。天才都被devasted,一帮人还要以身试法
,不是找不痛快么?
http://nautil.us/issue/21/information/the-man-who-tried-to-redeem-the-world-with-logic
上面这个文讲的事迹是我第一次听说,感触良多。
【在 h*i 的大作中提到】
: 数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
: 不奇怪。
: 但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
看看Walter Pitts的历史,就应该明白了的。天才都被devasted,一帮人还要以身试法
,不是找不痛快么?
http://nautil.us/issue/21/information/the-man-who-tried-to-redeem-the-world-with-logic
上面这个文讲的事迹是我第一次听说,感触良多。
【在 h*i 的大作中提到】
: 数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
: 不奇怪。
: 但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
l*m
13 楼
简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
导就可一试。超过backprop的还没有曙光
:数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
,不奇怪。
:
因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
导就可一试。超过backprop的还没有曙光
:数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
,不奇怪。
:
h*i
14 楼
backprop的主要问题就是效率低。当然要求可导就导致它不是普遍适用的。
暴力搜索是个态度,搜索什么是关键。搜索也是动态的,启发式,这些其实都没有超出
司马贺说的东西。
算了,我也不想跟一帮凡人瞎扯了,白费功夫。明白的的人自然明白,不明白的,说啥
都没用。
我还是是去忽悠人要紧。
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
暴力搜索是个态度,搜索什么是关键。搜索也是动态的,启发式,这些其实都没有超出
司马贺说的东西。
算了,我也不想跟一帮凡人瞎扯了,白费功夫。明白的的人自然明白,不明白的,说啥
都没用。
我还是是去忽悠人要紧。
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
g*t
16 楼
知道解空间连续,不用bp那是给自己找不痛快。说bp不行的多数是没有hands on的经验
。试试就知道了。bp等于是线性规划。规模一大,暴力搜索和动态规划的差距是天差地
远。
但是现在神学还没取得对整数规划之类问题的决定性突破。尽管以前有很多研究和试验
。这类问题的建模还是很麻烦。重度依赖领域专家。另外bp无法给自己调参数。
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导
backprop的
轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么
网络,
主要可
: 导就可一试。超过backprop的还没有曙光
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范
畴论,
是不是
: ,不奇怪。
: :
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
。试试就知道了。bp等于是线性规划。规模一大,暴力搜索和动态规划的差距是天差地
远。
但是现在神学还没取得对整数规划之类问题的决定性突破。尽管以前有很多研究和试验
。这类问题的建模还是很麻烦。重度依赖领域专家。另外bp无法给自己调参数。
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导
backprop的
轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么
网络,
主要可
: 导就可一试。超过backprop的还没有曙光
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范
畴论,
是不是
: ,不奇怪。
: :
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
h*i
17 楼
l*m
18 楼
最直观的例子就是nlp, 本来一个一个词都是离散的,深学就是把离散的词映射到连续
的嵌入式空间, 然后就bp就好了。ml其实还是很开放的,在几个公开数据集上做到stoa
,大家就认。比讨论什么编程语言好可是客观多了
:"知道解空间连续", 有什么办法知道么?
:
的嵌入式空间, 然后就bp就好了。ml其实还是很开放的,在几个公开数据集上做到stoa
,大家就认。比讨论什么编程语言好可是客观多了
:"知道解空间连续", 有什么办法知道么?
:
g*t
27 楼
你這個可能是研究的現狀。我有個項目經過調研還是買msft 的nlp服務了。
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大
似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用
贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不
是BP,
: 而是最大似然
: 。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大
似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用
贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不
是BP,
: 而是最大似然
: 。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
h*i
28 楼
怎么看?
能忽悠人么?
能忽悠人么?
g*t
29 楼
我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么都找这
些90年代的东西啊。估计不是热点了。这都是EE的东西。
些90年代的东西啊。估计不是热点了。这都是EE的东西。
g*t
31 楼
怎么可能AI社区没听过。
我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
扯淡。
现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
练不出来。
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
EE的东
西就对
: 了,搞AI的没听说过吧?
: 都找这
【在 h*i 的大作中提到】
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是EE的东西就对
: 了,搞AI的没听说过吧?
:
:
: 我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么
: 都找这
:
: 些90年代的东西啊。估计不是热点了。这都是EE的东西。
:
我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
扯淡。
现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
练不出来。
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
EE的东
西就对
: 了,搞AI的没听说过吧?
: 都找这
【在 h*i 的大作中提到】
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是EE的东西就对
: 了,搞AI的没听说过吧?
:
:
: 我90年代做过。工业离散事件系统,上海双钱轮胎厂的项目。全忘完了。你怎么
: 都找这
:
: 些90年代的东西啊。估计不是热点了。这都是EE的东西。
:
h*i
32 楼
Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
是这本么?
我是说这帮“DL end to end”的人听说过没有,他们没听说过就行了。
PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近的东东了。嗯
。王培算是她的师兄吧。
她最近来出来发了个文批判DL end to end来着。
【在 g****t 的大作中提到】
: 怎么可能AI社区没听过。
: 我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
: 士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
: 算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
: 扯淡。
: 现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
: 练不出来。
:
:
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
: EE的东
是这本么?
我是说这帮“DL end to end”的人听说过没有,他们没听说过就行了。
PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近的东东了。嗯
。王培算是她的师兄吧。
她最近来出来发了个文批判DL end to end来着。
【在 g****t 的大作中提到】
: 怎么可能AI社区没听过。
: 我本科就发过AI的论文(在北航一个杂志)。后来硕士论文是神经网络。尽管那时候硕
: 士博士少。一个学校一般过几届也有那么几个做智能计算的。因为实践中要用到。遗传
: 算法那本经典书,引用数是历史上ACM出版最高的之一。尽管多数人那时候都觉得是瞎
: 扯淡。
: 现如今看来,dota, Starcraft 之类的竞技游戏DL,都有类似的一层演化策略。不然训
: 练不出来。
:
:
: 热点的东西只能用,不能让你上台阶的,要上台阶,得用别人不懂的。是
: EE的东
g*t
35 楼
我后来觉得调参数太辛苦了。都是分析数学。
我phd是用mathemtica做大规模多项式迭
代。有一种多项式神经网络,与之可以说类似。
假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
算的小圈子。都用Mathematica
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
: 是这本么?
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
过就行了。
: PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近
的东东
了。嗯
: 。王培算是她的师兄吧。
: 她最近来出来发了个文批判DL end to end来着。
【在 h*i 的大作中提到】
: 你是说搞过遗传算法的都听说过petri net?
我phd是用mathemtica做大规模多项式迭
代。有一种多项式神经网络,与之可以说类似。
假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
算的小圈子。都用Mathematica
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
: 是这本么?
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
过就行了。
: PS. Melanie Mitchell的博士论文听说过么?个人认为算是距离AGI最近
的东东
了。嗯
: 。王培算是她的师兄吧。
: 她最近来出来发了个文批判DL end to end来着。
【在 h*i 的大作中提到】
: 你是说搞过遗传算法的都听说过petri net?
h*i
36 楼
Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
符号计算现在有个Rubi https://rulebasedintegration.org/
我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
https://en.wikipedia.org/wiki/Physical_symbol_system
【在 g****t 的大作中提到】
: 我后来觉得调参数太辛苦了。都是分析数学。
: 我phd是用mathemtica做大规模多项式迭
: 代。有一种多项式神经网络,与之可以说类似。
: 假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
: clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
: 算的小圈子。都用Mathematica
:
:
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
:
: 是这本么?
:
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
符号计算现在有个Rubi https://rulebasedintegration.org/
我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
https://en.wikipedia.org/wiki/Physical_symbol_system
【在 g****t 的大作中提到】
: 我后来觉得调参数太辛苦了。都是分析数学。
: 我phd是用mathemtica做大规模多项式迭
: 代。有一种多项式神经网络,与之可以说类似。
: 假如clojure出现可以用的符号计算包。我可以让我师兄找些学生把原来的一些包改成
: clojure. 也可以在机械协会的会议上介绍下clojure. 我原来phd那个小圈子是符号计
: 算的小圈子。都用Mathematica
:
:
: Melanie Mitchell, An Introduction to Genetic Algorithms, 1998
:
: 是这本么?
:
: 我是说这帮“DL end to end”的人听说过没有,他们没听说
g*t
37 楼
我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
当然,这只是一点浅见。
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
【在 h*i 的大作中提到】
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
当然,这只是一点浅见。
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
【在 h*i 的大作中提到】
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
: 符号计算现在有个Rubi https://rulebasedintegration.org/
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
: https://en.wikipedia.org/wiki/Physical_symbol_system
h*i
38 楼
数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
不奇怪。
但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
【在 g****t 的大作中提到】
: 我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
: 感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
: 当然,这只是一点浅见。
:
:
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
:
: 符号计算现在有个Rubi https://rulebasedintegration.org/
:
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
:
: https://en.wikipedia.org/wiki/Physical_symbol_system
:
不奇怪。
但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
【在 g****t 的大作中提到】
: 我研究过数理逻辑。后来感觉这些东西都在多元多项式里。
: 感觉上就是各种扯旗放炮的符号AI圈子,都是一样的。
: 当然,这只是一点浅见。
:
:
: Clojure没有符号计算包可用的,有人port过这些,玩玩而已。
:
: 符号计算现在有个Rubi https://rulebasedintegration.org/
:
: 我们搞的东西不需要公式的符号计算。我说的符号,是司马贺说的那种符号。
:
: https://en.wikipedia.org/wiki/Physical_symbol_system
:
h*i
39 楼
数理逻辑不够,其实在AI的早期就应该知道了。
看看Walter Pitts的历史,就应该明白了的。天才都被devasted,一帮人还要以身试法
,不是找不痛快么?
http://nautil.us/issue/21/information/the-man-who-tried-to-redeem-the-world-with-logic
上面这个文讲的事迹是我第一次听说,感触良多。
【在 h*i 的大作中提到】
: 数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
: 不奇怪。
: 但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
看看Walter Pitts的历史,就应该明白了的。天才都被devasted,一帮人还要以身试法
,不是找不痛快么?
http://nautil.us/issue/21/information/the-man-who-tried-to-redeem-the-world-with-logic
上面这个文讲的事迹是我第一次听说,感触良多。
【在 h*i 的大作中提到】
: 数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是,
: 不奇怪。
: 但数理逻辑实践证明用来搞AI是不够的,所以我的结论是必须暴力搜索。
l*m
40 楼
简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
导就可一试。超过backprop的还没有曙光
:数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
,不奇怪。
:
因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
导就可一试。超过backprop的还没有曙光
:数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
,不奇怪。
:
h*i
41 楼
backprop的主要问题就是效率低。当然要求可导就导致它不是普遍适用的。
暴力搜索是个态度,搜索什么是关键。搜索也是动态的,启发式,这些其实都没有超出
司马贺说的东西。
算了,我也不想跟一帮凡人瞎扯了,白费功夫。明白的的人自然明白,不明白的,说啥
都没用。
我还是是去忽悠人要紧。
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
暴力搜索是个态度,搜索什么是关键。搜索也是动态的,启发式,这些其实都没有超出
司马贺说的东西。
算了,我也不想跟一帮凡人瞎扯了,白费功夫。明白的的人自然明白,不明白的,说啥
都没用。
我还是是去忽悠人要紧。
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
g*t
43 楼
知道解空间连续,不用bp那是给自己找不痛快。说bp不行的多数是没有hands on的经验
。试试就知道了。bp等于是线性规划。规模一大,暴力搜索和动态规划的差距是天差地
远。
但是现在神学还没取得对整数规划之类问题的决定性突破。尽管以前有很多研究和试验
。这类问题的建模还是很麻烦。重度依赖领域专家。另外bp无法给自己调参数。
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导
backprop的
轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么
网络,
主要可
: 导就可一试。超过backprop的还没有曙光
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范
畴论,
是不是
: ,不奇怪。
: :
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
。试试就知道了。bp等于是线性规划。规模一大,暴力搜索和动态规划的差距是天差地
远。
但是现在神学还没取得对整数规划之类问题的决定性突破。尽管以前有很多研究和试验
。这类问题的建模还是很麻烦。重度依赖领域专家。另外bp无法给自己调参数。
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导
backprop的
轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么
网络,
主要可
: 导就可一试。超过backprop的还没有曙光
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范
畴论,
是不是
: ,不奇怪。
: :
【在 l*******m 的大作中提到】
: 简单的暴力搜索是没有希望的。与其说神经网络的轮回,不如说可导backprop的轮回。
: 因为几十年过去大家发现backprop是效率很高的暴力搜索。所以不管什么网络,主要可
: 导就可一试。超过backprop的还没有曙光
:
: :数理逻辑肯定能找到与多元多项式这类数学同性质的东西,最后都是范畴论,是不是
: ,不奇怪。
: :
h*i
44 楼
l*m
45 楼
最直观的例子就是nlp, 本来一个一个词都是离散的,深学就是把离散的词映射到连续
的嵌入式空间, 然后就bp就好了。ml其实还是很开放的,在几个公开数据集上做到stoa
,大家就认。比讨论什么编程语言好可是客观多了
:"知道解空间连续", 有什么办法知道么?
:
的嵌入式空间, 然后就bp就好了。ml其实还是很开放的,在几个公开数据集上做到stoa
,大家就认。比讨论什么编程语言好可是客观多了
:"知道解空间连续", 有什么办法知道么?
:
g*t
54 楼
你這個可能是研究的現狀。我有個項目經過調研還是買msft 的nlp服務了。
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大
似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用
贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不
是BP,
: 而是最大似然
: 。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大
似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用
贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不
是BP,
: 而是最大似然
: 。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
h*i
55 楼
说得有道理。
最大似然是一个原则,现在又有个啥最大自由能量原则,有点意思。不过这些单一的原
则可能都不会普遍适用。
我还没有具体研究过,不知道DL现在说的attention和认知心理学的attention有什么关
系。我做心理学的时代,本科和硕士的论文都是做attention的,当然是做实验的,我
设计的实验证实了人的视觉attention的移动跟电筒光柱移动类似。
attention其实是top-down processing的一种,估计可能比Bayesian prior要容易使用
一些,感觉和我的“暴力搜索“理念更容易匹配。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
最大似然是一个原则,现在又有个啥最大自由能量原则,有点意思。不过这些单一的原
则可能都不会普遍适用。
我还没有具体研究过,不知道DL现在说的attention和认知心理学的attention有什么关
系。我做心理学的时代,本科和硕士的论文都是做attention的,当然是做实验的,我
设计的实验证实了人的视觉attention的移动跟电筒光柱移动类似。
attention其实是top-down processing的一种,估计可能比Bayesian prior要容易使用
一些,感觉和我的“暴力搜索“理念更容易匹配。
【在 l*******m 的大作中提到】
: 空间是你自己定义的。比如离散优化经常relaxe到连续空间。
: 这个context问题,不是空间不空间的问题,是problem framing的问题,用最大似然还
: 是不用。现在最流行的解法都是最大似然的,所以解决不了context。如果不用贝叶斯
: ,attention是目前还是有些希望。可能的确需要些启发性算法,但是反对面不是BP,
: 而是最大似然
:
: 。
相关阅读
机器学习准入门槛降低,机器学习工程师职位或将消失zz怎么自学spark?接着请教大牛VS6.0咨询一下职业发展。台巴子造谣被抓包: (转载)有懂petri net的么量子密码技术。。。Ubuntu桌面版的坑真够深的可能吗:盗用信用卡网上买货居然用了我的IP address云端的深学算法例如Google Vision怎么做到噪声隔离老魏这盖楼的本事太厉害了有多少人认为这个第2种写法是Improved approach?从假杨清 李家 等看wudong的对比哪位能科普一下人脸识别的算法Re: 西方衰落的根源是没有正义 (转载)后端短期内似乎很难再有其他变化大家工作中用的深度学习的网络规模多大如何评价横跨美印的软件项目[bssd]再论《金瓶梅》:作者派来的人产品 release 了以后