w*g
2 楼
multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
原始算法的老命。这个所有人都知道。
2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
大部分alternative架构的研究,圈死了人们的想象力。
CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
东西本身存在的合理性。
一个新手开始学用CNN,把别人的model跑通应该用不了几个小时。然后立刻就会
遇到一个问题:为什么别人的architecture要这么定?怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则,所以architecture设计基本上是一门
black magic。新手与老手的区别也在于老手看到一个dataset以后对于怎么
定architecture最好更有"感觉"。
我要吹的是,目前描述CNN architecture的这套语言本身就是很不合理的,甚至
是不应该存在的。这个不合理性是设计architecture难的本质原因,而不是没有
牛顿定理。一个合理的有CNN预测能力的模型,应该只需要十几个功能正交的
参数(meta parameter),而不是一层复一层垒重复性的东西。我相信所有学习
CNN的人都有观察到了这种重复性或者说是冗余,并且在那一瞬间达到了和真相
最接近的一个local optimum。然后一旦开始纠结怎么垒层数,我觉得就开始
堕入邪道了。轮子的最终用户其实没啥选择的余地,因为轮子就是这样的,
语言限制思维。但是这么多轮子全都在垒层数拾人牙慧,让我觉得这个
世界是多么没有审美力和想象力。
算法的大框架我已经有了,但是没啥时间和资源来做,能力上也有些不足。
我觉得世界上应该还是有一些人能想到我在想的东西,并且有能力把它做出来。
我可以比较肯定地说,现在还在垒层数需要architecture描述脚本的轮子,
其实都是纸老虎。五年之内应该全都会被颠覆。现在刚开始读PhD的同学,建议
不要把时间浪费在研究怎么垒层数这种无谓的问题上面,要么思考一些更加
本质的事情,要么干脆去做application。
故弄玄虚一下,这些文字献给王垠吧。
不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
原始算法的老命。这个所有人都知道。
2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
大部分alternative架构的研究,圈死了人们的想象力。
CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
东西本身存在的合理性。
一个新手开始学用CNN,把别人的model跑通应该用不了几个小时。然后立刻就会
遇到一个问题:为什么别人的architecture要这么定?怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则,所以architecture设计基本上是一门
black magic。新手与老手的区别也在于老手看到一个dataset以后对于怎么
定architecture最好更有"感觉"。
我要吹的是,目前描述CNN architecture的这套语言本身就是很不合理的,甚至
是不应该存在的。这个不合理性是设计architecture难的本质原因,而不是没有
牛顿定理。一个合理的有CNN预测能力的模型,应该只需要十几个功能正交的
参数(meta parameter),而不是一层复一层垒重复性的东西。我相信所有学习
CNN的人都有观察到了这种重复性或者说是冗余,并且在那一瞬间达到了和真相
最接近的一个local optimum。然后一旦开始纠结怎么垒层数,我觉得就开始
堕入邪道了。轮子的最终用户其实没啥选择的余地,因为轮子就是这样的,
语言限制思维。但是这么多轮子全都在垒层数拾人牙慧,让我觉得这个
世界是多么没有审美力和想象力。
算法的大框架我已经有了,但是没啥时间和资源来做,能力上也有些不足。
我觉得世界上应该还是有一些人能想到我在想的东西,并且有能力把它做出来。
我可以比较肯定地说,现在还在垒层数需要architecture描述脚本的轮子,
其实都是纸老虎。五年之内应该全都会被颠覆。现在刚开始读PhD的同学,建议
不要把时间浪费在研究怎么垒层数这种无谓的问题上面,要么思考一些更加
本质的事情,要么干脆去做application。
故弄玄虚一下,这些文字献给王垠吧。
a*x
3 楼
目前还没什么data,老板得grant还一年到期,希望我在这1年毕业,目前第3年,可不
是很自信一年能干出什么名堂,而且
data不确定能不能有很多。。。有这样grant到期,就算没什么结果也给毕业得么??
请过来人介绍经验
是很自信一年能干出什么名堂,而且
data不确定能不能有很多。。。有这样grant到期,就算没什么结果也给毕业得么??
请过来人介绍经验
R*D
4 楼
Not yet. Should be able to grab 4gb sodimm @$35 at the end of the year
w*g
5 楼
没有人跟得上吗,还是我脑子出问题了?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
l*s
6 楼
congratulations!
l*m
8 楼
真正做研究的现在都在做RL, recurrent. CNN做不动了。cnn的重心有些偏向inference
加速,我现在可以在没有heatsink的arm上80 ms per frame. 中型网络。
两个星期前,打印了四片RL文章,准备学术讨论, 跟上前沿。结果谁也没读,凡事太多
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
加速,我现在可以在没有heatsink的arm上80 ms per frame. 中型网络。
两个星期前,打印了四片RL文章,准备学术讨论, 跟上前沿。结果谁也没读,凡事太多
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
W*C
9 楼
欧洲的?
p*m
10 楼
8G DDR3 should be 30-40
h*i
11 楼
做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
ambition在西方是褒义)。
整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
ambition在西方是褒义)。
整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
a*g
12 楼
毕业了多爽
找个薄厚至少钱多不少
找个薄厚至少钱多不少
v*n
13 楼
暑假240买的, 喵了个咪的
ET
14 楼
虽然对这个话题一窍不通,但能明白你说的意思。
大部分还是跟着潮流走。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
大部分还是跟着潮流走。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
j*e
15 楼
co-congratulations
l*e
16 楼
我估计4G差不多40,还不要rebate
w*g
17 楼
做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
我就选了小富即安,以后没啥前途我也认了。
穷人没啥机会成本,可以去搞野心。
小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
因为哈佛一毕业一般就小富了,不会再去实现野心。
CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
PhD中穷人的比例要高得更多。
Update: 应该是耶鲁。反正都一样。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
我就选了小富即安,以后没啥前途我也认了。
穷人没啥机会成本,可以去搞野心。
小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
因为哈佛一毕业一般就小富了,不会再去实现野心。
CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
PhD中穷人的比例要高得更多。
Update: 应该是耶鲁。反正都一样。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
w*g
20 楼
话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
老毛子战斗力太强了。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
老毛子战斗力太强了。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
d*r
22 楼
就是你说这个 idea, 你业余做不下来?
wdong 你自己当个体户,应该很爽的,工作时间应该很好掌控吧.
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
wdong 你自己当个体户,应该很爽的,工作时间应该很好掌控吧.
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
f*n
23 楼
我有2个四大牛人,一个是数学系,没有经费,直接就毕业了.
另一个是MARYLAND大的化学系,无经费,就毕业了,有一篇文章.
另一个是MARYLAND大的化学系,无经费,就毕业了,有一篇文章.
v*e
28 楼
楼主就瞎叨叨。neuron network精髓就在层数上,层数越多越牛。
h*i
30 楼
还在用。不过我们公司有点转型了,现在主要在做别的东西,用处不太大了。
我觉得DL啥的用处有限,就是堆数据,但弄数据是个人最难做的,所以不太适合你。
你要有兴趣,我个人觉得做图数据库更有前景,不是分布式那种,而是单机(也许用
GPU)的。不管你们信不信,我个人觉得AI的下一个突破就在这里。
【在 w***g 的大作中提到】
: 话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
: 了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
: kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
: 就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
: 老毛子战斗力太强了。
我觉得DL啥的用处有限,就是堆数据,但弄数据是个人最难做的,所以不太适合你。
你要有兴趣,我个人觉得做图数据库更有前景,不是分布式那种,而是单机(也许用
GPU)的。不管你们信不信,我个人觉得AI的下一个突破就在这里。
【在 w***g 的大作中提到】
: 话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
: 了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
: kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
: 就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
: 老毛子战斗力太强了。
x*u
32 楼
我觉得生物进化出5-6层大脑视觉皮层,应该是暗示了什么原理的
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
m*u
33 楼
如果继续要找薄后。什么都没有怎么找好老板?
m*s
36 楼
需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
络分层学习特征,才能达到解决实际问题的效果。
另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
的,根本没有所谓的真相,只有基于具体问题的performance好不好。
深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
其他机器学习模型结合也是扩展业务的一个大的发展方向。
深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
下来的研究重点的。hinton一直致力于继续研究人脑的机理来改进神经网络模型,其他
一些大牛则不过分拘泥于模拟自然脑,而是利用已经发掘的神经网络的原理另辟蹊径开
发应用,比如lecun的抛弃语法,词,句完全从字母学习语言的应用。在某些课题上确
实进步空间不大,比如静态图片分类,但是有些课题还有很大潜力可挖,比如文本处理
,语音,视频场景分析等等。现在就谈硬伤为时尚早
学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
络分层学习特征,才能达到解决实际问题的效果。
另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
的,根本没有所谓的真相,只有基于具体问题的performance好不好。
深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
其他机器学习模型结合也是扩展业务的一个大的发展方向。
深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
下来的研究重点的。hinton一直致力于继续研究人脑的机理来改进神经网络模型,其他
一些大牛则不过分拘泥于模拟自然脑,而是利用已经发掘的神经网络的原理另辟蹊径开
发应用,比如lecun的抛弃语法,词,句完全从字母学习语言的应用。在某些课题上确
实进步空间不大,比如静态图片分类,但是有些课题还有很大潜力可挖,比如文本处理
,语音,视频场景分析等等。现在就谈硬伤为时尚早
c*w
38 楼
在我看来CNN的本质在于
一是convolution, 这个约束极大的减少了参数的数量。
二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
人脑了。
按照Hinton牛的说法,CNN的改进方向在Pooling
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
一是convolution, 这个约束极大的减少了参数的数量。
二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
人脑了。
按照Hinton牛的说法,CNN的改进方向在Pooling
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
40 楼
我觉得CNN有效的重要原因之一 是max pooling+分层
这是对物体形状/纹理的很好的编码
比如 如下两个形状 都可以被识别为一类
--------------
_ _
- - -- --- ---
- _
【在 m****s 的大作中提到】
: 需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
: 学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
: 络分层学习特征,才能达到解决实际问题的效果。
: 另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
: 得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
: 的,根本没有所谓的真相,只有基于具体问题的performance好不好。
: 深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
: CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
: 其他机器学习模型结合也是扩展业务的一个大的发展方向。
: 深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
这是对物体形状/纹理的很好的编码
比如 如下两个形状 都可以被识别为一类
--------------
_ _
- - -- --- ---
- _
【在 m****s 的大作中提到】
: 需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
: 学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
: 络分层学习特征,才能达到解决实际问题的效果。
: 另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
: 得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
: 的,根本没有所谓的真相,只有基于具体问题的performance好不好。
: 深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
: CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
: 其他机器学习模型结合也是扩展业务的一个大的发展方向。
: 深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
y*j
41 楼
1. 这不叫convolution,这是weight sharing,它能避免overfitting
2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
,还有当时的硬件配置比现在差太远了, 导致当时的失败。
我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:在我看来CNN的本质在于
:一是convolution, 这个约束极大的减少了参数的数量。
:二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
近人脑了。
:按照Hinton牛的说法,CNN的改进方向在Pooling
【在 c*****w 的大作中提到】
: 在我看来CNN的本质在于
: 一是convolution, 这个约束极大的减少了参数的数量。
: 二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
: 人脑了。
: 按照Hinton牛的说法,CNN的改进方向在Pooling
2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
,还有当时的硬件配置比现在差太远了, 导致当时的失败。
我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:在我看来CNN的本质在于
:一是convolution, 这个约束极大的减少了参数的数量。
:二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
近人脑了。
:按照Hinton牛的说法,CNN的改进方向在Pooling
【在 c*****w 的大作中提到】
: 在我看来CNN的本质在于
: 一是convolution, 这个约束极大的减少了参数的数量。
: 二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
: 人脑了。
: 按照Hinton牛的说法,CNN的改进方向在Pooling
x*u
42 楼
现在神经网络单机的计算能力,已经超过了人脑。
当然结构大不一样,目前单机只够模拟人脑的部分功能。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
当然结构大不一样,目前单机只够模拟人脑的部分功能。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
c*w
47 楼
convolution enables weight sharing。否则干嘛用convolution,直接上full
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
c*e
50 楼
什么叫骗子啊?这年月,叫 会吹牛。 我公司的ceo就特别会吹。 白人特别会说,做不
行。看看obama就明白了。白人都这德性。
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
行。看看obama就明白了。白人都这德性。
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
s*w
56 楼
赞大牛!
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
w*x
57 楼
我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
58 楼
今天仔细想了想 觉得多层是没必要的
假设 有三层 全连接
第一层 第二层 第三层
第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
是个线性放大器
如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
这么看来 CNN的法宝 就是 max pooling + dropout
max pooling 相当于分级模板匹配 对物体形变的一种离散化
dropout 相当于聚类
我把 max pooling 的想法用在了另一个应用上 效果不错
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
假设 有三层 全连接
第一层 第二层 第三层
第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
是个线性放大器
如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
这么看来 CNN的法宝 就是 max pooling + dropout
max pooling 相当于分级模板匹配 对物体形变的一种离散化
dropout 相当于聚类
我把 max pooling 的想法用在了另一个应用上 效果不错
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
59 楼
研究的如何了?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
N*m
60 楼
感觉现在搞计算机的数学功底不行
谁要是把CNN的数学理论原理搞出来了,搞个图灵应该轻轻松松
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
谁要是把CNN的数学理论原理搞出来了,搞个图灵应该轻轻松松
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
61 楼
我设计了一种新的结构
相当于CNN 两层conv 两层max-pooling
MNIST 上跑到了0.87 错误率
是个啥水平?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
相当于CNN 两层conv 两层max-pooling
MNIST 上跑到了0.87 错误率
是个啥水平?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
k*i
63 楼
NN从计算的角度,相当于以“普适”的算法产生不同的参数来对应于各种特定的算法,
并能从中选择最优的参数来解答问题。
从CNN的角度,flying parts就是堆层超参,用各种architectures及frameworks来实现
并简化该过程。
大作中提到的meta parameters是要fix the flying parts,进而能适配各种应用吗?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
并能从中选择最优的参数来解答问题。
从CNN的角度,flying parts就是堆层超参,用各种architectures及frameworks来实现
并简化该过程。
大作中提到的meta parameters是要fix the flying parts,进而能适配各种应用吗?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
v*k
66 楼
我说诸位表瞎猜cnn的物理意义了。这物理意义包括为啥convolution 为啥pooling学一
点信号处理就清楚的很。
点信号处理就清楚的很。
T*x
69 楼
赞。
【在 w*******x 的大作中提到】
: 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
: 熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
: interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
: 理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
: 脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
: layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
: 展还需要有个突破来解决逻辑处理 也许是某种RNN?
: 我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
: 如此大的差别~~~
【在 w*******x 的大作中提到】
: 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
: 熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
: interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
: 理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
: 脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
: layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
: 展还需要有个突破来解决逻辑处理 也许是某种RNN?
: 我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
: 如此大的差别~~~
j*n
70 楼
mark
w*g
72 楼
multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
原始算法的老命。这个所有人都知道。
2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
大部分alternative架构的研究,圈死了人们的想象力。
CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
东西本身存在的合理性。
一个新手开始学用CNN,把别人的model跑通应该用不了几个小时。然后立刻就会
遇到一个问题:为什么别人的architecture要这么定?怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则,所以architecture设计基本上是一门
black magic。新手与老手的区别也在于老手看到一个dataset以后对于怎么
定architecture最好更有"感觉"。
我要吹的是,目前描述CNN architecture的这套语言本身就是很不合理的,甚至
是不应该存在的。这个不合理性是设计architecture难的本质原因,而不是没有
牛顿定理。一个合理的有CNN预测能力的模型,应该只需要十几个功能正交的
参数(meta parameter),而不是一层复一层垒重复性的东西。我相信所有学习
CNN的人都有观察到了这种重复性或者说是冗余,并且在那一瞬间达到了和真相
最接近的一个local optimum。然后一旦开始纠结怎么垒层数,我觉得就开始
堕入邪道了。轮子的最终用户其实没啥选择的余地,因为轮子就是这样的,
语言限制思维。但是这么多轮子全都在垒层数拾人牙慧,让我觉得这个
世界是多么没有审美力和想象力。
算法的大框架我已经有了,但是没啥时间和资源来做,能力上也有些不足。
我觉得世界上应该还是有一些人能想到我在想的东西,并且有能力把它做出来。
我可以比较肯定地说,现在还在垒层数需要architecture描述脚本的轮子,
其实都是纸老虎。五年之内应该全都会被颠覆。现在刚开始读PhD的同学,建议
不要把时间浪费在研究怎么垒层数这种无谓的问题上面,要么思考一些更加
本质的事情,要么干脆去做application。
故弄玄虚一下,这些文字献给王垠吧。
不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
原始算法的老命。这个所有人都知道。
2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
大部分alternative架构的研究,圈死了人们的想象力。
CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
东西本身存在的合理性。
一个新手开始学用CNN,把别人的model跑通应该用不了几个小时。然后立刻就会
遇到一个问题:为什么别人的architecture要这么定?怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则,所以architecture设计基本上是一门
black magic。新手与老手的区别也在于老手看到一个dataset以后对于怎么
定architecture最好更有"感觉"。
我要吹的是,目前描述CNN architecture的这套语言本身就是很不合理的,甚至
是不应该存在的。这个不合理性是设计architecture难的本质原因,而不是没有
牛顿定理。一个合理的有CNN预测能力的模型,应该只需要十几个功能正交的
参数(meta parameter),而不是一层复一层垒重复性的东西。我相信所有学习
CNN的人都有观察到了这种重复性或者说是冗余,并且在那一瞬间达到了和真相
最接近的一个local optimum。然后一旦开始纠结怎么垒层数,我觉得就开始
堕入邪道了。轮子的最终用户其实没啥选择的余地,因为轮子就是这样的,
语言限制思维。但是这么多轮子全都在垒层数拾人牙慧,让我觉得这个
世界是多么没有审美力和想象力。
算法的大框架我已经有了,但是没啥时间和资源来做,能力上也有些不足。
我觉得世界上应该还是有一些人能想到我在想的东西,并且有能力把它做出来。
我可以比较肯定地说,现在还在垒层数需要architecture描述脚本的轮子,
其实都是纸老虎。五年之内应该全都会被颠覆。现在刚开始读PhD的同学,建议
不要把时间浪费在研究怎么垒层数这种无谓的问题上面,要么思考一些更加
本质的事情,要么干脆去做application。
故弄玄虚一下,这些文字献给王垠吧。
w*g
73 楼
没有人跟得上吗,还是我脑子出问题了?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
l*m
74 楼
真正做研究的现在都在做RL, recurrent. CNN做不动了。cnn的重心有些偏向inference
加速,我现在可以在没有heatsink的arm上80 ms per frame. 中型网络。
两个星期前,打印了四片RL文章,准备学术讨论, 跟上前沿。结果谁也没读,凡事太多
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
加速,我现在可以在没有heatsink的arm上80 ms per frame. 中型网络。
两个星期前,打印了四片RL文章,准备学术讨论, 跟上前沿。结果谁也没读,凡事太多
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
h*i
75 楼
做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
ambition在西方是褒义)。
整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
ambition在西方是褒义)。
整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
ET
76 楼
虽然对这个话题一窍不通,但能明白你说的意思。
大部分还是跟着潮流走。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
大部分还是跟着潮流走。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
w*g
77 楼
做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
我就选了小富即安,以后没啥前途我也认了。
穷人没啥机会成本,可以去搞野心。
小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
因为哈佛一毕业一般就小富了,不会再去实现野心。
CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
PhD中穷人的比例要高得更多。
Update: 应该是耶鲁。反正都一样。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
我就选了小富即安,以后没啥前途我也认了。
穷人没啥机会成本,可以去搞野心。
小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
因为哈佛一毕业一般就小富了,不会再去实现野心。
CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
PhD中穷人的比例要高得更多。
Update: 应该是耶鲁。反正都一样。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
w*g
78 楼
话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
老毛子战斗力太强了。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
老毛子战斗力太强了。
【在 h*i 的大作中提到】
: 做出来再说。CS只有想不到的,没有啥是”没有资源和时间“去做的。
:
: 我觉得中国教育出来的人最大的问题就是没有野心(注意,野心这个词在中文是贬义,
: ambition在西方是褒义)。
: 整天哭诉啥被烙印骑在头上拉屎就是症状。大部分中国人都是小富即安,刷题进FLG就
: 觉得完事了,就没几个有野心的。自己不想要,得不到就不要报怨。
:
d*r
79 楼
就是你说这个 idea, 你业余做不下来?
wdong 你自己当个体户,应该很爽的,工作时间应该很好掌控吧.
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
wdong 你自己当个体户,应该很爽的,工作时间应该很好掌控吧.
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
h*i
82 楼
还在用。不过我们公司有点转型了,现在主要在做别的东西,用处不太大了。
我觉得DL啥的用处有限,就是堆数据,但弄数据是个人最难做的,所以不太适合你。
你要有兴趣,我个人觉得做图数据库更有前景,不是分布式那种,而是单机(也许用
GPU)的。不管你们信不信,我个人觉得AI的下一个突破就在这里。
【在 w***g 的大作中提到】
: 话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
: 了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
: kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
: 就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
: 老毛子战斗力太强了。
我觉得DL啥的用处有限,就是堆数据,但弄数据是个人最难做的,所以不太适合你。
你要有兴趣,我个人觉得做图数据库更有前景,不是分布式那种,而是单机(也许用
GPU)的。不管你们信不信,我个人觉得AI的下一个突破就在这里。
【在 w***g 的大作中提到】
: 话说我那个kgraph你还用吗?我有两年没改算法,发现已经被CMU和老毛子团队比下去
: 了, MIT也有一波人没放弃LSH最近又搞了个轮子出来。我这两天业余时间都在改进
: kgraph。这种规模得轮子属于业于时间搞搞还可以一拼的。这种事情做不到世界第一
: 就等于没做。我东家最近情况不是很好,如果他们完蛋了我就全力去做CNN。
: 老毛子战斗力太强了。
x*u
83 楼
我觉得生物进化出5-6层大脑视觉皮层,应该是暗示了什么原理的
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
m*s
86 楼
需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
络分层学习特征,才能达到解决实际问题的效果。
另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
的,根本没有所谓的真相,只有基于具体问题的performance好不好。
深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
其他机器学习模型结合也是扩展业务的一个大的发展方向。
深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
下来的研究重点的。hinton一直致力于继续研究人脑的机理来改进神经网络模型,其他
一些大牛则不过分拘泥于模拟自然脑,而是利用已经发掘的神经网络的原理另辟蹊径开
发应用,比如lecun的抛弃语法,词,句完全从字母学习语言的应用。在某些课题上确
实进步空间不大,比如静态图片分类,但是有些课题还有很大潜力可挖,比如文本处理
,语音,视频场景分析等等。现在就谈硬伤为时尚早
学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
络分层学习特征,才能达到解决实际问题的效果。
另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
的,根本没有所谓的真相,只有基于具体问题的performance好不好。
深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
其他机器学习模型结合也是扩展业务的一个大的发展方向。
深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
下来的研究重点的。hinton一直致力于继续研究人脑的机理来改进神经网络模型,其他
一些大牛则不过分拘泥于模拟自然脑,而是利用已经发掘的神经网络的原理另辟蹊径开
发应用,比如lecun的抛弃语法,词,句完全从字母学习语言的应用。在某些课题上确
实进步空间不大,比如静态图片分类,但是有些课题还有很大潜力可挖,比如文本处理
,语音,视频场景分析等等。现在就谈硬伤为时尚早
c*w
88 楼
在我看来CNN的本质在于
一是convolution, 这个约束极大的减少了参数的数量。
二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
人脑了。
按照Hinton牛的说法,CNN的改进方向在Pooling
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
一是convolution, 这个约束极大的减少了参数的数量。
二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
人脑了。
按照Hinton牛的说法,CNN的改进方向在Pooling
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
90 楼
我觉得CNN有效的重要原因之一 是max pooling+分层
这是对物体形状/纹理的很好的编码
比如 如下两个形状 都可以被识别为一类
--------------
_ _
- - -- --- ---
- _
【在 m****s 的大作中提到】
: 需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
: 学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
: 络分层学习特征,才能达到解决实际问题的效果。
: 另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
: 得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
: 的,根本没有所谓的真相,只有基于具体问题的performance好不好。
: 深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
: CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
: 其他机器学习模型结合也是扩展业务的一个大的发展方向。
: 深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
这是对物体形状/纹理的很好的编码
比如 如下两个形状 都可以被识别为一类
--------------
_ _
- - -- --- ---
- _
【在 m****s 的大作中提到】
: 需要那么多层主要是工程问题,理论上已经证明了只需一层的浅网络就可以模拟任何数
: 学模型,但是实际中没有有效的算法能学出来适合解决问题的模型,所以才用很深的网
: 络分层学习特征,才能达到解决实际问题的效果。
: 另外神经网络只是受到人脑的启发,实际上和人脑的工作原理是不是一样根本没有人说
: 得清,因为人脑是怎么工作的现在还没弄明白,所以说什么真相,都是压根儿没学明白
: 的,根本没有所谓的真相,只有基于具体问题的performance好不好。
: 深度学习现在主要两大块,generative和discriminative,也就是无监督和有监督,
: CNN只是一种模型,其他还有很多种模型,而且神经网络很多时候也不是单独在用,和
: 其他机器学习模型结合也是扩展业务的一个大的发展方向。
: 深度神经网络现在是处于hype之中,但是真正搞这个领域的还是很清楚它的优缺点和接
y*j
91 楼
1. 这不叫convolution,这是weight sharing,它能避免overfitting
2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
,还有当时的硬件配置比现在差太远了, 导致当时的失败。
我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:在我看来CNN的本质在于
:一是convolution, 这个约束极大的减少了参数的数量。
:二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
近人脑了。
:按照Hinton牛的说法,CNN的改进方向在Pooling
【在 c*****w 的大作中提到】
: 在我看来CNN的本质在于
: 一是convolution, 这个约束极大的减少了参数的数量。
: 二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
: 人脑了。
: 按照Hinton牛的说法,CNN的改进方向在Pooling
2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
,还有当时的硬件配置比现在差太远了, 导致当时的失败。
我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:在我看来CNN的本质在于
:一是convolution, 这个约束极大的减少了参数的数量。
:二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
近人脑了。
:按照Hinton牛的说法,CNN的改进方向在Pooling
【在 c*****w 的大作中提到】
: 在我看来CNN的本质在于
: 一是convolution, 这个约束极大的减少了参数的数量。
: 二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近
: 人脑了。
: 按照Hinton牛的说法,CNN的改进方向在Pooling
x*u
92 楼
现在神经网络单机的计算能力,已经超过了人脑。
当然结构大不一样,目前单机只够模拟人脑的部分功能。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
当然结构大不一样,目前单机只够模拟人脑的部分功能。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
c*w
97 楼
convolution enables weight sharing。否则干嘛用convolution,直接上full
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。
【在 y*j 的大作中提到】
: 1. 这不叫convolution,这是weight sharing,它能避免overfitting
: 2. 它实际上是一个pyramid 的概念,在机器视觉里应用很多
: 传统的神经网络一是层数没有这么多,二是没有weight sharing,还有其他的一些问题
: ,还有当时的硬件配置比现在差太远了, 导致当时的失败。
: 我认为现在deep learning 最大的约束是硬件:速度,核的数目,内存都需要极大的提
: 高。硅基的计算机比碳基的生物也许更有优势,将来也许会超过人。
:
: :在我看来CNN的本质在于
: :一是convolution, 这个约束极大的减少了参数的数量。
: :二是multi-layer,多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接
c*e
100 楼
什么叫骗子啊?这年月,叫 会吹牛。 我公司的ceo就特别会吹。 白人特别会说,做不
行。看看obama就明白了。白人都这德性。
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
行。看看obama就明白了。白人都这德性。
【在 w***g 的大作中提到】
: 做出来再说就成马后炮了。再说做了也可能做不出来,反而丢了工作。
: 我就选了小富即安,以后没啥前途我也认了。
: 穷人没啥机会成本,可以去搞野心。
: 小富了再去搞野心,机会成本太大,不划算。这个不是中国人的问题,
: 全人类都一样。Larry Ellison号称哈佛毕业就完蛋也是这个原因,
: 因为哈佛一毕业一般就小富了,不会再去实现野心。
: CEO里面骗子的比例比PhD的比例要高得多,但是骗子中穷人的比例比
: PhD中穷人的比例要高得更多。
: Update: 应该是耶鲁。反正都一样。
s*w
106 楼
赞大牛!
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
w*x
107 楼
我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
展还需要有个突破来解决逻辑处理 也许是某种RNN?
我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
如此大的差别~~~
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
108 楼
今天仔细想了想 觉得多层是没必要的
假设 有三层 全连接
第一层 第二层 第三层
第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
是个线性放大器
如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
这么看来 CNN的法宝 就是 max pooling + dropout
max pooling 相当于分级模板匹配 对物体形变的一种离散化
dropout 相当于聚类
我把 max pooling 的想法用在了另一个应用上 效果不错
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
假设 有三层 全连接
第一层 第二层 第三层
第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
是个线性放大器
如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
这么看来 CNN的法宝 就是 max pooling + dropout
max pooling 相当于分级模板匹配 对物体形变的一种离散化
dropout 相当于聚类
我把 max pooling 的想法用在了另一个应用上 效果不错
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
109 楼
研究的如何了?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
N*m
110 楼
感觉现在搞计算机的数学功底不行
谁要是把CNN的数学理论原理搞出来了,搞个图灵应该轻轻松松
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
谁要是把CNN的数学理论原理搞出来了,搞个图灵应该轻轻松松
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
L*8
111 楼
我设计了一种新的结构
相当于CNN 两层conv 两层max-pooling
MNIST 上跑到了0.87 错误率
是个啥水平?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
相当于CNN 两层conv 两层max-pooling
MNIST 上跑到了0.87 错误率
是个啥水平?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
k*i
113 楼
NN从计算的角度,相当于以“普适”的算法产生不同的参数来对应于各种特定的算法,
并能从中选择最优的参数来解答问题。
从CNN的角度,flying parts就是堆层超参,用各种architectures及frameworks来实现
并简化该过程。
大作中提到的meta parameters是要fix the flying parts,进而能适配各种应用吗?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
并能从中选择最优的参数来解答问题。
从CNN的角度,flying parts就是堆层超参,用各种architectures及frameworks来实现
并简化该过程。
大作中提到的meta parameters是要fix the flying parts,进而能适配各种应用吗?
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
v*k
116 楼
我说诸位表瞎猜cnn的物理意义了。这物理意义包括为啥convolution 为啥pooling学一
点信号处理就清楚的很。
点信号处理就清楚的很。
T*x
119 楼
赞。
【在 w*******x 的大作中提到】
: 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
: 熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
: interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
: 理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
: 脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
: layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
: 展还需要有个突破来解决逻辑处理 也许是某种RNN?
: 我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
: 如此大的差别~~~
【在 w*******x 的大作中提到】
: 我觉得CNN 本身作为视觉图像处理(模拟人类或动物视觉神经部分)应该是已经非常成
: 熟和有效了,不需要太多数据(order of 100)就可以达到高精度(比如把region of
: interest 做segmentaion 出来)。performance差主要来源于后面的类似于人的逻辑处
: 理的层 (比如判断什么物体,手势,结构等等),这些层也决定了人脑远胜于动物的
: 脑子,这些一般就简单的用fully connected layer来模拟,或者增加CNN的层数+FC
: layer来做,也许完全是”错“的。CNN很大程度解决了图像/语音处理,但也许DNN的发
: 展还需要有个突破来解决逻辑处理 也许是某种RNN?
: 我就想,智商160和智商60的大脑结构差在哪里? train出来的网络performance可以有
: 如此大的差别~~~
j*n
120 楼
mark
g*t
123 楼
For those question in the originial post:
"怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则
"
-----------------------------------------------------------
我有个处理参数的技术。
不管你什么预测模型,或者分类模型。
假如5个参数,分别选00001,00010,。。这样,然后
出来5路误差序列,e1,e2,e3,e4,e5。
通过对数据进行线性滤波的前处理,然后结果再逆变换
回来后处理,让中间的误差方向尽量分散。就是这五路误差尽量
正交。
直觉上来讲,误差的方向分散了,那么参数就充分用到了。
上面方法故意不考虑几个参数同时改变时候的coorelation情况,
相当于把一些东西简化成对角阵。这样使用面可以更广一些。
这个尽量把误差分散和正交的思路是我处理这些问题时侯的主要的trick。
前处理滤波器和后处理滤波器,可以优化设计出来
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
"怎么样可以改这个
architecture让预测效果变得更好? 因为design space实在太大,又没有
一个像牛顿定理那样的指导原则
"
-----------------------------------------------------------
我有个处理参数的技术。
不管你什么预测模型,或者分类模型。
假如5个参数,分别选00001,00010,。。这样,然后
出来5路误差序列,e1,e2,e3,e4,e5。
通过对数据进行线性滤波的前处理,然后结果再逆变换
回来后处理,让中间的误差方向尽量分散。就是这五路误差尽量
正交。
直觉上来讲,误差的方向分散了,那么参数就充分用到了。
上面方法故意不考虑几个参数同时改变时候的coorelation情况,
相当于把一些东西简化成对角阵。这样使用面可以更广一些。
这个尽量把误差分散和正交的思路是我处理这些问题时侯的主要的trick。
前处理滤波器和后处理滤波器,可以优化设计出来
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
z*k
124 楼
>>我的印象中没有人质疑architecture这个东西本身存在的合理性。。。。
>>为什么别人的architecture要这么定?
架构与brain视觉中枢神经架构比较相符。你可以质疑,但是单单质疑没啥意思。
>>应该只需要十几个功能正交的参数(meta parameter),而不是一层复一层垒重复性的
东西。
已有的正交的东西都试过了,才有人出来搞nn而且很成功。再说正交那都是线性主义的
老一套,试了又试,知道不行了。 nn优点恰好就是引入了非线性且融合得比较好。多
层重复架构是早旧有的仿视觉处理的multiscale approach, 不是nn弄出来的新东西。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
>>为什么别人的architecture要这么定?
架构与brain视觉中枢神经架构比较相符。你可以质疑,但是单单质疑没啥意思。
>>应该只需要十几个功能正交的参数(meta parameter),而不是一层复一层垒重复性的
东西。
已有的正交的东西都试过了,才有人出来搞nn而且很成功。再说正交那都是线性主义的
老一套,试了又试,知道不行了。 nn优点恰好就是引入了非线性且融合得比较好。多
层重复架构是早旧有的仿视觉处理的multiscale approach, 不是nn弄出来的新东西。
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
s*k
125 楼
假如第一层有16个feature map,第二层又来8个 filter,第二层就有16*8个feature
map了?这个越往后feature map会爆炸增加吧
【在 L****8 的大作中提到】
: 今天仔细想了想 觉得多层是没必要的
: 假设 有三层 全连接
: 第一层 第二层 第三层
: 第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
: 第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
: wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
: 是个线性放大器
: 如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
: 这么看来 CNN的法宝 就是 max pooling + dropout
: max pooling 相当于分级模板匹配 对物体形变的一种离散化
map了?这个越往后feature map会爆炸增加吧
【在 L****8 的大作中提到】
: 今天仔细想了想 觉得多层是没必要的
: 假设 有三层 全连接
: 第一层 第二层 第三层
: 第一层和第二层之间连接关系 A=[a_ij] 链接 节点i(第一层) 和 节点j (第二层)
: 第二层和第三层之间连接关系 B=[b_jk] 链接 节点i(第一层) 和 节点j (第二层)
: wdong所说有道理, 如果用ReLU节点+max pooling 那么多数情况输入都是正的 ReLU就
: 是个线性放大器
: 如果忽略放大倍数,第一层和第三层直接连接关系C=[c_ik] 满足 矩阵C=A*B
: 这么看来 CNN的法宝 就是 max pooling + dropout
: max pooling 相当于分级模板匹配 对物体形变的一种离散化
g*t
130 楼
1d 卷积就是RC电路什么的。2维是wave equation 之类PDE的解。
http://www.emis.de/journals/HOA/DENM/2007/49251.pdf
check equation 1.3
【在 a*********y 的大作中提到】
: ZKSS please.
http://www.emis.de/journals/HOA/DENM/2007/49251.pdf
check equation 1.3
【在 a*********y 的大作中提到】
: ZKSS please.
g*t
131 楼
我分开说,是因为多变量fourier分析其实我个人认为数学上没什么说法。
单变量的则研究的比较清楚了。
我怀疑最后是因为平面闭合曲线可以把平面分成两部分。
高维空间一条闭合曲线没这个兴致。
所以高维计算,各种分层分段分grid,步长什么的学问很大。
和time series这种1维的很不同。
【在 g****t 的大作中提到】
: 1d 卷积就是RC电路什么的。2维是wave equation 之类PDE的解。
: http://www.emis.de/journals/HOA/DENM/2007/49251.pdf
: check equation 1.3
单变量的则研究的比较清楚了。
我怀疑最后是因为平面闭合曲线可以把平面分成两部分。
高维空间一条闭合曲线没这个兴致。
所以高维计算,各种分层分段分grid,步长什么的学问很大。
和time series这种1维的很不同。
【在 g****t 的大作中提到】
: 1d 卷积就是RC电路什么的。2维是wave equation 之类PDE的解。
: http://www.emis.de/journals/HOA/DENM/2007/49251.pdf
: check equation 1.3
N*m
132 楼
据说DL的数学理论有人用group theory解决了
不知道真假
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
不知道真假
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
g*t
133 楼
This paper:
https://arxiv.org/abs/1410.3831
看着有道理。
但是重整化群本身就是个大的计算坑。这就好比说deep learning被PDE解释了类似。
‘解决’这个不好定义。
【在 N*****m 的大作中提到】
: 据说DL的数学理论有人用group theory解决了
: 不知道真假
https://arxiv.org/abs/1410.3831
看着有道理。
但是重整化群本身就是个大的计算坑。这就好比说deep learning被PDE解释了类似。
‘解决’这个不好定义。
【在 N*****m 的大作中提到】
: 据说DL的数学理论有人用group theory解决了
: 不知道真假
c*e
134 楼
很多公司最后 data scientist 工作就是把这些模型运行一下,调节一下参数
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
【在 w***g 的大作中提到】
: multi-layer convolutional neural network在一定程度上已经很接近事情的真相了,
: 不然不可能这么effective。2012年alexnet的横空出世其实有两个后果:
: 1. CNN研究多年的惨淡经营终于破茧而出,然后迅速解放生产力革了众多前CNN时代
: 原始算法的老命。这个所有人都知道。
: 2. 大部分人没意识到的是alexnet同时也把CNN的基本框架给夯实了,然后迅速杀死了
: 大部分alternative架构的研究,圈死了人们的想象力。
: CNN应用的一个核心概念就是"architecture",也就是一个描述CNN结构的小程序。
: 2012年以来看似CNN研究爆炸了,但是除了应用以外,对CNN本身的研究几乎全都
: 是围绕着这个architecture展开的:怎么添加新类型的layer,怎么增加层数,
: 怎么连,怎么算得快,等等等等。但是我的印象中没有人质疑architecture这个
相关阅读
想转行了,请大家帮着看看我现在求职情况和career路应该怎么走糖尿病世界级的大牛都有谁?请教一个统计问题一个mESCa分化的问题甲醇加了氯仿以后特别浑浊招人 -- 清华大学经费不达标,迫于领导压力英国帝国理工肿瘤学教授自杀有没有人可以提供病例翻译的服务? (转载)求一篇paper 的PDF,10个包子报答paper ask内推LC-MS相关职位 (转载)哀其不幸之后竟突然有一种恨其不争的感觉文章找大牛挂名?心血管杂志审稿机会!!国内打算投资50个亿专攻脑科学有大神用过Lambda Phosphatase千老半转行实例八角茴香和卤鸡肉也能做 phd 论文了生物review 求推荐之前做博士后的学校招人,我可以申请吗?