Redian新闻
>
CNN和template matching到底有啥区别
avatar
w*g
5
是template matching, 如果光从预测算法来看, 甚至还不如传统的template matching.
deep learning的template matching就是内积+threshold, 可以认为是最最最土的
template matching. 传统的template matching算法往往比这个复杂, 而且也更
robust, 比如允许一定程度上的warping. 有时候对象一抖, template就匹配不上了.
Deep learning的对应方法是redundancy, 搞好多好多templates. 这个匹配不上了,
那个或许能匹配上. 以上不是关键.
deep learning牛x的地方是能够训练这些template, 而且是:
1. 一锅子训练. (2012年以前是一层一层训练, 当时甚至认为要deep必须一层一层
训练, 现在看来是不对的.) 一锅子的好处是层与层之间是配套的. 解的是一个
全局最优化问题, 而不是一系列局部最优化问题然后拼起来.
(注意不是全剧最优解. 不管是全局问题还是局部问题, 往往都得不到最优解.
但是全局次优解也比一堆局部次优解拼起来强.)
2. 能够对着最终的measurement of sucess做discriminative training.
很多传统方法依赖于建模. 比如目标是X, 然后科学家拍脑子想象, 如果优化了Y
应该也能优化X, 然后对着Y去优化. 科学家拍脑子这个往往在理论上正确, 但是
实际上会有缺陷. 一般科学家的方法往往是现实问题的简化版, 只能处理90%的
情况. 如果有好多步, 每一步都只有90%, 那最终结果肯定不会太好.
比如deep learning之前的主流算法SIFT + spatial pyramid + SVM, 其实
也是一个多层算法:
1 SIFT: 这个本身可以看成一个三层网络. 只不过所有参数都是算法写死的.
不能train.
2. k-means clustering算visual word: 这一步是sparse coding, 有几个
cluster就有几个模版. 这个模版是根据clustering目标算出来的, 跟最终
accuracy没有直接关系.
3. spatial pyramid + SVM: 这个才是discriminative training. 但是到
这一步, 很多可能有用的原始图像信息已经被前两步干掉了.

【在 L****8 的大作中提到】
: 按照这个文章
: https://www.cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf
: 直接设计一堆template 然后组装起来 不就行了

avatar
c*9
6
这个讲的清楚。

matching.

【在 w***g 的大作中提到】
: 是template matching, 如果光从预测算法来看, 甚至还不如传统的template matching.
: deep learning的template matching就是内积+threshold, 可以认为是最最最土的
: template matching. 传统的template matching算法往往比这个复杂, 而且也更
: robust, 比如允许一定程度上的warping. 有时候对象一抖, template就匹配不上了.
: Deep learning的对应方法是redundancy, 搞好多好多templates. 这个匹配不上了,
: 那个或许能匹配上. 以上不是关键.
: deep learning牛x的地方是能够训练这些template, 而且是:
: 1. 一锅子训练. (2012年以前是一层一层训练, 当时甚至认为要deep必须一层一层
: 训练, 现在看来是不对的.) 一锅子的好处是层与层之间是配套的. 解的是一个
: 全局最优化问题, 而不是一系列局部最优化问题然后拼起来.

avatar
k*f
7
最近流行的resnet,实在是太有用了,可以train很多层的网络,deep learning这种暴
力使用gpu算东西,还是非常强大的,

matching.

【在 w***g 的大作中提到】
: 是template matching, 如果光从预测算法来看, 甚至还不如传统的template matching.
: deep learning的template matching就是内积+threshold, 可以认为是最最最土的
: template matching. 传统的template matching算法往往比这个复杂, 而且也更
: robust, 比如允许一定程度上的warping. 有时候对象一抖, template就匹配不上了.
: Deep learning的对应方法是redundancy, 搞好多好多templates. 这个匹配不上了,
: 那个或许能匹配上. 以上不是关键.
: deep learning牛x的地方是能够训练这些template, 而且是:
: 1. 一锅子训练. (2012年以前是一层一层训练, 当时甚至认为要deep必须一层一层
: 训练, 现在看来是不对的.) 一锅子的好处是层与层之间是配套的. 解的是一个
: 全局最优化问题, 而不是一系列局部最优化问题然后拼起来.

avatar
r*y
8
一锅子训练的论文是哪篇?看初级教材没看到这个。

matching.

【在 w***g 的大作中提到】
: 是template matching, 如果光从预测算法来看, 甚至还不如传统的template matching.
: deep learning的template matching就是内积+threshold, 可以认为是最最最土的
: template matching. 传统的template matching算法往往比这个复杂, 而且也更
: robust, 比如允许一定程度上的warping. 有时候对象一抖, template就匹配不上了.
: Deep learning的对应方法是redundancy, 搞好多好多templates. 这个匹配不上了,
: 那个或许能匹配上. 以上不是关键.
: deep learning牛x的地方是能够训练这些template, 而且是:
: 1. 一锅子训练. (2012年以前是一层一层训练, 当时甚至认为要deep必须一层一层
: 训练, 现在看来是不对的.) 一锅子的好处是层与层之间是配套的. 解的是一个
: 全局最优化问题, 而不是一系列局部最优化问题然后拼起来.

avatar
w*g
9
没啥特定的论文. 一锅子指的是进去是原始图片, 出来就是最终结果.
如果直接就是学的CNN, 可能觉得事情本来就应该这样.
上古时期的算法要分好多步, 用不同的轮子, 经过好多中间结果才能出最终结果.

【在 r******y 的大作中提到】
: 一锅子训练的论文是哪篇?看初级教材没看到这个。
:
: matching.

avatar
c*9
10
cnn看起来很直观,不知道为什么出来这么晚。

【在 w***g 的大作中提到】
: 没啥特定的论文. 一锅子指的是进去是原始图片, 出来就是最终结果.
: 如果直接就是学的CNN, 可能觉得事情本来就应该这样.
: 上古时期的算法要分好多步, 用不同的轮子, 经过好多中间结果才能出最终结果.

avatar
w*g
11
LeCUN 1998, Gradient-Based Learning Applied to Document Recognition
这个是CNN的经典paper. 这篇paper引用了一篇1989年的paper [2].
所以CNN这个思想最晚1989年就有了, CNN这个名字和gradient descent这种
训练方法最晚1998年就定型了. 我觉得不能叫出来晚.
只不过在之前的数据量和硬件上发挥不出威力.
搞神经网络的, 上世纪八九十年代已经捞过一轮钱了, 最后没deliver东西.
这一波其实是重新包装了一下而已, 理论没多大发展.

【在 c*******9 的大作中提到】
: cnn看起来很直观,不知道为什么出来这么晚。
avatar
L*8
12
CNN 最近被打脸了 pia pia的
http://www.evolvingai.org/fooling

【在 w***g 的大作中提到】
: LeCUN 1998, Gradient-Based Learning Applied to Document Recognition
: 这个是CNN的经典paper. 这篇paper引用了一篇1989年的paper [2].
: 所以CNN这个思想最晚1989年就有了, CNN这个名字和gradient descent这种
: 训练方法最晚1998年就定型了. 我觉得不能叫出来晚.
: 只不过在之前的数据量和硬件上发挥不出威力.
: 搞神经网络的, 上世纪八九十年代已经捞过一轮钱了, 最后没deliver东西.
: 这一波其实是重新包装了一下而已, 理论没多大发展.

avatar
w*g
13
这有啥奇怪的. 这么大的参数空间, 可不就随便找碴吗.
machine learning最基本的假设: testing data和training data
从同样的概率分布采样. 如果这条假设不能保证, 任何
machine learning都无从谈起.

【在 L****8 的大作中提到】
: CNN 最近被打脸了 pia pia的
: http://www.evolvingai.org/fooling

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。