avatar
xiaoju 老师进来一下# Programming - 葵花宝典
m*l
1
没有一点概念,请帮忙看看。
washer应该是3.5-4cu呢,还是5-6cu?
dryer更是一头雾水了。
谢谢了。
avatar
s*y
2
这个有人看过么? 怎么样?
avatar
b*d
3
刚开始学习,两个问题想学习一下,
1. “制约CNN的不是硬件而是sigmoid函数”
sigmoid函数怎么制约了CNN?
2. 网络里很多地方引入了随机数,比如在DBN中的初始场和激活函数,
为什么一定要引入随机?而实际计算过程中,epoch,batch循环时这个貌似随机数 并
不是真正的随机(每次循环时都是相同的)。
avatar
n*i
4
washer一般4.5就是最大的了。没见过5-6的。
3.7以上就足够用了,主要是大东西,象king size床单被子。

【在 m*******l 的大作中提到】
: 没有一点概念,请帮忙看看。
: washer应该是3.5-4cu呢,还是5-6cu?
: dryer更是一头雾水了。
: 谢谢了。

avatar
t*o
5
没看过。
avatar
x*u
6
你问wdong更好,他专业我是业余爱好者
1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

【在 b***d 的大作中提到】
: 刚开始学习,两个问题想学习一下,
: 1. “制约CNN的不是硬件而是sigmoid函数”
: sigmoid函数怎么制约了CNN?
: 2. 网络里很多地方引入了随机数,比如在DBN中的初始场和激活函数,
: 为什么一定要引入随机?而实际计算过程中,epoch,batch循环时这个貌似随机数 并
: 不是真正的随机(每次循环时都是相同的)。

avatar
w*g
8
这个我也不知道。太细节了。

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

avatar
i*i
11
把链接挪到顶楼吧?我去跟版主推荐给你m上方便大家点看。
这个系列听着有看头。

【在 s*y 的大作中提到】
: http://www.youtube.com/watch?v=wf_OlfHUqd8&list=PLTKmhijzgktNlW
: 小推荐一下,据说都是根据真实案件来的,关键一点都不拖沓,都有小曲折

avatar
b*d
12
谢谢

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

avatar
l*z
13
Relu 死起来也可以死的很难看
dropout有啥理论基础?感觉很诡异

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

avatar
n*r
14
Drop out就是一种regularization的方式,随机断掉的方式可以让节点之间的耦合度降
低,减少overfit

【在 l*****z 的大作中提到】
: Relu 死起来也可以死的很难看
: dropout有啥理论基础?感觉很诡异

avatar
n*r
15
随机一方面是为了打破对称性,让Back Propagation能算下去
另一方面GD本质是是空间的搜索,随机起始点搞多次是比较常见的搞法

【在 x****u 的大作中提到】
: 你问wdong更好,他专业我是业余爱好者
: 1是因为sigmoid梯度消失限制了深度,relu简单粗暴的解决了问题;
: 2我不清楚随机在神经网络里的本质意义,似乎也没有人理论上搞出结论。感觉目前各
: 种随机性的引入基于经验规律多点。很多代码每次用固定种子是为了确保结果可重复。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。