Redian新闻
>
有论文说大batch size会导致过拟合
avatar
有论文说大batch size会导致过拟合# Programming - 葵花宝典
y*h
1
有朋友介绍discover的online saving account,说利率比较高。但我不太懂这个
online saving account和一般的saving account有什么区别。存钱在这里面安全吗?
版上有大虾请不吝赐教
avatar
n*e
2
从原公司离职了,老板说了让我加油找工作不会阻挠。找工作的时候新公司看我之前的
雇佣合同里有noncompete,所以要我开个证明。但是原来的公司说不方便开release
form,但同时也不会执行NC(因为他们也不付钱给我),现在还有什么办法能证明我不
被这个约束么?
谢谢!
avatar
v*n
4

现在不行了 改AMEX的吧

【在 y**h 的大作中提到】
: 有朋友介绍discover的online saving account,说利率比较高。但我不太懂这个
: online saving account和一般的saving account有什么区别。存钱在这里面安全吗?
: 版上有大虾请不吝赐教

avatar
c*z
5
ask a lawyer?
avatar
L*8
6
For all experiments, we used
10% of the training data as batch size for the large-batch experiments
and 256 data points for small-batch experiments.
512 batch_size应该不算大的

【在 x****u 的大作中提到】
: https://arxiv.org/abs/1609.04836
: On Large-Batch Training for Deep Learning: Generalization Gap and Sharp
: Minima

avatar
d*y
7
online和普通saving基本没区别,区别在于没有local branch、或者即使有也不提供
local的服务,另外区别就是rate不太一样。

【在 y**h 的大作中提到】
: 有朋友介绍discover的online saving account,说利率比较高。但我不太懂这个
: online saving account和一般的saving account有什么区别。存钱在这里面安全吗?
: 版上有大虾请不吝赐教

avatar
p*y
8
I heard not paid non compete is not enforcible.

【在 c***z 的大作中提到】
: ask a lawyer?
avatar
x*u
9
这主要讲的是趋势问题
我的感觉是batch size越大学习能力越强,但数据集是人类手工设计的,过强学习能力
容易学到系统偏差

【在 L****8 的大作中提到】
: For all experiments, we used
: 10% of the training data as batch size for the large-batch experiments
: and 256 data points for small-batch experiments.
: 512 batch_size应该不算大的

avatar
y*h
10
看来应该是安全的。
好的。谢谢
avatar
g*u
11
靠 参加为啥要放弃权力?
你该怎么做就怎么做 你一点问题也没有 不要担心。并且你也没必要和老伴说这个事
情,没必要waive
avatar
w*g
12
昨天又看到两篇paper/帖子,没细看。 一篇说batch size大容易过早收敛。
另一篇说训练到后来不应该缩小learning rate而是应该增大batch size。
那种好几k的batch size应该是上了8显卡吧。
刚刚好不容易拼出一个2 titan xp的机器,还不甚稳定。小作坊日子不容易啊。

【在 L****8 的大作中提到】
: For all experiments, we used
: 10% of the training data as batch size for the large-batch experiments
: and 256 data points for small-batch experiments.
: 512 batch_size应该不算大的

avatar
s*r
13
amex的apr现在是多少啊?
avatar
g*u
14
你的 10% of train 和 256 谁好?

【在 L****8 的大作中提到】
: For all experiments, we used
: 10% of the training data as batch size for the large-batch experiments
: and 256 data points for small-batch experiments.
: 512 batch_size应该不算大的

avatar
S*9
15
1.15%?

【在 s*****r 的大作中提到】
: amex的apr现在是多少啊?
avatar
l*m
16
100-300 GPUs, haha

【在 w***g 的大作中提到】
: 昨天又看到两篇paper/帖子,没细看。 一篇说batch size大容易过早收敛。
: 另一篇说训练到后来不应该缩小learning rate而是应该增大batch size。
: 那种好几k的batch size应该是上了8显卡吧。
: 刚刚好不容易拼出一个2 titan xp的机器,还不甚稳定。小作坊日子不容易啊。

avatar
x*u
17
最近比特币价格不好,可以找挖矿的租空闲资源

【在 w***g 的大作中提到】
: 昨天又看到两篇paper/帖子,没细看。 一篇说batch size大容易过早收敛。
: 另一篇说训练到后来不应该缩小learning rate而是应该增大batch size。
: 那种好几k的batch size应该是上了8显卡吧。
: 刚刚好不容易拼出一个2 titan xp的机器,还不甚稳定。小作坊日子不容易啊。

avatar
w*r
18
你想多了,人家可以用CPU做实验


: 昨天又看到两篇paper/帖子,没细看。 一篇说batch size大容易过早收
敛。

: 另一篇说训练到后来不应该缩小learning rate而是应该增大batch size。

: 那种好几k的batch size应该是上了8显卡吧。

: 刚刚好不容易拼出一个2 titan xp的机器,还不甚稳定。小作坊日子不容
易啊。



【在 w***g 的大作中提到】
: 昨天又看到两篇paper/帖子,没细看。 一篇说batch size大容易过早收敛。
: 另一篇说训练到后来不应该缩小learning rate而是应该增大batch size。
: 那种好几k的batch size应该是上了8显卡吧。
: 刚刚好不容易拼出一个2 titan xp的机器,还不甚稳定。小作坊日子不容易啊。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。