avatar
w*r
2
我目前试了好几个github不同的open source DNN,包括tensorflow/莫的老师/
research下面的code。。。现象如下:
1,拿他pre-train的model,跑我的dataset X,accuracy为a
2,基于pretrain的model,我在X上fine-tune,然后再在X上测,accuracy为b,b<3,我自己用公版training script在X上train from scratch,accuracy为c,c<第3步,可以说是我技不如人,但是train.py应该是没大问题
bother我的是第2步,别人的model在没见过我的dataset时的performance,比我让该
model在我的dataset加train几个epoch的结果还要好。。。
怎么解释?决定跟这个问题死磕了。。。
avatar
g*t
4
Try more epoch to check the trends?
In theory, the information should be fully absorbed if you use the dataset X
infinity times.

【在 w*****r 的大作中提到】
: 我目前试了好几个github不同的open source DNN,包括tensorflow/莫的老师/
: research下面的code。。。现象如下:
: 1,拿他pre-train的model,跑我的dataset X,accuracy为a
: 2,基于pretrain的model,我在X上fine-tune,然后再在X上测,accuracy为b,b<: 3,我自己用公版training script在X上train from scratch,accuracy为c,c<: 第3步,可以说是我技不如人,但是train.py应该是没大问题
: bother我的是第2步,别人的model在没见过我的dataset时的performance,比我让该
: model在我的dataset加train几个epoch的结果还要好。。。
: 怎么解释?决定跟这个问题死磕了。。。

avatar
a*e
5
really?

【在 r********n 的大作中提到】
: kao,住在我原来apt的隔壁...
avatar
w*g
6
我四月份花了一整个星期研究为啥一个pytorch的resnet比
tf.slim的resnet在cifar10上收敛的快。train model水太深了。
2和3我估计是同一个问题。b和c比怎么样? 正常的话我严重怀疑你分辨率太大了。

【在 w*****r 的大作中提到】
: 我目前试了好几个github不同的open source DNN,包括tensorflow/莫的老师/
: research下面的code。。。现象如下:
: 1,拿他pre-train的model,跑我的dataset X,accuracy为a
: 2,基于pretrain的model,我在X上fine-tune,然后再在X上测,accuracy为b,b<: 3,我自己用公版training script在X上train from scratch,accuracy为c,c<: 第3步,可以说是我技不如人,但是train.py应该是没大问题
: bother我的是第2步,别人的model在没见过我的dataset时的performance,比我让该
: model在我的dataset加train几个epoch的结果还要好。。。
: 怎么解释?决定跟这个问题死磕了。。。

avatar
r*n
7
那个车站就在我原来apt门口
天天赶点坐bus上学...

【在 a******e 的大作中提到】
: really?
avatar
w*r
8
如何从分辨率高推出 bb ~= a-3
c和b没可比性,公版model已经在imagenet上过了一遍了。不过可以确定的是,现在的
train.py能train出个大概,说明这个script没有大问题。

【在 w***g 的大作中提到】
: 我四月份花了一整个星期研究为啥一个pytorch的resnet比
: tf.slim的resnet在cifar10上收敛的快。train model水太深了。
: 2和3我估计是同一个问题。b和c比怎么样? 正常的话: 我严重怀疑你分辨率太大了。

avatar
a*e
9
前辈啊。。。受我一拜。。。。

【在 r********n 的大作中提到】
: 那个车站就在我原来apt门口
: 天天赶点坐bus上学...

avatar
h*c
10
听你们描述炼丹过程,感觉就是瞎几把乱试啊
avatar
x*u
12
你做fine-tune的时候lr过大了吧

【在 w*****r 的大作中提到】
: 我目前试了好几个github不同的open source DNN,包括tensorflow/莫的老师/
: research下面的code。。。现象如下:
: 1,拿他pre-train的model,跑我的dataset X,accuracy为a
: 2,基于pretrain的model,我在X上fine-tune,然后再在X上测,accuracy为b,b<: 3,我自己用公版training script在X上train from scratch,accuracy为c,c<: 第3步,可以说是我技不如人,但是train.py应该是没大问题
: bother我的是第2步,别人的model在没见过我的dataset时的performance,比我让该
: model在我的dataset加train几个epoch的结果还要好。。。
: 怎么解释?决定跟这个问题死磕了。。。

avatar
x*u
13
pytorch的模型都是改过的吧

【在 w***g 的大作中提到】
: 我四月份花了一整个星期研究为啥一个pytorch的resnet比
: tf.slim的resnet在cifar10上收敛的快。train model水太深了。
: 2和3我估计是同一个问题。b和c比怎么样? 正常的话: 我严重怀疑你分辨率太大了。

avatar
w*g
14
难道不是这样的?


:听你们描述炼丹过程,感觉就是瞎几把乱试啊
avatar
w*r
15
0.0001, 不大吧。。。

【在 x****u 的大作中提到】
: 你做fine-tune的时候lr过大了吧
avatar
x*u
16
我搞过的一个东西用只有1e-6才工作,万分之一立即爆掉

【在 w*****r 的大作中提到】
: 0.0001, 不大吧。。。
avatar
x*u
17
那都是为了发paper,工业界只要能出东西就行,没必要花几个月把结果都交叉验证一遍

【在 h**c 的大作中提到】
: 听你们描述炼丹过程,感觉就是瞎几把乱试啊
avatar
w*g
18
你用的是哪个轮子? 我很想仔细看眼。 因为各种坑特别多,在这行干我感觉
全靠见得多。

【在 w*****r 的大作中提到】
: 我目前试了好几个github不同的open source DNN,包括tensorflow/莫的老师/
: research下面的code。。。现象如下:
: 1,拿他pre-train的model,跑我的dataset X,accuracy为a
: 2,基于pretrain的model,我在X上fine-tune,然后再在X上测,accuracy为b,b<: 3,我自己用公版training script在X上train from scratch,accuracy为c,c<: 第3步,可以说是我技不如人,但是train.py应该是没大问题
: bother我的是第2步,别人的model在没见过我的dataset时的performance,比我让该
: model在我的dataset加train几个epoch的结果还要好。。。
: 怎么解释?决定跟这个问题死磕了。。。

avatar
w*r
19
我把 fine tune batch norm关掉,貌似就好了。能解释吗?


: 你用的是哪个轮子? 我很想仔细看眼。 因为各种坑特别多,在这行干我感觉

: 全靠见得多。



【在 w***g 的大作中提到】
: 你用的是哪个轮子? 我很想仔细看眼。 因为各种坑特别多,在这行干我感觉
: 全靠见得多。

avatar
w*g
20
TF有个坑是默认的batch_norm参数有问题。比如,我的model外面需要罩上这么多。
这个bn decay默认值也不是说有问题,毕竟人家那么牛的model也是这么train出来的。
但是对于小的dataset来说,默认的decay参数会收敛过慢。
我就知道这么多。
with slim.arg_scope([slim.conv2d, slim.conv2d_transpose, slim.max_pool2d
],
padding='SAME'), \
slim.arg_scope([slim.conv2d, slim.conv2d
_transpose], weights_regularizer=slim.l2_regularizer(2.5e-4), normalizer_fn=
slim.batch_norm, normalizer_params={'decay': 0.9, 'epsilon': 5e-4, 'scale':
False, 'is_training':is_training}), \
slim.arg_scope([slim.batch_norm], is_training=is_training):

【在 w*****r 的大作中提到】
: 我把 fine tune batch norm关掉,貌似就好了。能解释吗?
:
:
: 你用的是哪个轮子? 我很想仔细看眼。 因为各种坑特别多,在这行干我感觉
:
: 全靠见得多。
:

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。