g*u
2 楼
features dim 大概有60
做多类分类
总共有训练样本10,000 测试样本2000
iteration set 1000
训练样本从1000 逐渐增加到10,000, train error 一直是 0 .。。
test error 在样本增加到7000左右的时候 变很小
其他还可以解释.
这个training error 随着样本增加 都不变 而且一直是 0.
哪里可能出问题?谢谢
做多类分类
总共有训练样本10,000 测试样本2000
iteration set 1000
训练样本从1000 逐渐增加到10,000, train error 一直是 0 .。。
test error 在样本增加到7000左右的时候 变很小
其他还可以解释.
这个training error 随着样本增加 都不变 而且一直是 0.
哪里可能出问题?谢谢
w*g
4 楼
xgb就是train error很小的。你把树深度缩小点能有改进。
:features dim 大概有60
:做多类分类
:features dim 大概有60
:做多类分类
m*r
7 楼
xgb参数挺多的,好像5,6个都不止。
n*g
10 楼
魏老师威武!
哈哈问个初级问题 这model 咋储存的?如果是linear regression 那么好办 存个
weights array w1 w2 ... 就好
这种树模型是咋存到memory里的?
不好意思钱老转行 基础知识不扎实
[在 wdong (万事休) 的大作中提到:]
:树深10那绝对太深了。我用xgb做了不少东西啦,树深从没超过3。
哈哈问个初级问题 这model 咋储存的?如果是linear regression 那么好办 存个
weights array w1 w2 ... 就好
这种树模型是咋存到memory里的?
不好意思钱老转行 基础知识不扎实
[在 wdong (万事休) 的大作中提到:]
:树深10那绝对太深了。我用xgb做了不少东西啦,树深从没超过3。
m*r
11 楼
你要是用R的话,可以把模型dump成为txt文件或json文件,得到的无非是一堆树, 每
个树无非是if, else 其实挺简单的。 预测的时候,每一颗树对一个observation计算
一下,比如200棵树,你就有200个值(概率),自己求个平均。
我上回碰到个问题: 明明模型训练时我看有比如200个iteration, dump出来的树有201
棵,没想出来怎么回事,也许你可以看看。
【在 n******g 的大作中提到】![](/moin_static193/solenoid/img/up.png)
: 魏老师威武!
: 哈哈问个初级问题 这model 咋储存的?如果是linear regression 那么好办 存个
: weights array w1 w2 ... 就好
: 这种树模型是咋存到memory里的?
: 不好意思钱老转行 基础知识不扎实
: [在 wdong (万事休) 的大作中提到:]
: :树深10那绝对太深了。我用xgb做了不少东西啦,树深从没超过3。
个树无非是if, else 其实挺简单的。 预测的时候,每一颗树对一个observation计算
一下,比如200棵树,你就有200个值(概率),自己求个平均。
我上回碰到个问题: 明明模型训练时我看有比如200个iteration, dump出来的树有201
棵,没想出来怎么回事,也许你可以看看。
【在 n******g 的大作中提到】
![](/moin_static193/solenoid/img/up.png)
: 魏老师威武!
: 哈哈问个初级问题 这model 咋储存的?如果是linear regression 那么好办 存个
: weights array w1 w2 ... 就好
: 这种树模型是咋存到memory里的?
: 不好意思钱老转行 基础知识不扎实
: [在 wdong (万事休) 的大作中提到:]
: :树深10那绝对太深了。我用xgb做了不少东西啦,树深从没超过3。
n*g
12 楼
理解点了 你说的挺好 大概是一堆Boolean 函数?
[在 magliner (magliner) 的大作中提到:]
:你要是用R的话,可以把模型dump成为txt文件或json文件,得到的无非是一堆树, 每
:个树无非是if, else 其实挺简单的。 预测的时候,每一颗树对一个observation计
算一下,比如200棵树,你就有200个值(概率),自己求个平均。
:我上回碰到个问题: 明明模型训练时我看有比如200个iteration, dump出来的树有
201棵,没想出来怎么回事,也许你可以看看。
[在 magliner (magliner) 的大作中提到:]
:你要是用R的话,可以把模型dump成为txt文件或json文件,得到的无非是一堆树, 每
:个树无非是if, else 其实挺简单的。 预测的时候,每一颗树对一个observation计
算一下,比如200棵树,你就有200个值(概率),自己求个平均。
:我上回碰到个问题: 明明模型训练时我看有比如200个iteration, dump出来的树有
201棵,没想出来怎么回事,也许你可以看看。
w*g
13 楼
可能你的问题就是需要比较深的。3不够再试456。我还是觉得不需要到10。
不过test如果到了0.99了,也没必要再折腾了。
一般就是training accuracy >> test accuracy时要尝试减小树的深度,增加
regularization。 一直减/加到test accuracy不再升高为止。
【在 g*******u 的大作中提到】![](/moin_static193/solenoid/img/up.png)
: 多谢大神指点, 那就说问题不大呗?现在树深 10. 三类问题。看到train error 0 怕
: 给老板到最后闹乌龙。
: 另外感觉 xgboost 也基本不需要调参数啊。。。。也就是树的深度调节一下, 循环
: 次数调节一下
: eta 大部分情况 0.1 or 0.08就很好用。其他 也基本不需要调节啊。
不过test如果到了0.99了,也没必要再折腾了。
一般就是training accuracy >> test accuracy时要尝试减小树的深度,增加
regularization。 一直减/加到test accuracy不再升高为止。
【在 g*******u 的大作中提到】
![](/moin_static193/solenoid/img/up.png)
: 多谢大神指点, 那就说问题不大呗?现在树深 10. 三类问题。看到train error 0 怕
: 给老板到最后闹乌龙。
: 另外感觉 xgboost 也基本不需要调参数啊。。。。也就是树的深度调节一下, 循环
: 次数调节一下
: eta 大部分情况 0.1 or 0.08就很好用。其他 也基本不需要调节啊。
g*u
14 楼
是啊
有尝试了下
深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
但是10的 时候 可以到 99%
之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
不过很好的 经验了 记下了
另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
现在 sensitivity 98.5% specificity 99.2%
sensitivity 还差距很大的。
估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
【在 w***g 的大作中提到】![](/moin_static193/solenoid/img/up.png)
: 可能你的问题就是需要比较深的。3不够再试456。我还是觉得不需要到10。
: 不过test如果到了0.99了,也没必要再折腾了。
: 一般就是training accuracy >> test accuracy时要尝试减小树的深度,增加
: regularization。 一直减/加到test accuracy不再升高为止。
有尝试了下
深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
但是10的 时候 可以到 99%
之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
不过很好的 经验了 记下了
另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
现在 sensitivity 98.5% specificity 99.2%
sensitivity 还差距很大的。
估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
【在 w***g 的大作中提到】
![](/moin_static193/solenoid/img/up.png)
: 可能你的问题就是需要比较深的。3不够再试456。我还是觉得不需要到10。
: 不过test如果到了0.99了,也没必要再折腾了。
: 一般就是training accuracy >> test accuracy时要尝试减小树的深度,增加
: regularization。 一直减/加到test accuracy不再升高为止。
h*e
15 楼
试试调class weight吧
【在 g*******u 的大作中提到】![](/moin_static193/solenoid/img/up.png)
: 是啊
: 有尝试了下
: 深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
: 但是10的 时候 可以到 99%
: 之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
: 不过很好的 经验了 记下了
: 另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
: 现在 sensitivity 98.5% specificity 99.2%
: sensitivity 还差距很大的。
: 估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
【在 g*******u 的大作中提到】
![](/moin_static193/solenoid/img/up.png)
: 是啊
: 有尝试了下
: 深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
: 但是10的 时候 可以到 99%
: 之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
: 不过很好的 经验了 记下了
: 另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
: 现在 sensitivity 98.5% specificity 99.2%
: sensitivity 还差距很大的。
: 估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
w*g
16 楼
见识新东西啦
【在 g*******u 的大作中提到】![](/moin_static193/solenoid/img/up.png)
: 是啊
: 有尝试了下
: 深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
: 但是10的 时候 可以到 99%
: 之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
: 不过很好的 经验了 记下了
: 另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
: 现在 sensitivity 98.5% specificity 99.2%
: sensitivity 还差距很大的。
: 估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
【在 g*******u 的大作中提到】
![](/moin_static193/solenoid/img/up.png)
: 是啊
: 有尝试了下
: 深度 减少到3,4 的时候 精度是 98%多点吧 之前算错了
: 但是10的 时候 可以到 99%
: 之前觉得犹豫也是因为 虽然觉得可能overfit 但是 testdata上 比较好 。
: 不过很好的 经验了 记下了
: 另外 我这个问题 要做到 sensitivity 接近 100% specificity最好 95%以上
: 现在 sensitivity 98.5% specificity 99.2%
: sensitivity 还差距很大的。
: 估计 调整阈值以后 sensitivity 每升一点点, specificity 就会下降很多。。
相关阅读
求助,window10下安装不了armadillo库古赵=书生,魏=范进,月光xuer=市井地痞南加州公司找 Embedded Linux Software Engineer再说说 12306JAVA 考试题请教如果古霸走了,以后就由我来没事就损你吧.net mvc & web api 架构 求建议和意见??老魏的所谓hot standby就是上个世纪的solutionspacex这种,中国如果山寨的话,怎么个入手? (转载)这个牛掰,看看那个video新年快乐再请教个关于API Gateway-micro service的问题我是否需要Move(C++11)?zhaoce 这句 “然后web servers -> db是一个一对一或者一对多的关系 ” 我糊涂了避免零除的条件判断狗腿子真讨厌啊每天吃饱喝足娃睡觉后就是来这版上看直播科学家:满嘴脏话的人词汇量更大 编程能力更好(图)诸位数据visualization都用什么框架?说点技术之外的话题:2份全工