Redian新闻
>
random forest/xgbclassifier的feature importance
avatar
random forest/xgbclassifier的feature importance# DataSciences - 数据科学
B*1
1
我和前夫已经离婚五年了,五年前离婚后我才发现自己怀孕,那时候与前夫感情不顺
利加上离婚的打击,我就选择了离开,换了个城市生活当单亲妈妈。
之前因为工作调动的原因就回到了原来生活过的城市,本来想着五年过去了,大家
都开始了新的生活,就不太纠结于之前的一些不开心,当初带着孩子走,我确实有做的
不合适的地方,但当时的那种情况下我根本没有其他的选择,五年过去了,说不定前夫
都有了新的家庭,我也不想去打扰他或者和他有一些其他的纠葛,至于孩子的话,条件
合适找个机会让父子见见面,如果条件不合适或者前夫不愿意认的话,我就自己养,五
年的单亲妈妈生活虽然艰难,但我好歹平平安安的带大了我的孩子。
我确实做好了一切准备,可是事情又怎么会那么顺利的照着我想的发展呢,父子确
实见面也相认了,可现在前夫要和我抢孩子了!我怎么能抢得过他呢,当初还没离婚的
时候我就没地位,他家里条件也比较好,人脉什么的都广,我就只是一个单亲妈妈,而
且我还剥夺了他们父子的五年的相处时光!
真的,当初带着孩子不告而别是我的错,但除此之外我没对不起他,当初会离婚也
不是因为我,孩子是我的精神支柱,我真的离不开我的孩子,现在除了上法庭已经没有
其他办法可以保住我的孩子了,但是律师不是不愿意接我的案子就是说肯定打不赢,我
该怎么办才能不让我们母子分离啊!!
avatar
j*2
2
婚后,双人床男女睡那边很重要,能够看出男女的性格,一般男生都睡在左面(靠门)
,因为男生天生喜欢保护女生尤其是自己的爱人。
那么另一种情况就是女生睡左面,这类女生性格很强,不喜欢男生左右自己,夫妻往往
时常吵架,多半会发生“同床异梦”的情况。
你有没有感觉到妻子有意无意总是睡在左边,夫妻之间争吵变多等等。关于女生睡左边
,主要是现在家庭装修风格的关系,女生婚前自己一个闺房,为了方便多会选择睡在靠
门的给边(左边),因为靠门起夜行动方便。
她并不是一定想要睡左边,但如果你不管,不加以克制,长此以往慢慢气场就会改变她
的性格,你会感觉到争吵越来越多,她不在善解人意,这就是变化的开始了。
有人说真的有气场吗?这个是肯定的,很多生活在一起的夫妻就会让人感觉长得像,这
就是我们常说的夫妻像。所以,不要小看了夫妻睡床的位置。很多本来恩爱的情侣,就
因为不注意这个小细节,而最终分道扬镳。
所以,赶快检查一下,看看你的妻子是不是睡在这边,当然劝导要讲究方法哟,不然的
话还没开始,你可能就要被家暴了。
avatar
f*n
3
用ensemble training的时候,一般我也很感兴趣feature importance
比如我的model的accuracy是0.85, 同时得到这样的feature importance:
Importance
Feature-1 0.25
Feature-2 0.09
Feature-3 0.08
明显Feature-1是最重要的;所以我就把Feature-1 除去,用剩下的feature计算,
我发现哪怕去除了Feature-1,accuracy还有0.79
我其实不是很懂feature importance的算法,只是觉得比如Feature-1应该贡献了25%的
,所以去掉Feature-1后model accuracy应该大大降低,但为何还是有0.79呢?
是不是因为这就是ensemble的优势?依赖于各种weak feature的集合?所以去掉重要
feature也不那么sensitive?
avatar
m*n
4
feature importance就是tree里面的entropy
你去掉了一个,排第二的只不过取而代之而已。
avatar
s*h
5
你有多少feature?
1.0.85-> 0.79已经是很明显的drop了。
2.相关性。feature-1缺失了剩下的相关的feature就step up了。

【在 f*****n 的大作中提到】
: 用ensemble training的时候,一般我也很感兴趣feature importance
: 比如我的model的accuracy是0.85, 同时得到这样的feature importance:
: Importance
: Feature-1 0.25
: Feature-2 0.09
: Feature-3 0.08
: 明显Feature-1是最重要的;所以我就把Feature-1 除去,用剩下的feature计算,
: 我发现哪怕去除了Feature-1,accuracy还有0.79
: 我其实不是很懂feature importance的算法,只是觉得比如Feature-1应该贡献了25%的
: ,所以去掉Feature-1后model accuracy应该大大降低,但为何还是有0.79呢?

avatar
f*n
6
大概300个feature
恩。你说的很对,有一些跟feature-1相关的其他feature就“顶上来”替代了
不过,既然这个feature-1占了0.3这么大比例的importance,为何去掉后,百分比之降
低了6%?

【在 s*********h 的大作中提到】
: 你有多少feature?
: 1.0.85-> 0.79已经是很明显的drop了。
: 2.相关性。feature-1缺失了剩下的相关的feature就step up了。

avatar
s*n
7
6%超级大了。你还得给一些其他正确率的数据做参考,说不定全0或者全1也有75%正
确率啊,那你掉到了79%岂不是离最蠢模型不远了?

【在 f*****n 的大作中提到】
: 大概300个feature
: 恩。你说的很对,有一些跟feature-1相关的其他feature就“顶上来”替代了
: 不过,既然这个feature-1占了0.3这么大比例的importance,为何去掉后,百分比之降
: 低了6%?

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。