l*r
2 楼
面试官说如果一个机器学习的model 过拟合了,要怎么改进,我想到了说 cross
validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
c*7
3 楼
no good
d*o
5 楼
google lowest price * 60%,就有人收
c*7
7 楼
自己用吧,备份备份资料,利润太小了
o*4
8 楼
Split data 3 ways: train, eval, validation. Train & tune your model using
the validation set, and only use eval for evaluation, never tune parameters
on the eval set.
the validation set, and only use eval for evaluation, never tune parameters
on the eval set.
w*o
9 楼
出了六个,还有三个,谁要?
m*0
12 楼
regularization, bagging, early stopping, add more training data
l*i
13 楼
多少钱, 要一个自用。。
r*g
18 楼
我也全忘了 刚搜了一下
E(R(fn) - R(f)*) < O(sqrt(Vf) * sqrt(log(n)/(n)))
fn是有n个data时候你设计的classifior
V(f)是这个classifior的复杂度
R(fn)是risk, R(f)*是f类classifior的最优risk
他的期望的bound是随着sqrt(Vf)的增加而增加的
这就是理论上为什么不能把classifior的复杂度设置的太高的原因
因为你无法控制error的上限
【在 w********n 的大作中提到】
: In practice, you can do anything about data when data is giving.
: You need to reduce the complexity of your model to overcome overfitting.
E(R(fn) - R(f)*) < O(sqrt(Vf) * sqrt(log(n)/(n)))
fn是有n个data时候你设计的classifior
V(f)是这个classifior的复杂度
R(fn)是risk, R(f)*是f类classifior的最优risk
他的期望的bound是随着sqrt(Vf)的增加而增加的
这就是理论上为什么不能把classifior的复杂度设置的太高的原因
因为你无法控制error的上限
【在 w********n 的大作中提到】
: In practice, you can do anything about data when data is giving.
: You need to reduce the complexity of your model to overcome overfitting.
w*n
19 楼
My two cents:
Overfitting arises from two sources:
1. Training data is out-dated and can not represent future.
2. Model is trained too much on training data.
So either getting more new data or reducing model complexity to reduce
overfitting.
【在 l**********r 的大作中提到】
: 面试官说如果一个机器学习的model 过拟合了,要怎么改进,我想到了说 cross
: validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
Overfitting arises from two sources:
1. Training data is out-dated and can not represent future.
2. Model is trained too much on training data.
So either getting more new data or reducing model complexity to reduce
overfitting.
【在 l**********r 的大作中提到】
: 面试官说如果一个机器学习的model 过拟合了,要怎么改进,我想到了说 cross
: validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
l*r
22 楼
面试官说是linear regression的模型,还能进一步简化模型么?感觉已经很简单了啊
h*3
25 楼
没有说出regularization的,基本上不大可能过。
cross-validation是估计accuracy的variance,但并不是解决overfit的办法。
cross-validation也不能让你知道是否overfitting。比如,这个P(Y|X)就是random产
生,任何一个model最好的accuracy就是0.5,给你再多的training数据都是这样,你怎
么通过cross-validation知道你的model是否overfitting呢?
【在 l**********r 的大作中提到】
: 面试官说如果一个机器学习的model 过拟合了,要怎么改进,我想到了说 cross
: validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
cross-validation是估计accuracy的variance,但并不是解决overfit的办法。
cross-validation也不能让你知道是否overfitting。比如,这个P(Y|X)就是random产
生,任何一个model最好的accuracy就是0.5,给你再多的training数据都是这样,你怎
么通过cross-validation知道你的model是否overfitting呢?
【在 l**********r 的大作中提到】
: 面试官说如果一个机器学习的model 过拟合了,要怎么改进,我想到了说 cross
: validation再重新训练,感觉面试官很不满意,应该怎么改进呢?想不到其他方法了
t*3
26 楼
cross validation画learning curve,如果cross validation error随着数据量的变大
和training error差距始终比较大就说明是overfitting了,反之如果在某个位置交叉
了就是underfitting
【在 h********3 的大作中提到】
: 没有说出regularization的,基本上不大可能过。
: cross-validation是估计accuracy的variance,但并不是解决overfit的办法。
: cross-validation也不能让你知道是否overfitting。比如,这个P(Y|X)就是random产
: 生,任何一个model最好的accuracy就是0.5,给你再多的training数据都是这样,你怎
: 么通过cross-validation知道你的model是否overfitting呢?
和training error差距始终比较大就说明是overfitting了,反之如果在某个位置交叉
了就是underfitting
【在 h********3 的大作中提到】
: 没有说出regularization的,基本上不大可能过。
: cross-validation是估计accuracy的variance,但并不是解决overfit的办法。
: cross-validation也不能让你知道是否overfitting。比如,这个P(Y|X)就是random产
: 生,任何一个model最好的accuracy就是0.5,给你再多的training数据都是这样,你怎
: 么通过cross-validation知道你的model是否overfitting呢?
相关阅读
面试时也讲究缘分的,说下经历请将你的双手舞动妈的本来以为米帝在衰败中,没想到中帝更不争气H1b transfer被RFE了 原因是SO 希望咨询一下材料准备的问题 非onsite表格上面reference不填会怎么样?Re: 请google的大神们给点建议Staff engineer面试咋准备?版上现在还有帮忙google内推的前辈吗?心在,梦犹在offer决定最讨厌的题:你有什么问题想问的吗?题目太难咋办50多岁焊板子老菜帮, 怎么办啊?【工作机会/内部推荐】Quantitative Analyst-NY问一个Amzn Analyst 的问题如何优雅的罢工?老板没有promote的意思咋办?F家去年12月初被拒,真的要等6个月么?白人56%,亚裔35我一辈子赖美帝某妹妹结婚后因为这一原因都找不到工作了