avatar
xgboost 训练大数据问题# Programming - 葵花宝典
s*t
1
OPT可以open business,然后当做事self-employed吗?
OPT刚开始了,一边找工作,也想做点small business。拿OPT的可以自己开business
然后self-employed吗?
有人这么做过吗?
因为OPT是practical training,自己做公司的话,可以算practical training
吗?
是不是公司做的事情也要和自己的专业要很相关吗?
之前好像在本版看到有人说过,但是已经找不到那个贴了。有人比较清楚的吗?
avatar
f*u
2
有人4月底从亚特兰大飞北京吗?找个伴。
avatar
g*u
3
大概15,000条数据 没条数据 100维度。
iteration 1000 次
感觉 xgboost 做不太动啊 半天不动。。。。貌似是 iteration 次数太多了?
各位 有何高见
avatar
g*g
4
re
我也在想这个问题

【在 s****t 的大作中提到】
: OPT可以open business,然后当做事self-employed吗?
: OPT刚开始了,一边找工作,也想做点small business。拿OPT的可以自己开business
: 然后self-employed吗?
: 有人这么做过吗?
: 因为OPT是practical training,自己做公司的话,可以算practical training
: 吗?
: 是不是公司做的事情也要和自己的专业要很相关吗?
: 之前好像在本版看到有人说过,但是已经找不到那个贴了。有人比较清楚的吗?

avatar
l*m
5
现在大家都用微软的light gbm

:大概15,000条数据 没条数据 100维度。
:iteration 1000 次
avatar
K*r
6
mark
avatar
g*u
7
听过 还没用。比xgboost 快点吗?
thx

【在 l*******m 的大作中提到】
: 现在大家都用微软的light gbm
:
: :大概15,000条数据 没条数据 100维度。
: :iteration 1000 次

avatar
s*t
8
顶一顶,又问知道吗?
avatar
w*r
9
这个大家指哪波人?

【在 l*******m 的大作中提到】
: 现在大家都用微软的light gbm
:
: :大概15,000条数据 没条数据 100维度。
: :iteration 1000 次

avatar
w*z
10
可以,绝对可以,自雇或者开公司ect
只要把你的专业和公司的工作性质扯上一些关系就可以了
avatar
l*m
11
当然是kagglers, 这些人都是墙头草,什么好用,什么快,用什么,是一个不错的
indicator. 话说lightgbm还发了篇nips

:这个大家指哪波人?
avatar
w*g
12
对对,最近全上pytorch了,这群畜生!

【在 l*******m 的大作中提到】
: 当然是kagglers, 这些人都是墙头草,什么好用,什么快,用什么,是一个不错的
: indicator. 话说lightgbm还发了篇nips
:
: :这个大家指哪波人?
: :

avatar
L*8
13
我准备学一下pytorch

【在 w***g 的大作中提到】
: 对对,最近全上pytorch了,这群畜生!
avatar
s*k
14
换light GBM,效率比xgboost好,软软正规军大力投入做的总比以学生为主的好一些

【在 g*******u 的大作中提到】
: 大概15,000条数据 没条数据 100维度。
: iteration 1000 次
: 感觉 xgboost 做不太动啊 半天不动。。。。貌似是 iteration 次数太多了?
: 各位 有何高见

avatar
x*u
15
pytorch有什么不好?

【在 w***g 的大作中提到】
: 对对,最近全上pytorch了,这群畜生!
avatar
w*g
16
没啥不好的地方,prototype应该比tf好。

:pytorch有什么不好?
avatar
w*r
17
业界离支持pytorch还远。例如nvidia的tensorRT还在从caffe往tensorflow转
avatar
w*g
18
Tensorrt这个版本还不行,太糙了。速度还不如tensorflow, 结果还是错的。

:业界离支持pytorch还远。例如nvidia的tensorRT还在从caffe往tensorflow转
avatar
w*r
19
embedded platform现在还有没有tensorflow的binary。。。tensorflow架不到
tensorRT上,我就废了啊。。。

【在 w***g 的大作中提到】
: Tensorrt这个版本还不行,太糙了。速度还不如tensorflow, 结果还是错的。
:
: :业界离支持pytorch还远。例如nvidia的tensorRT还在从caffe往tensorflow转

avatar
w*g
20
下个版本应该就好了。老黄这次是赶鸭子上架,拉冤大头做alpha测试呢。

【在 w*****r 的大作中提到】
: embedded platform现在还有没有tensorflow的binary。。。tensorflow架不到
: tensorRT上,我就废了啊。。。

avatar
x*o
21
我还留在keras,。。。。

【在 w***g 的大作中提到】
: 对对,最近全上pytorch了,这群畜生!
avatar
x*o
22
我还留在keras,。。。。

【在 w***g 的大作中提到】
: 对对,最近全上pytorch了,这群畜生!
avatar
x*o
23

lightgbm比xgboost快不少

【在 s********k 的大作中提到】
: 换light GBM,效率比xgboost好,软软正规军大力投入做的总比以学生为主的好一些
avatar
g*u
24
快不少?
快在哪里? 不用early stop感觉时间差不多啊

【在 x********o 的大作中提到】
:
: lightgbm比xgboost快不少

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。