一个one-versus-one training的问题# DataSciences - 数据科学f*l2016-08-24 07:081 楼今天听人家说只要你户口本上显示的是未婚 那你再婚时 新对象也不会知道你结过婚 那如果真这样 大家都可以草率结婚啦 我觉得不太可能吧 不过也不懂,嘿嘿,就是好奇问问,没别的想法哦!
k*d2016-08-24 07:082 楼我发现我老是在LES班谈COMMON RELATIONSHIPS.会不会被扁.ANYWAY.我觉得我这个年纪(20--21)的女的的确很像色戒里面的王加芝.我们已经看透"学长哥哥"的"稳重成熟".所以我们拒绝.我们坚决只喜欢易先生.结果送命了....整部电影我只哭了两回.第一是王家芝对...(力宏)说:三年前你可以的.还有就是他们一大帮人被枪毙的那个拉长拉高的镜头..在死亡面前王加芝总算知道什么叫做..YOU'RE TOTALLY FUCKED.
o*12016-08-24 07:083 楼对于multi-class classification,一般有两种解决方案,即one-versus-all(ova)和one-versus-one(ovo)。前者比较好理解,后者在training阶段有点搞不清楚。举个简单的例子,有三种class/label,red, blue, green。分别有100,50和150个sample各自属于red,blue和green。那在做red versus blue的training的时候,那150个green labeled samples如何处理呢?是直接扔掉,还是随机地分配给red/blue呢?谢谢!
E*e2016-08-24 07:086 楼为是么不直接multiple class regression?:对于multi-class classification,一般有两种解决方案,即one-versus-all(ova)和:one-versus-one(ovo)。前者比较好理解,后者在training阶段有点搞不清楚。
o*12016-08-24 07:087 楼用在svm上的。multi-class classification法对于svm好像很难formulate出被优化的objective function。其实linear regression也很难做multi-class,一般只有纯logistic regression才用它吧。)和【在 E**********e 的大作中提到】: 为是么不直接multiple class regression?: : :对于multi-class classification,一般有两种解决方案,即one-versus-all(ova)和: :one-versus-one(ovo)。前者比较好理解,后者在training阶段有点搞不清楚。
E*e2016-08-24 07:088 楼现成的package也包含multiple class SVM啊:用在svm上的。multi-class classification法对于svm好像很难formulate出被优化的:objective function。其实linear regression也很难做multi-class,一般只有纯
o*12016-08-24 07:089 楼我猜那些package只是能用svm来解多class问题,但是背后的算法还是基于:2-class +ovo(or ova, or dagsvm, etc)。有抛弃2-class,直接multi-class的svm吗?化的【在 E**********e 的大作中提到】: 现成的package也包含multiple class SVM啊: : :用在svm上的。multi-class classification法对于svm好像很难formulate出被优化的: :objective function。其实linear regression也很难做multi-class,一般只有纯
d*e2016-08-24 07:0810 楼goolge "multiclass hinge loss"或者“multiclass SVM”至少能搜到四五种multiclass的hinge loss的variant【在 o******1 的大作中提到】: 用在svm上的。multi-class classification法对于svm好像很难formulate出被优化的: objective function。其实linear regression也很难做multi-class,一般只有纯: logistic regression才用它吧。: : )和
o*12016-08-24 07:0811 楼多谢多谢!我又搜了一下,的确有一些基于k-class的单一的objective function方法,比如Vapnik, Weston & Watkins, Bredensteiner and Bennett。有一篇16年的文章,比较了各种multi-class svm方法http://www.jmlr.org/papers/volume17/11-229/11-229.pdf。结论是建议把ova和 Weston & Watkins SVM作为default的两种方法。如果考虑计算时间,就用ova;否则WW svm很不错。【在 d******e 的大作中提到】: goolge "multiclass hinge loss"或者“multiclass SVM”至少能搜到四五种: multiclass的hinge loss的variant