做减数分裂的博后可以申请什么fellowship啊# Biology - 生物学b*r2010-09-26 07:091 楼中信代签后只取回了护照。那些交上去的资料一概没返回,难道不退回给本人吗?还是怎么着,要邮寄回本人?大家什么经验?
c*n2010-09-26 07:092 楼1. Free $100 +双倍holiday bonus from Discover More® Card 最适合中美间使用的多彩卡片Discover信用卡 11/15-12/31双倍holiday bonushttp://bankbonus.blog.163.com/2.Chase Freedom Visa- $100 Bonus Cash Back0% Intro APRhttp://bankbonus.blog.163.com/3. Chase SapphireSM Card--$100 reward after first $500 purchasehttp://bankbonus.blog.163.com/4.免费的250刀 Chase SapphireSM Preferred Card需要满足这个offer的条件 优先考虑哈 里面有指导如何满足条件http://bankbonus.blog.163.com/5.Chase 力作 continental onepass信用卡 首笔消费就送30000miles(无金额限制)+$50免费bonus 最新优惠 信用卡首选http://bankbonus.blog.163.com/最近申请chase家的这个信用卡会弹出一个页面,写着Before you go…We hope youwill reconsider 难不成他们家最近被人拿太多这个免费机票了 不用对它客气,赶紧点击Return&Apply, 拿到落袋为安。http://bankbonus.blog.163.com/
E*a2010-09-26 07:093 楼这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。记不记得很久以前我们吵架,不高兴的时候我赌气说我自己会控制,不要你帮。你跟我说虽然独立很重要没有错,可是这个世界上总是有极少数的特别的人可以依靠,你就是我可以依靠的人。那些话你还记得么。我相信你说它们的时候,一定是真心的。后来事情发展,我们反反复复,终于彻底明白不可能再回到从前,也是不得已的事吧,我并不怪谁。今天我允许自己花时间想念你,而不是为这些办公室政治烦心,就是觉得想念你起码是一种正能量,我们真心喜欢过,一起快乐过,如果一定要花时间的话,总比琢磨那些虚伪的明争暗斗,好一些吧。现在写下这些字,不为纪念过去,只为放下工作,花一点时间做我愿意做的事而已。
n*72010-09-26 07:094 楼做一个n-class的分类在某种data上很难预测准确所以我打算退而求其次每次预测出k个class (k只要真实的class在这k个class之类,就算预测是有效的一个类比:n个坑可能都有地雷,通过预测,有地雷的坑缩小到其中的k个,所以这个预测还是有用的问题1. 这种策略有个名字没有?2. n-class 缩小到k-class,information gain要怎么算?1/k-1/n?谢谢
s*82010-09-26 07:096 楼好的. 守夜?【在 E***a 的大作中提到】: 这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了: 跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让: 我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的: 事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为: 那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。: 这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷: 在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和: 情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。: 我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要: 依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。
w*g2010-09-26 07:097 楼如果预测完全准确,information gain是 ln(n/k)。如果预测准确概率是p,算起来就绕了。假设prior是均匀分布,令K: 你预测的k个标签X: K覆盖真实标签这个事件, P(X) = pP(i): 缩小范围后实际标签是i的概率Q(i): 缩小范围前实际标签是i的概率, 无论如何都有Q(i)=1/nP(i)算起来很绕,要分i是否属于K,以及X是否发生算。如果i属于K,则(下面所有都省去"|i属于K")P(i) = P(i, X) + P(i, not X)= P(i|X)P(X) + P(i| not X)P(not X)P(i|X): i 属于K, 并且K个预测正确,所以P(i|X) = 1/kP(i|not X): not X表示预测失败,真实标签不在K中,所以P(i|not X) = 0所以 P(i) = p/k如果i不属于K,则(省去"|i 不属于K")P(i)展开同上,但是P(i|X): i 不属于K,而预测正确,正确标签在K中,所以P(i|X) = 0P(i|not X): 预测失败,正确标签在剩下(n-k)个中,所以P(i|not X) = 1/(n-k)所以 P(i) = (1-p)/(n-k)有了上面两个,就可以算KL divergence了D(P||Q) = sum P(i) ln {P(i)/Q(i)}= sum_{i in K} P(i) ln {P(i)/Q(i)}+ sum_{i not in K} P(i) ln {P(i)/Q(i)}= k*P(i)*ln{n*P(i)} | i in K+ (n-k)P(i)*ln{n*P(i)} | i not in K= p*ln{np/k} + (1-p)*ln{n(1-p)/(n-k)}= ln(n) + p*ln{p/k} + (1-p)ln{(1-p)/(n-k)}是不是我太闲了啊。整个论坛翻了好几遍,实在没有有意思的坑。这种做法我不知道标准名字,但见人用过。当年imagenet搞比赛,n=1000分类。又怕出来分数太难看,所以允许预测k=5个标签,有一个中了就算对。【在 n******7 的大作中提到】: 做一个n-class的分类: 在某种data上很难预测准确: 所以我打算退而求其次: 每次预测出k个class (k: 只要真实的class在这k个class之类,就算预测是有效的: 一个类比:n个坑可能都有地雷,通过预测,有地雷的坑缩小到其中的k个,所以这个预: 测还是有用的: 问题: 1. 这种策略有个名字没有?: 2. n-class 缩小到k-class,information gain要怎么算?1/k-1/n?
P*s2010-09-26 07:098 楼安慰下 希望你不再写的那天 也是快乐的开始但话说回来 我不喜欢正能量这个词儿【在 E***a 的大作中提到】: 这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了: 跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让: 我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的: 事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为: 那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。: 这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷: 在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和: 情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。: 我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要: 依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。
n*72010-09-26 07:099 楼谢谢Princeton PhD不懂的太多,顺便学习了一下Kullback–Leibler divergence的公式这个结果正式我想要的我实际是要求 p>=0.95,然后用training sample 评估k的大小k的值是某个关键variable a的函数有这个结果我就可以plot information gain vs a了这种策略如果没有一个标准名字,我就自己起一个吧,哈哈【在 w***g 的大作中提到】: 如果预测完全准确,information gain是 ln(n/k)。: 如果预测准确概率是p,算起来就绕了。: 假设prior是均匀分布,令: K: 你预测的k个标签: X: K覆盖真实标签这个事件, P(X) = p: P(i): 缩小范围后实际标签是i的概率: Q(i): 缩小范围前实际标签是i的概率, 无论如何都有Q(i)=1/n: P(i)算起来很绕,要分i是否属于K,以及X是否发生算。: 如果i属于K,则(下面所有都省去"|i属于K"): P(i) = P(i, X) + P(i, not X)