Redian新闻
>
做减数分裂的博后可以申请什么fellowship啊
avatar
做减数分裂的博后可以申请什么fellowship啊# Biology - 生物学
b*r
1
中信代签后只取回了护照。那些交上去的资料一概没返回,难道不退回给本人吗?还是
怎么着,要邮寄回本人?
大家什么经验?
avatar
c*n
2
1. Free $100 +双倍holiday bonus from Discover More® Card 最适合中美间使
用的多彩卡片Discover信用卡 11/15-12/31双倍holiday bonus
http://bankbonus.blog.163.com/
2.Chase Freedom Visa- $100 Bonus Cash Back
0% Intro APR
http://bankbonus.blog.163.com/
3. Chase SapphireSM Card--$100 reward after first $500 purchase
http://bankbonus.blog.163.com/
4.免费的250刀 Chase SapphireSM Preferred Card需要满足这个offer的条件 优先考
虑哈 里面有指导如何满足条件
http://bankbonus.blog.163.com/
5.Chase 力作 continental onepass信用卡 首笔消费就送30000miles(无金额限制)+
$50免费bonus 最新优惠 信用卡首选
http://bankbonus.blog.163.com/
最近申请chase家的这个信用卡会弹出一个页面,写着Before you go…We hope you
will reconsider 难不成他们家最近被人拿太多这个免费机票了 不用对它客气,
赶紧点击Return&Apply, 拿到落袋为安。
http://bankbonus.blog.163.com/
avatar
E*a
3
这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了
跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让
我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的
事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为
那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。
这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷
在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和
情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。
我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要
依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。
记不记得很久以前我们吵架,不高兴的时候我赌气说我自己会控制,不要你帮。你跟我
说虽然独立很重要没有错,可是这个世界上总是有极少数的特别的人可以依靠,你就是
我可以依靠的人。
那些话你还记得么。我相信你说它们的时候,一定是真心的。后来事情发展,我们反反
复复,终于彻底明白不可能再回到从前,也是不得已的事吧,我并不怪谁。
今天我允许自己花时间想念你,而不是为这些办公室政治烦心,就是觉得想念你起码是
一种正能量,我们真心喜欢过,一起快乐过,如果一定要花时间的话,总比琢磨那些虚
伪的明争暗斗,好一些吧。
现在写下这些字,不为纪念过去,只为放下工作,花一点时间做我愿意做的事而已。
avatar
n*7
4
做一个n-class的分类
在某种data上很难预测准确
所以我打算退而求其次
每次预测出k个class (k只要真实的class在这k个class之类,就算预测是有效的
一个类比:n个坑可能都有地雷,通过预测,有地雷的坑缩小到其中的k个,所以这个预
测还是有用的
问题
1. 这种策略有个名字没有?
2. n-class 缩小到k-class,information gain要怎么算?1/k-1/n?
谢谢
avatar
h*y
5
做减数分裂的博后可以申请什么fellowship啊
avatar
s*8
6
好的. 守夜?

【在 E***a 的大作中提到】
: 这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了
: 跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让
: 我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的
: 事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为
: 那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。
: 这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷
: 在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和
: 情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。
: 我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要
: 依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。

avatar
w*g
7
如果预测完全准确,information gain是 ln(n/k)。
如果预测准确概率是p,算起来就绕了。
假设prior是均匀分布,令
K: 你预测的k个标签
X: K覆盖真实标签这个事件, P(X) = p
P(i): 缩小范围后实际标签是i的概率
Q(i): 缩小范围前实际标签是i的概率, 无论如何都有Q(i)=1/n
P(i)算起来很绕,要分i是否属于K,以及X是否发生算。
如果i属于K,则(下面所有都省去"|i属于K")
P(i) = P(i, X) + P(i, not X)
= P(i|X)P(X) + P(i| not X)P(not X)
P(i|X): i 属于K, 并且K个预测正确,所以P(i|X) = 1/k
P(i|not X): not X表示预测失败,真实标签不在K中,所以P(i|not X) = 0
所以 P(i) = p/k
如果i不属于K,则(省去"|i 不属于K")
P(i)展开同上,但是
P(i|X): i 不属于K,而预测正确,正确标签在K中,所以P(i|X) = 0
P(i|not X): 预测失败,正确标签在剩下(n-k)个中,所以P(i|not X) = 1/(n-k)
所以 P(i) = (1-p)/(n-k)
有了上面两个,就可以算KL divergence了
D(P||Q) = sum P(i) ln {P(i)/Q(i)}
= sum_{i in K} P(i) ln {P(i)/Q(i)}
+ sum_{i not in K} P(i) ln {P(i)/Q(i)}
= k*P(i)*ln{n*P(i)} | i in K
+ (n-k)P(i)*ln{n*P(i)} | i not in K
= p*ln{np/k} + (1-p)*ln{n(1-p)/(n-k)}
= ln(n) + p*ln{p/k} + (1-p)ln{(1-p)/(n-k)}
是不是我太闲了啊。整个论坛翻了好几遍,实在没有有意思的坑。
这种做法我不知道标准名字,但见人用过。当年imagenet搞比赛,n=1000分类。又怕出
来分数太难看,所以允许预测k=5个标签,有一个中了就算对。

【在 n******7 的大作中提到】
: 做一个n-class的分类
: 在某种data上很难预测准确
: 所以我打算退而求其次
: 每次预测出k个class (k: 只要真实的class在这k个class之类,就算预测是有效的
: 一个类比:n个坑可能都有地雷,通过预测,有地雷的坑缩小到其中的k个,所以这个预
: 测还是有用的
: 问题
: 1. 这种策略有个名字没有?
: 2. n-class 缩小到k-class,information gain要怎么算?1/k-1/n?

avatar
P*s
8
安慰下 希望你不再写的那天 也是快乐的开始
但话说回来 我不喜欢正能量这个词儿

【在 E***a 的大作中提到】
: 这几天办公室政治愈演愈烈,一两个不干活只说话的老印搞得人烦不胜烦,直接就有了
: 跳槽的想法。忽然就有些想念你。我们在一起的时候,我总是可以向你抱怨,你就说让
: 我不要在意那些人,他们不值得我不高兴。那时我好像总是很快就能忘记那些不开心的
: 事,抱怨归抱怨,可是心里并不会在意那一两个讨厌的人,一两件讨厌的事。也许因为
: 那时我的精力都用在纠结我们两个人的事上,别的都只是模糊背景吧。
: 这些天来,我一直告诉我自己不要再经常想起你了,我们已经结束了,我不要把自己陷
: 在其中浪费自己的时间和感情。我基本上做到了。不过副作用就是,我放了很多精力和
: 情绪在别的事情上,比如工作。然后这些办公室政治忽然压得我很不快乐。
: 我知道你说过任何时候你都很高兴跟我聊天,可是我不愿意自己再陷进很多小事上都要
: 依赖你来开解的处境。所以偶然我们需要联系的时候我也并不多说话。

avatar
n*7
9
谢谢Princeton PhD
不懂的太多,顺便学习了一下Kullback–Leibler divergence的公式
这个结果正式我想要的
我实际是要求 p>=0.95,然后用training sample 评估k的大小
k的值是某个关键variable a的函数
有这个结果我就可以plot information gain vs a了
这种策略如果没有一个标准名字,我就自己起一个吧,哈哈

【在 w***g 的大作中提到】
: 如果预测完全准确,information gain是 ln(n/k)。
: 如果预测准确概率是p,算起来就绕了。
: 假设prior是均匀分布,令
: K: 你预测的k个标签
: X: K覆盖真实标签这个事件, P(X) = p
: P(i): 缩小范围后实际标签是i的概率
: Q(i): 缩小范围前实际标签是i的概率, 无论如何都有Q(i)=1/n
: P(i)算起来很绕,要分i是否属于K,以及X是否发生算。
: 如果i属于K,则(下面所有都省去"|i属于K")
: P(i) = P(i, X) + P(i, not X)

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。