what multiple comparison appraoches do you use? bonferroni, scheffe, or tuke y? the multiple comparison is supposed to be more "accurate" because it uses mo re data, more data the better. One of the reasons the two groups have no sig nificant difference in multiple comparison is that the error estimation is i nflated because u have also considered the error from other groups. simple example is, u have a device to measure ur height, first time 1.7m, se cond time 1.8m, third time 1.7m. u do the sa
【在 p*****m 的大作中提到】 : 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err : or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve : l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为 : 真的概率是5%。 : 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha, : 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就 : 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的 : 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ : e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保 : 守的检验方法 其依据一般是多重检验的各组并非完全独立
D*g
19 楼
我觉得我没说错吧,alpha 的定义应该是:the probability of observing this result or more extreme ones BY CHANCE. 如果一次比较的typeI error 是0.05, 那 十次比较的alpha 是 1-(1-0.05)^10=0.40. 就是说你看到的区别只是by chance的概 率是40%,而不再是5%。(你说的10x0.05是不对的)。如果你比较的次数越多,alpha 就越大,而一般的显著性检验以0.05为CUT OFF值就不对了(如果仍然根据单个比较的0 .05下显著的结论)。 关于ARRAY,我只是举个例子。并不是只有t检验才有alpha的问题,microarray 的 multiple test adjustment是个还在研究的问题,传统的方法好像都不灵。
err leve H0为 Xalpha, 率就 typ
【在 p*****m 的大作中提到】 : 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err : or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve : l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为 : 真的概率是5%。 : 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha, : 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就 : 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的 : 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ : e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保 : 守的检验方法 其依据一般是多重检验的各组并非完全独立
D*g
20 楼
纠正一下: p-value 的定义才是the probability of observing this 呢?意思就是靠偶然性得到这个显著性差异的结果的可能性是5%,因为习惯上认为5%是 比较小的概率了(对一次结论而言),所以可以认为这个结果不可能是偶然的 (但这 样结论,你有5%的机会犯错误)。 alpha 的0
y*i
21 楼
谈一下我的理解。 pValue意思是:如果完全随机的话,撞大运撞到这个状态的几率是多少。 microarray如果是你查确定的基因,那么可以直接用pValue。但如果你从1万个probe 中找到significant,那么,撞大运你也能撞上10k X 0.05 = 500个probe,都是随机但 pValue都小于0.05. 所以这时候就不能用0.05的阈值。
【在 p*****m 的大作中提到】 : 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err : or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve : l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为 : 真的概率是5%。 : 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha, : 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就 : 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的 : 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ : e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保 : 守的检验方法 其依据一般是多重检验的各组并非完全独立
D*g
22 楼
Type I ERROR (alpha=0.05)还可以这样理解:如果条件A和B实际上是没有差异的,你 重复20次,很可能有一次给你发现有差异(如果你用p=0.05为标准)。在阳性结果(以 p=0.05为例)是可以反复重复的情况下(假设条件一致,结果一致的情况下),可以理 解为这样的阳性是假阳性的机会只有5%,是真阳性的机会是95%。 在这种意义上,如果你做一个实验是阴性结果(不能拒绝Ho),然后你反复重复,重复N 遍然后才拿到一个阳性结果(前提是试验条件没有显著改变,比如反应温度从4度变到37 之类,只是机械性重复)可能性是很大的。这样靠反复简单重复才拿到的一个阳性结果去发表,其实是假阳性结果。很多PAPER就是这样发的
【在 D**g 的大作中提到】 : 纠正一下: p-value 的定义才是the probability of observing this : 呢?意思就是靠偶然性得到这个显著性差异的结果的可能性是5%,因为习惯上认为5%是 : 比较小的概率了(对一次结论而言),所以可以认为这个结果不可能是偶然的 (但这 : 样结论,你有5%的机会犯错误)。 : alpha : 的0
【在 D******n 的大作中提到】 : what multiple comparison appraoches do you use? bonferroni, scheffe, or tuke : y? : the multiple comparison is supposed to be more "accurate" because it uses mo : re data, more data the better. One of the reasons the two groups have no sig : nificant difference in multiple comparison is that the error estimation is i : nflated because u have also considered the error from other groups. : simple example is, u have a device to measure ur height, first time 1.7m, se : cond time 1.8m, third time 1.7m. u do the sa
你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的 TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10 而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5% ”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than 0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的 办法。因为它实际控制的TYPE I error比预先设置的0.05小。
ft, 给定alpha的情况下, 一个test给你的实际type I error远小于 alpha(你的极端例子), 那么这个test就是不如给你实际type I error接近alpha 的另一个test powerful呗, 这不就是Bon不如Sidak powerful的原因嘛 现在唯一不清楚的问题就是 是否有相关性的存在会导致Sidak更liberal的情形 (相关性导致Bon/Sidak more conservative你已经给出了很好的极端例子) 我是暂时没想出来这种情形来
0.
【在 D**g 的大作中提到】 : 你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的 : TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10 : 而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5% : ”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than : 0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的 : 办法。因为它实际控制的TYPE I error比预先设置的0.05小。
10 5% than ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 这句话不对。如果事件之间是相互排斥的,如上面所述,可以到0.005x
【在 D**g 的大作中提到】 : 你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的 : TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10 : 而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5% : ”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than : 0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的 : 办法。因为它实际控制的TYPE I error比预先设置的0.05小。
w*y
49 楼
OK, 小李, 看你的例子, 也就是说确实存在Sidak没法控制alpha的情况了? (实际type I error > alpha)
the assumption for t-test is actually normality, otherwise the t-statistic u calculated doesn't follow t-distribution. problem for small sample size is, 1) hard to verify that it follows normal d istribution. 2) t-test is robust to non-normality if sample size is large, s o when it is small, we are less comfortable about using it(unless u r very s ure it is normal) 3) power is low
【在 r****t 的大作中提到】 : 俺也不懂统计,只学过 t-test, 样本量越大 power越高,小样本的问题不在于 : sample 不是正态分布(其实 sample 都不是随机的不能讲分布),不是正态也能上 t- : test; 而在于 power 不够, 易犯 type II error. : : 是不是正态分布。
p*m
70 楼
exactly
u d s s
【在 D******n 的大作中提到】 : the assumption for t-test is actually normality, otherwise the t-statistic u : calculated doesn't follow t-distribution. : problem for small sample size is, 1) hard to verify that it follows normal d : istribution. 2) t-test is robust to non-normality if sample size is large, s : o when it is small, we are less comfortable about using it(unless u r very s : ure it is normal) 3) power is low
r*t
71 楼
but this normality assumption is on that of the test statistics, not of the raw data. If use sample mean, as long as mean exists, it follows t- distribution. I see no way one knows something follows what exact distribution. The so called 'verifying' is another statistic test. One has to make assumption about the distribution based on the underlying model of the data generating process. No assumption, there is no test. It is either generated iid, or not . For the former, t-test is just fine; for
【在 D******n 的大作中提到】 : the assumption for t-test is actually normality, otherwise the t-statistic u : calculated doesn't follow t-distribution. : problem for small sample size is, 1) hard to verify that it follows normal d : istribution. 2) t-test is robust to non-normality if sample size is large, s : o when it is small, we are less comfortable about using it(unless u r very s : ure it is normal) 3) power is low
【在 r****t 的大作中提到】 : but this normality assumption is on that of the test statistics, not of the : raw data. If use sample mean, as long as mean exists, it follows t- : distribution. : I see no way one knows something follows what exact distribution. The so : called 'verifying' is another statistic test. One has to make assumption : about the distribution based on the underlying model of the data generating : process. No assumption, there is no test. It is either generated iid, or not : . For the former, t-test is just fine; for
D*n
74 楼
....speechless....
the generating not
【在 r****t 的大作中提到】 : but this normality assumption is on that of the test statistics, not of the : raw data. If use sample mean, as long as mean exists, it follows t- : distribution. : I see no way one knows something follows what exact distribution. The so : called 'verifying' is another statistic test. One has to make assumption : about the distribution based on the underlying model of the data generating : process. No assumption, there is no test. It is either generated iid, or not : . For the former, t-test is just fine; for
【在 r****t 的大作中提到】 : but this normality assumption is on that of the test statistics, not of the : raw data. If use sample mean, as long as mean exists, it follows t- : distribution. : I see no way one knows something follows what exact distribution. The so : called 'verifying' is another statistic test. One has to make assumption : about the distribution based on the underlying model of the data generating : process. No assumption, there is no test. It is either generated iid, or not : . For the former, t-test is just fine; for
【在 r****t 的大作中提到】 : but this normality assumption is on that of the test statistics, not of the : raw data. If use sample mean, as long as mean exists, it follows t- : distribution. : I see no way one knows something follows what exact distribution. The so : called 'verifying' is another statistic test. One has to make assumption : about the distribution based on the underlying model of the data generating : process. No assumption, there is no test. It is either generated iid, or not : . For the former, t-test is just fine; for
你这种看法犯的错误正好是我要大家警醒的,我说的正是不要动不动就用 u-test, 很 多时候 t test 是非常适用的。t-test 对产生 sample 的 distribution 没有任何假 设,不需要是 normal 的,我想 DaShagen 对这个说法没有意见。t test normality 假设是对 test statistics 而言的,sample mean -> true mean (asymtotically) as N->\infty 的根据是 CLT, 前面有别的同学提过。 我看来这话没有道理,均数为啥没意义?(这个话有啥出处没,能不能 detail 给大家 听听?) 你用正态分布 model 身高,我没有意见。我没有说“不能用normality的假设”,在这 种情况下身高没有必要是正态分布的,你也能用 t test. 因为均值的 normalty 是 CLT 确保了的。
笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同? normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp
【在 r****t 的大作中提到】 : 你这种说法比较容易吓到人,我来说的话是这样: : ample size大的时候,就算数据跟本不 normal (可以是任何存在 expectation 的 : distribution),算出来的 t-statistic也基本符合 t distribution. : : 的s
r*t
98 楼
DaShagen 的叙述是有些地方让我觉得不清楚,所以我把他的话重说了一遍,见前面帖子。我也没有说要用不带假设的test,我只是说 t test 不假设 underlying distribution is normal. 你没搞清楚我们在说什么,有时候你读贴仔细点,能省你自己和大家很多时间。 两均值之间的 t test 对 underlying distribution 没有 normalty 假设,只要均值 存在就行,i stand by this statement. 严重偏离 normal distribution, 只要是 iid sample. sample mean 仍然是 normal distribution, 仍然用 t test. 有时候你 只要读书认真点,能明白很多事。 均数仍然是存在的,仍然是有定义的,只是在这种情况下 t-statistic 没有“代表性 ”,这个和没有"意义"是两码事。你要是追求“代表性”当然不能 t test. 但是即使 在这种情况下 t-test 仍然是有意义的,其结论 on means of the underlying distr
【在 s*****0 的大作中提到】 : 笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同? : normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t : test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。 : 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp
r*t
99 楼
会不会认同? 不知道,我希望他是认同的,CLT 我想大家都学过。
【在 s*****0 的大作中提到】 : 笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同? : normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t : test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。 : 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp
t-test 的assumption里面,按照重要性递减是 independent >> equal variance > normality as long as normality is not very much violated, e.g. heavily skewed, then t- test is well approximated. More skewed a sample, more sample size is needed.
【在 r****t 的大作中提到】 : but this normality assumption is on that of the test statistics, not of the : raw data. If use sample mean, as long as mean exists, it follows t- : distribution. : I see no way one knows something follows what exact distribution. The so : called 'verifying' is another statistic test. One has to make assumption : about the distribution based on the underlying model of the data generating : process. No assumption, there is no test. It is either generated iid, or not : . For the former, t-test is just fine; for
我看了书得出和你不太一样的看法 (如果你的看法照 sgu200 说支持他的看法的话)。 你要是不愿意指正我,我就只好执着于错误的观念了。 这个也不是什么面子问题不能说清楚,要是你能告诉 我为什么 t test 要求 underlying data is normal, sgu2000 的道理到底在哪儿,我就明白地认错。 这么似是而非,对我们这样学的比你少的没有帮助,只 有害处。
【在 D******n 的大作中提到】 : 我也不想再纠结了,大家自己看看书然后自己明白去吧。
D*n
107 楼
好吧,是这样的。 统计上面这些test都是严格的假定一些东西通过数学变换得来的,譬如这个t-test. 如 果assumption不满足,那么得出来的东西就不会100%的正确。譬如如果非normal,算出 来的t-statistic,就不会完完全全的follow t distribution. 然而,practically,normality一点点的偏离,或者sample size比较大的情况下,算出 来的t-statistics 也勉强不会偏离t distribution 太多。所以就将就用着。 所以,你是把统计上铁铮铮的数学证明所需要的assumption 跟实际上 test的robustne ss(就是,小小偏离不影响结果太过分)搞混了。
【在 r****t 的大作中提到】 : 我看了书得出和你不太一样的看法 (如果你的看法照 : sgu200 说支持他的看法的话)。 : 你要是不愿意指正我,我就只好执着于错误的观念了。 : 这个也不是什么面子问题不能说清楚,要是你能告诉 : 我为什么 t test 要求 underlying data is normal, : sgu2000 的道理到底在哪儿,我就明白地认错。 : 这么似是而非,对我们这样学的比你少的没有帮助,只 : 有害处。
s*0
108 楼
Dashagen快被你逼疯了,我坏人做到底,来救救他。 我猜你从书上的理解是normality可以不被严格遵守,相反equal variance更重要,是 不是?这理解本身没错,因为对t test而言,它足够robust来应对一定程度的 normality violation。 但为什么说“t test 要求 underlying data is normal”? 一个建议,先从Z test的 章节读起,看看能否明白一些?另外一个角度,t值的分子是什么?分母是什么?分子 和分母分别是measure什么的? 为什么data highly skewed的时候分子和分母的 measurement就不适用?为什么要引入median,percentile的概念?为什么要有data transformation? 既然无所谓data distribution,data transformation又何必多此 一举?non-parametric test难道就是一个摆设? 别单说t test,因为normality assumption不是光apply to t-test。 Google " par
【在 r****t 的大作中提到】 : 我看了书得出和你不太一样的看法 (如果你的看法照 : sgu200 说支持他的看法的话)。 : 你要是不愿意指正我,我就只好执着于错误的观念了。 : 这个也不是什么面子问题不能说清楚,要是你能告诉 : 我为什么 t test 要求 underlying data is normal, : sgu2000 的道理到底在哪儿,我就明白地认错。 : 这么似是而非,对我们这样学的比你少的没有帮助,只 : 有害处。
r*t
109 楼
另外,这个“sample size太小 非正态分布的数据会让ttest倾向于否定H0”的说法根 据是什么?一般讲 small sample 用 U-test, 我能想起来的是两个原因:1. median 比 mean robust; 2. for small sample U-test statistic 简单到可以手算。因为我 没学过,所以有很多别的好处你可以补充。我看来,错误地 reject H0 is your alpha , which is calculated against your H0 precisely, hence is not related to the sample, be it large sample or small sample. 对于 sample size 很小的情况,也有 u-test 不适合但是 t-test 更适合的时候。这 个直接和前面我的帖子里面的态度有关,如果你知道数据确实是 normal 的(比如 model 是正态的,或者有很强的理由相信数据是正态,比如对一个柱子测 5 次长度这 种,而不仅仅是从几个 normality test
我和你分歧就在这儿,CLT's proof only requires (1) iid (2) finite \mu (3) positive variance. Note the convergence is in distribution, not in probability. Thus when N is large, the distribution of mean *IS* normal distribution, hence t-test's assumption satisfied. 换句话说 sample size比较大的情况下,算出来的t- statistics conforms to t distribution, 而不仅仅是差别不大,因为你可以 scale the distribution by sqrt(N) and get a standard normal. 更重要的大家应该留意的 是,underlying distribution 只需要满足条件 (2)(3). 就像说 0.333333.. *3 = 1 而不是<1 一个道理。 test robustn
【在 r****t 的大作中提到】 : 我和你分歧就在这儿,CLT's proof only requires (1) iid (2) finite \mu (3) : positive variance. : Note the convergence is in distribution, not in probability. Thus when N is : large, the distribution of mean *IS* normal distribution, hence t-test's : assumption satisfied. 换句话说 sample size比较大的情况下,算出来的t- : statistics conforms to t distribution, 而不仅仅是差别不大,因为你可以 scale : the distribution by sqrt(N) and get a standard normal. 更重要的大家应该留意的 : 是,underlying distribution 只需要满足条件 (2)(3). : 就像说 0.333333.. *3 = 1 而不是<1 一个道理。 : test robustn
K*n
112 楼
不懂统计,俺胡乱认为,student's t distribution 不是对Gaussian的方差用一个 Gamma prior给Bayesian出来的吗。那推导过程显然是用了Gaussian的
r*t
113 楼
我说的是理论根据,实践上,0.33 * 3 == 1 这样错误也很小,至少我不会去纠结这个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say reject or not to H0. 这就是为什么我说不要求 underlying data distribution is normal. 很多同学就是被这个吓住了,不敢放心大胆的用 t test. 上面是 sample size 大的情况。 sample size 小的时候你的 normality test 很难得 reject H0 的,所以你的 t test 还是有根有据的。
【在 D******n 的大作中提到】 : fts, 我说的是0.333*3 != 1 : 你说的是n->inf..... : speechless again. : : in : is
s*0
114 楼
我总算看明白他的意思了,他其实说得也没什么大问题。因为象t test and ANOVA要考 虑的只是differences between means,CLT让这些test在其样本本身不符合高斯分布也 能work well。 但invoke CLT有一个条件,样本不能太小。不过话说回来,又回到原来的discussion, 即test的robustness被进一步证明而已,不是说t statistic不需要normality assumption。 其实这么说更直观简洁:如果没有非常weird的分布样本数不小于10-15既可放心使用t- test;如果有weird的分布所需要的样本数要更大才能invoke CLT,否则只能上 nonparametric。
【在 D******n 的大作中提到】 : fts, 我说的是0.333*3 != 1 : 你说的是n->inf..... : speechless again. : : in : is
D*n
115 楼
反正来来回回就是那个意思。。。。说了半天。。。
t-
【在 s*****0 的大作中提到】 : 我总算看明白他的意思了,他其实说得也没什么大问题。因为象t test and ANOVA要考 : 虑的只是differences between means,CLT让这些test在其样本本身不符合高斯分布也 : 能work well。 : 但invoke CLT有一个条件,样本不能太小。不过话说回来,又回到原来的discussion, : 即test的robustness被进一步证明而已,不是说t statistic不需要normality : assumption。 : 其实这么说更直观简洁:如果没有非常weird的分布样本数不小于10-15既可放心使用t- : test;如果有weird的分布所需要的样本数要更大才能invoke CLT,否则只能上 : nonparametric。
个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say reject or not to H0. 这就是为什么我说不要求 underlying data distribution is normal. 很多同学就是被这个吓 test 还是有根有据的。
【在 r****t 的大作中提到】 : 我说的是理论根据,实践上,0.33 * 3 == 1 这样错误也很小,至少我不会去纠结这个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say reject or not to H0. 这就是为什么我说不要求 underlying data distribution is normal. 很多同学就是被这个吓住了,不敢放心大胆的用 t test. : 上面是 sample size 大的情况。 : sample size 小的时候你的 normality test 很难得 reject H0 的,所以你的 t test 还是有根有据的。
r*t
123 楼
你来晚了,这些都是重复而已。 sgu2000 的"无意义" argument is addressed, too. 不用再说一遍了。
【在 w******y 的大作中提到】 : 别吵了 : 数学推导里用到了normal的条件, 这是理论上必须有的条件 : 实践上如果大样本无论何分布, normality渐进成立, 用t-test渐进符合underlying : 理论 : 不过真正重要的是很多严重偏离正态的分布去比较均值毫无意义 : : 个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say : reject or not to H0. 这就是为什么我说不要求 underlying data distribution is : normal. 很多同学就是被这个吓 : test 还是有根有据的。
【在 r****t 的大作中提到】 : wiki 不是教科书,但是现在书不在手边。这个新页面我不看了,没时间了。你的论点 : 是什么?
K*n
130 楼
我现在完全已经糊涂了,打算和bigsnail一起等总结。。。
【在 w******y 的大作中提到】 : 貌似你很懂嘛, 连积分积掉sigma都还记得
r*t
131 楼
不好意思,我不是科班出生, 幼稚是很可能的。但是我很尊重统计理论和统计方法。 给你写的那个也不是公式,就是提醒你 normality assumption on A is not normality assumption on B. 你科班出生的给别人提建议的时候最好说清楚,很多我 遇到的人用 t test 都不知道是不是适当,怎么去 justify/defend, 最大的误区就是 以为 underlying data has to be close to normal. data distribution 严重 left skewed, 如果你 H0 is about mean, then use t test ; if your H0 is about some other statistic, use correspondent tests.
我看来是偏题了的一句话。如果你 H0 is not about mean, how can u use t test, at all? How can you evaluate whether or not t test is (in)appropriate when you do not even have the choice to do t test? This is not to say t test results is not meaningful if you choose to do it anyway, if that is translated to "无意义“。its result still holds for what it speaks about, though may not be instructional/representative as you wish.
那我就学习吧,我看了你给我这个 section, 没觉得学到什么新东西。看到的东西恰恰 不提 t test 需要假设 normalty. http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests Unpaired and paired two-sample t-test: The unpaired, or "independent samples" t-test is used when two separate independent and identically distributed samples are obtained,...
【在 r****t 的大作中提到】 : 不好意思,我不是科班出生, 幼稚是很可能的。但是我很尊重统计理论和统计方法。 : 给你写的那个也不是公式,就是提醒你 normality assumption on A is not : normality assumption on B. 你科班出生的给别人提建议的时候最好说清楚,很多我 : 遇到的人用 t test 都不知道是不是适当,怎么去 justify/defend, 最大的误区就是 : 以为 underlying data has to be close to normal. : data distribution 严重 left skewed, 如果你 H0 is about mean, then use t test : ; if your H0 is about some other statistic, use correspondent tests.
s*0
136 楼
请往上找,细阅。 (:-:)
【在 r****t 的大作中提到】 : 那我就学习吧,我看了你给我这个 section, 没觉得学到什么新东西。看到的东西恰恰 : 不提 t test 需要假设 normalty. : http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests : Unpaired and paired two-sample t-test: : The unpaired, or "independent samples" t-test is used when two separate : independent and identically distributed samples are obtained,...