Redian新闻
>
请教一个简单的数据统计问题
avatar
请教一个简单的数据统计问题# Biology - 生物学
N*a
1
0.33/2w 0.47/2w
ADSP-BF537KBCZ-6BV
TI/ADI
------------------
谁能接单或提供货源信息, 请与我联系
如果最终下单,会付给中间人referral bonus
avatar
l*w
2
第一个工作,不到一年。只想安静干活,攒够一年走人。
看到别的帖子里有人说:该敲山震虎的时候你要敲山震虎,该装糊涂的时候不要太直,
该表现得厉害的时候你别让人以为你好欺负。该拍拍马屁装孙子的时候你要拉的下脸。
这个同事还是个crying baby,但凡不随自己心意,就添油加醋地汇报给有严重种族歧
视性别歧视处处拉偏架的经理。
在这种情况下,怎么能够做到“该敲山震虎的时候你要敲山震虎,该装糊涂的时候不要
太直,该表现得厉害的时候你别让人以为你好欺负”,而不让别人抓到把柄说
unprofessional,aggressive。
avatar
c*a
3
一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
两组之间都
没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
两组) ,p< 0,05.
哪个比较才是对的呢??
avatar
N*a
4
已买到, 谢谢!

【在 N*******a 的大作中提到】
: 0.33/2w 0.47/2w
: ADSP-BF537KBCZ-6BV
: TI/ADI
: ------------------
: 谁能接单或提供货源信息, 请与我联系
: 如果最终下单,会付给中间人referral bonus

avatar
x*g
5
换经理。

【在 l*****w 的大作中提到】
: 第一个工作,不到一年。只想安静干活,攒够一年走人。
: 看到别的帖子里有人说:该敲山震虎的时候你要敲山震虎,该装糊涂的时候不要太直,
: 该表现得厉害的时候你别让人以为你好欺负。该拍拍马屁装孙子的时候你要拉的下脸。
: 这个同事还是个crying baby,但凡不随自己心意,就添油加醋地汇报给有严重种族歧
: 视性别歧视处处拉偏架的经理。
: 在这种情况下,怎么能够做到“该敲山震虎的时候你要敲山震虎,该装糊涂的时候不要
: 太直,该表现得厉害的时候你别让人以为你好欺负”,而不让别人抓到把柄说
: unprofessional,aggressive。

avatar
M*P
6
one-way ANOVA对。
但是你可以尝试argue你看到的显著性,但是那就要看你的审稿人的水平了。

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
s*f
7
这个时候用t-test,p不能再用0.05了吧

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
D*n
8
what multiple comparison appraoches do you use? bonferroni, scheffe, or tuke
y?
the multiple comparison is supposed to be more "accurate" because it uses mo
re data, more data the better. One of the reasons the two groups have no sig
nificant difference in multiple comparison is that the error estimation is i
nflated because u have also considered the error from other groups.
simple example is, u have a device to measure ur height, first time 1.7m, se
cond time 1.8m, third time 1.7m. u do the sa

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
h*e
9
这时候的p就不能用0.05了,需要用bonferroni或其他方法做校正。

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
D*g
10
第一,你得确认试验数据符合正态分布,如果每组样本量很小,或者有文献说response
value不是正态的,应该用non-parametric方法或者把原始数据做transformation.最
常见的是取对数,然后用ANOVA.不然,应该用ANOVA的non-parametric version:
Kruskal Wallis test
第二,ANOVA或者K-W test 如果p-value > 0.05, POST HOC pairwise test 就可以免
了。因为前面一个p>0.05的意思就是:考虑进multiple comparison的因素并调整TYPE
I 错误(没有区别却错误地认为有区别的概率)以后,没有任何一对比较会是显著的。
有很多方法调整multiple comparison,但前面的p保证了无论你用什么方法,没有一种
会给你一个显著的比较结果。
第三,如果p-value <0.05, 就值得做pairwise的比较。最简单的是用0.05/所有可能的
比较总数作为显著性CUT OFF值。如果你前面用的K-W test, 这里应该用Wilcoxon-Mann
-

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
K*n
11
哦。。。这个贴总算让我明白了好多事情

response
TYPE

【在 D**g 的大作中提到】
: 第一,你得确认试验数据符合正态分布,如果每组样本量很小,或者有文献说response
: value不是正态的,应该用non-parametric方法或者把原始数据做transformation.最
: 常见的是取对数,然后用ANOVA.不然,应该用ANOVA的non-parametric version:
: Kruskal Wallis test
: 第二,ANOVA或者K-W test 如果p-value > 0.05, POST HOC pairwise test 就可以免
: 了。因为前面一个p>0.05的意思就是:考虑进multiple comparison的因素并调整TYPE
: I 错误(没有区别却错误地认为有区别的概率)以后,没有任何一对比较会是显著的。
: 有很多方法调整multiple comparison,但前面的p保证了无论你用什么方法,没有一种
: 会给你一个显著的比较结果。
: 第三,如果p-value <0.05, 就值得做pairwise的比较。最简单的是用0.05/所有可能的

avatar
K*n
12
所谓post hoc检验,是说有选择性地找出几个比较,这样做multicomparison的时候不
用把alpha搞得太小么
avatar
D*g
13
除非你事先(比如在grant里)讲好只比较谁和谁。但实际情况一般是这样的:如果你
只想比较A和B,就不需要设六种条件了吧。试验条件只要A和B就成了。如果你看到了六
个条件的BAR图,再选择差别大的做比较,实际上已经是把所有的15种可能都比较了(
用眼睛和用统计方法是一样的)。multiple comparison的基本意思就是:如果你撞一
次撞到运气而得到一个positive结果的可能是5%,那么你撞很多次从而得到一个
positive的结果的可能就不再是5%,而是比5%大得多。最典型的是microarray的结果,
如果你比较任意两个RNAsample的基因表达结果,你得到的P-value<0.05甚至0.0001 都可能
有N多。
生物实验中由于统计方法不正确造成的错误结论应该很多吧。举个最容易犯的错误:t-
test。很多人喜欢用EXCEL,里面的ttest之TYPE有三个选项:1,2,3. 其中2,3是问
两个group的ariance是不是一样。这个一样不一样是需要统计检验去确定的。选2还是
选3应该根据检验结果。但很多人都是看那个得到的p比较小就选哪个。

【在 K****n 的大作中提到】
: 所谓post hoc检验,是说有选择性地找出几个比较,这样做multicomparison的时候不
: 用把alpha搞得太小么

avatar
K*n
14
是,大侠见教得对
我声明,我每次用excel做t-test,都是先用f-test比较variance的

t-

【在 D**g 的大作中提到】
: 除非你事先(比如在grant里)讲好只比较谁和谁。但实际情况一般是这样的:如果你
: 只想比较A和B,就不需要设六种条件了吧。试验条件只要A和B就成了。如果你看到了六
: 个条件的BAR图,再选择差别大的做比较,实际上已经是把所有的15种可能都比较了(
: 用眼睛和用统计方法是一样的)。multiple comparison的基本意思就是:如果你撞一
: 次撞到运气而得到一个positive结果的可能是5%,那么你撞很多次从而得到一个
: positive的结果的可能就不再是5%,而是比5%大得多。最典型的是microarray的结果,
: 如果你比较任意两个RNAsample的基因表达结果,你得到的P-value<0.05甚至0.0001 都可能
: 有N多。
: 生物实验中由于统计方法不正确造成的错误结论应该很多吧。举个最容易犯的错误:t-
: test。很多人喜欢用EXCEL,里面的ttest之TYPE有三个选项:1,2,3. 其中2,3是问

avatar
y*i
15
我做过的分析里 ttest type 2还是3 差异总是相当小。还没见过差距显著的情况。

t-
候不

【在 D**g 的大作中提到】
: 除非你事先(比如在grant里)讲好只比较谁和谁。但实际情况一般是这样的:如果你
: 只想比较A和B,就不需要设六种条件了吧。试验条件只要A和B就成了。如果你看到了六
: 个条件的BAR图,再选择差别大的做比较,实际上已经是把所有的15种可能都比较了(
: 用眼睛和用统计方法是一样的)。multiple comparison的基本意思就是:如果你撞一
: 次撞到运气而得到一个positive结果的可能是5%,那么你撞很多次从而得到一个
: positive的结果的可能就不再是5%,而是比5%大得多。最典型的是microarray的结果,
: 如果你比较任意两个RNAsample的基因表达结果,你得到的P-value<0.05甚至0.0001 都可能
: 有N多。
: 生物实验中由于统计方法不正确造成的错误结论应该很多吧。举个最容易犯的错误:t-
: test。很多人喜欢用EXCEL,里面的ttest之TYPE有三个选项:1,2,3. 其中2,3是问

avatar
p*m
16
俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err
or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve
l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为
真的概率是5%。
因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha,
比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就
高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的
办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ
e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保
守的检验方法 其依据一般是多重检验的各组并非完全独立
所以我不是很明白你说的撞大运撞到5%的意思是啥。。而且 microarray里面一般不进行

【在 D**g 的大作中提到】
: 除非你事先(比如在grant里)讲好只比较谁和谁。但实际情况一般是这样的:如果你
: 只想比较A和B,就不需要设六种条件了吧。试验条件只要A和B就成了。如果你看到了六
: 个条件的BAR图,再选择差别大的做比较,实际上已经是把所有的15种可能都比较了(
: 用眼睛和用统计方法是一样的)。multiple comparison的基本意思就是:如果你撞一
: 次撞到运气而得到一个positive结果的可能是5%,那么你撞很多次从而得到一个
: positive的结果的可能就不再是5%,而是比5%大得多。最典型的是microarray的结果,
: 如果你比较任意两个RNAsample的基因表达结果,你得到的P-value<0.05甚至0.0001 都可能
: 有N多。
: 生物实验中由于统计方法不正确造成的错误结论应该很多吧。举个最容易犯的错误:t-
: test。很多人喜欢用EXCEL,里面的ttest之TYPE有三个选项:1,2,3. 其中2,3是问

avatar
a*5
17
如果你都能用paired t的话,你应该用One-way ANOVA with repeated measure才对啊,
这个的显著性远大于one-way ANOVA

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
K*n
18
我脚着布冯若你和霞飞,土棋比起来才是市场主流啊
microarray 一般怎么统计数据?

err
leve
H0为
Xalpha,
率就
typ

【在 p*****m 的大作中提到】
: 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err
: or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve
: l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为
: 真的概率是5%。
: 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha,
: 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就
: 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的
: 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ
: e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保
: 守的检验方法 其依据一般是多重检验的各组并非完全独立

avatar
D*g
19
我觉得我没说错吧,alpha 的定义应该是:the probability of observing this
result or more extreme ones BY CHANCE. 如果一次比较的typeI error 是0.05, 那
十次比较的alpha 是 1-(1-0.05)^10=0.40. 就是说你看到的区别只是by chance的概
率是40%,而不再是5%。(你说的10x0.05是不对的)。如果你比较的次数越多,alpha
就越大,而一般的显著性检验以0.05为CUT OFF值就不对了(如果仍然根据单个比较的0
.05下显著的结论)。
关于ARRAY,我只是举个例子。并不是只有t检验才有alpha的问题,microarray 的
multiple test adjustment是个还在研究的问题,传统的方法好像都不灵。

err
leve
H0为
Xalpha,
率就
typ

【在 p*****m 的大作中提到】
: 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err
: or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve
: l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为
: 真的概率是5%。
: 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha,
: 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就
: 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的
: 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ
: e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保
: 守的检验方法 其依据一般是多重检验的各组并非完全独立

avatar
D*g
20
纠正一下: p-value 的定义才是the probability of observing this
呢?意思就是靠偶然性得到这个显著性差异的结果的可能性是5%,因为习惯上认为5%是
比较小的概率了(对一次结论而言),所以可以认为这个结果不可能是偶然的 (但这
样结论,你有5%的机会犯错误)。
alpha
的0
avatar
y*i
21
谈一下我的理解。
pValue意思是:如果完全随机的话,撞大运撞到这个状态的几率是多少。
microarray如果是你查确定的基因,那么可以直接用pValue。但如果你从1万个probe
中找到significant,那么,撞大运你也能撞上10k X 0.05 = 500个probe,都是随机但
pValue都小于0.05. 所以这时候就不能用0.05的阈值。

err
leve
H0为
Xalpha,
率就
typ
进行
那个
太太
果你
了六
了(
撞一
果,
可能
是问

【在 p*****m 的大作中提到】
: 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err
: or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve
: l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为
: 真的概率是5%。
: 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha,
: 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就
: 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的
: 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ
: e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保
: 守的检验方法 其依据一般是多重检验的各组并非完全独立

avatar
D*g
22
Type I ERROR (alpha=0.05)还可以这样理解:如果条件A和B实际上是没有差异的,你
重复20次,很可能有一次给你发现有差异(如果你用p=0.05为标准)。在阳性结果(以
p=0.05为例)是可以反复重复的情况下(假设条件一致,结果一致的情况下),可以理
解为这样的阳性是假阳性的机会只有5%,是真阳性的机会是95%。
在这种意义上,如果你做一个实验是阴性结果(不能拒绝Ho),然后你反复重复,重复N
遍然后才拿到一个阳性结果(前提是试验条件没有显著改变,比如反应温度从4度变到37
之类,只是机械性重复)可能性是很大的。这样靠反复简单重复才拿到的一个阳性结果去发表,其实是假阳性结果。很多PAPER就是这样发的

【在 D**g 的大作中提到】
: 纠正一下: p-value 的定义才是the probability of observing this
: 呢?意思就是靠偶然性得到这个显著性差异的结果的可能性是5%,因为习惯上认为5%是
: 比较小的概率了(对一次结论而言),所以可以认为这个结果不可能是偶然的 (但这
: 样结论,你有5%的机会犯错误)。
: alpha
: 的0

avatar
c*a
23
我每组6个数据, 试了Kruskal Wallis test, 没有显著差异. 按你的意思就是没有必要
再在各组之间
做比较了. 但是我多余的试了试Mann-Whitney test, 还是有差异的....

response
TYPE

【在 D**g 的大作中提到】
: 第一,你得确认试验数据符合正态分布,如果每组样本量很小,或者有文献说response
: value不是正态的,应该用non-parametric方法或者把原始数据做transformation.最
: 常见的是取对数,然后用ANOVA.不然,应该用ANOVA的non-parametric version:
: Kruskal Wallis test
: 第二,ANOVA或者K-W test 如果p-value > 0.05, POST HOC pairwise test 就可以免
: 了。因为前面一个p>0.05的意思就是:考虑进multiple comparison的因素并调整TYPE
: I 错误(没有区别却错误地认为有区别的概率)以后,没有任何一对比较会是显著的。
: 有很多方法调整multiple comparison,但前面的p保证了无论你用什么方法,没有一种
: 会给你一个显著的比较结果。
: 第三,如果p-value <0.05, 就值得做pairwise的比较。最简单的是用0.05/所有可能的

avatar
c*a
24
恩, 我做错了, 不应该用paired t, 只是看着名字顺眼来着...

【在 a****5 的大作中提到】
: 如果你都能用paired t的话,你应该用One-way ANOVA with repeated measure才对啊,
: 这个的显著性远大于one-way ANOVA

avatar
c*a
25
这个例子形象,让我终于对统计有了点感性认识...

tuke
mo
sig
i
se
2,
confid
als

【在 D******n 的大作中提到】
: what multiple comparison appraoches do you use? bonferroni, scheffe, or tuke
: y?
: the multiple comparison is supposed to be more "accurate" because it uses mo
: re data, more data the better. One of the reasons the two groups have no sig
: nificant difference in multiple comparison is that the error estimation is i
: nflated because u have also considered the error from other groups.
: simple example is, u have a device to measure ur height, first time 1.7m, se
: cond time 1.8m, third time 1.7m. u do the sa

avatar
c*a
26
有没有显著差异都行, 事实就是事实, 俺试着解释就是了....

【在 M*P 的大作中提到】
: one-way ANOVA对。
: 但是你可以尝试argue你看到的显著性,但是那就要看你的审稿人的水平了。

avatar
c*a
27
同感, 但是我还有更多的事情不明白...我是stats白痴来着...

【在 K****n 的大作中提到】
: 哦。。。这个贴总算让我明白了好多事情
:
: response
: TYPE

avatar
b*l
28
凭印象说一句,p-value > 0.05 只说明该方法未检出足够显著的区别,并不能说明事
实上没有显著区别,也并不能说明别的方法得不到 p < 0.05。恰恰相反,如果某种检
验方法得到 p < 0.05,那 p 一定 < 0.05。所以第二条的最后一句话不成立。检测方
法的 power 很重要。
举一个不相关的例子说明一下这个概念:Bonferroni correction 得到的 p > 0.05,
经常 Holm-Bonferroni correction 就可以得到 p < 0.05 了。

response
TYPE

【在 D**g 的大作中提到】
: 第一,你得确认试验数据符合正态分布,如果每组样本量很小,或者有文献说response
: value不是正态的,应该用non-parametric方法或者把原始数据做transformation.最
: 常见的是取对数,然后用ANOVA.不然,应该用ANOVA的non-parametric version:
: Kruskal Wallis test
: 第二,ANOVA或者K-W test 如果p-value > 0.05, POST HOC pairwise test 就可以免
: 了。因为前面一个p>0.05的意思就是:考虑进multiple comparison的因素并调整TYPE
: I 错误(没有区别却错误地认为有区别的概率)以后,没有任何一对比较会是显著的。
: 有很多方法调整multiple comparison,但前面的p保证了无论你用什么方法,没有一种
: 会给你一个显著的比较结果。
: 第三,如果p-value <0.05, 就值得做pairwise的比较。最简单的是用0.05/所有可能的

avatar
b*l
29
p-value 一定跟着一个 < 号的。所以意义是“几率不大于xxx”。

probe
单的
么保
value也
误:
3

【在 y***i 的大作中提到】
: 谈一下我的理解。
: pValue意思是:如果完全随机的话,撞大运撞到这个状态的几率是多少。
: microarray如果是你查确定的基因,那么可以直接用pValue。但如果你从1万个probe
: 中找到significant,那么,撞大运你也能撞上10k X 0.05 = 500个probe,都是随机但
: pValue都小于0.05. 所以这时候就不能用0.05的阈值。
:
: err
: leve
: H0为
: Xalpha,

avatar
b*l
30
这是良心活儿。你要是一口咬定你没看另外四组的数据,那就是显著的。否则,就是不
显著的。很无厘头。

.最
以免
的。
一种
能的

【在 c**a 的大作中提到】
: 我每组6个数据, 试了Kruskal Wallis test, 没有显著差异. 按你的意思就是没有必要
: 再在各组之间
: 做比较了. 但是我多余的试了试Mann-Whitney test, 还是有差异的....
:
: response
: TYPE

avatar
b*l
31
假设检验提供的是一种描述,而不可能告诉你真相。需要你自己根据这种描述来做决策
,并且承担风险。统计的意义就是告诉你,你做这样一种决策时,风险最大不超过多大
。好的统计方法可以更精确地告诉你量化的风险值最小可能有多小。
约束力来自于 take risk 后可能要承担的损失。在现实中,这个约束是有效的。比如
说,决策失败,就有相应的损失。
但是在学术界,这个约束的效力很小。所以才有这么多人利用统计上的 trick 来发文
章。

【在 c**a 的大作中提到】
: 有没有显著差异都行, 事实就是事实, 俺试着解释就是了....
avatar
l*f
32
是用SAM在做吗?

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
c*a
33
Graphpad Prism, 爱死它了. 欧等stats白痴居家旅行杀人灭口之必备.....

【在 l****f 的大作中提到】
: 是用SAM在做吗?
avatar
c*a
34
懂了! 突然想起来个裤同事,一组数据n个条件, 各个条件之间的比较都在用t test....
原来这是不对
地...

【在 b******l 的大作中提到】
: 这是良心活儿。你要是一口咬定你没看另外四组的数据,那就是显著的。否则,就是不
: 显著的。很无厘头。
:
: .最
: 以免
: 的。
: 一种
: 能的

avatar
y*i
35
不一定不对。
统计的理解而言,要是你的目的是不知道哪组数据不同,然后比较找出不同,这个不
对。
要是本来目的就是分别看各组不同,这么做是对的。
其实就是第一种情况,问题也不算太大,只要你不把它作为最后的结果,只是提供给
进一步实验的依据。下一次把实验重复一下,能重复出显著的结果的话,那么就能证明
是显著的。

..
是不

【在 c**a 的大作中提到】
: 懂了! 突然想起来个裤同事,一组数据n个条件, 各个条件之间的比较都在用t test....
: 原来这是不对
: 地...

avatar
b*l
36
哈哈,这个就是特有趣的问题了。
追加实验要花钱花时间,这就对第一次实验的统计解释形成了成本上的制约。
也就是说,如果不追加实验,只是写 paper,那么哪怕故意解释成自己需要的,坑的不
过是读 paper 的人。
如果故意曲解统计结果,并以此为依据追加了实验,那坑的就是自己了。
越想越有趣 :)

..

【在 y***i 的大作中提到】
: 不一定不对。
: 统计的理解而言,要是你的目的是不知道哪组数据不同,然后比较找出不同,这个不
: 对。
: 要是本来目的就是分别看各组不同,这么做是对的。
: 其实就是第一种情况,问题也不算太大,只要你不把它作为最后的结果,只是提供给
: 进一步实验的依据。下一次把实验重复一下,能重复出显著的结果的话,那么就能证明
: 是显著的。
:
: ..
: 是不

avatar
D*g
37
是的,如果p在0.05-0.1之间,可以认为反应了一种TREND,只是power不够所以没有发
现区别。power=1-typeIIerror。type II error (beta)的意思和alpha相反,意思之
错误导致本来有区别但没能发现区别。最简单的增加POWER的方法就是增加SAMPLE 量。
一般来说,小SAMPLE量只能够检查到很大的EFFECT,但如果SAMPLE量太大了,很小的差
别也会发觉,而这样的差别也许没有什么实际意义。

【在 b******l 的大作中提到】
: 凭印象说一句,p-value > 0.05 只说明该方法未检出足够显著的区别,并不能说明事
: 实上没有显著区别,也并不能说明别的方法得不到 p < 0.05。恰恰相反,如果某种检
: 验方法得到 p < 0.05,那 p 一定 < 0.05。所以第二条的最后一句话不成立。检测方
: 法的 power 很重要。
: 举一个不相关的例子说明一下这个概念:Bonferroni correction 得到的 p > 0.05,
: 经常 Holm-Bonferroni correction 就可以得到 p < 0.05 了。
:
: response
: TYPE

avatar
M*P
38
比较负责的方法是把两个条件单独拿出来。再做一遍。如果有可能,还可以增大样本数
目。写文章时候不能写statistically significant. 用一些弱一点的词,比如
hypersensitive 之类的。
如果你有很多其他佐证来证明同一个问题,那么这一个小图应该问题不大。但是如果你
核心就是要说这个反应时显著的,那么一定要重做一下,统计显著才有说服力。

【在 c**a 的大作中提到】
: 有没有显著差异都行, 事实就是事实, 俺试着解释就是了....
avatar
p*m
39
嗯 我算错了。。thanks for correcting me

alpha
的0

【在 D**g 的大作中提到】
: 我觉得我没说错吧,alpha 的定义应该是:the probability of observing this
: result or more extreme ones BY CHANCE. 如果一次比较的typeI error 是0.05, 那
: 十次比较的alpha 是 1-(1-0.05)^10=0.40. 就是说你看到的区别只是by chance的概
: 率是40%,而不再是5%。(你说的10x0.05是不对的)。如果你比较的次数越多,alpha
: 就越大,而一般的显著性检验以0.05为CUT OFF值就不对了(如果仍然根据单个比较的0
: .05下显著的结论)。
: 关于ARRAY,我只是举个例子。并不是只有t检验才有alpha的问题,microarray 的
: multiple test adjustment是个还在研究的问题,传统的方法好像都不灵。
:
: err

avatar
K*n
40
近似正确 :) 你的算法不就是bonferroni么

【在 p*****m 的大作中提到】
: 嗯 我算错了。。thanks for correcting me
:
: alpha
: 的0

avatar
b*l
41
你没错啊。10 X 0.05 也是对的,是 Bonferroni correction,不需要任何
assumption。
他给的是 Sidak correction,需要假设 independency。因为多了一条 assumption 作
为代价,所以才更 powerful,也就是说,能得到一个更小的 p-value。

, 那
的概

【在 p*****m 的大作中提到】
: 嗯 我算错了。。thanks for correcting me
:
: alpha
: 的0

avatar
p*m
42
嗯 你这个也是对的 谢谢解释啊

【在 b******l 的大作中提到】
: 你没错啊。10 X 0.05 也是对的,是 Bonferroni correction,不需要任何
: assumption。
: 他给的是 Sidak correction,需要假设 independency。因为多了一条 assumption 作
: 为代价,所以才更 powerful,也就是说,能得到一个更小的 p-value。
:
: , 那
: 的概

avatar
K*n
43
有道理。。。砖家砖家 :)

【在 b******l 的大作中提到】
: 你没错啊。10 X 0.05 也是对的,是 Bonferroni correction,不需要任何
: assumption。
: 他给的是 Sidak correction,需要假设 independency。因为多了一条 assumption 作
: 为代价,所以才更 powerful,也就是说,能得到一个更小的 p-value。
:
: , 那
: 的概

avatar
D*n
44
bonfferoni 也是有assumption的,就是independency of the comparisons.

【在 b******l 的大作中提到】
: 你没错啊。10 X 0.05 也是对的,是 Bonferroni correction,不需要任何
: assumption。
: 他给的是 Sidak correction,需要假设 independency。因为多了一条 assumption 作
: 为代价,所以才更 powerful,也就是说,能得到一个更小的 p-value。
:
: , 那
: 的概

avatar
y*i
45
仔细想想,我说的不对,瀑布汗b......第二种情况也是multiple comparison,应该
用correction.

..

【在 y***i 的大作中提到】
: 不一定不对。
: 统计的理解而言,要是你的目的是不知道哪组数据不同,然后比较找出不同,这个不
: 对。
: 要是本来目的就是分别看各组不同,这么做是对的。
: 其实就是第一种情况,问题也不算太大,只要你不把它作为最后的结果,只是提供给
: 进一步实验的依据。下一次把实验重复一下,能重复出显著的结果的话,那么就能证明
: 是显著的。
:
: ..
: 是不

avatar
D*g
46
你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的
TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10
而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5%
”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than
0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的
办法。因为它实际控制的TYPE I error比预先设置的0.05小。

【在 y***i 的大作中提到】
: 仔细想想,我说的不对,瀑布汗b......第二种情况也是multiple comparison,应该
: 用correction.
:
: ..

avatar
w*y
47
ft, 给定alpha的情况下, 一个test给你的实际type I error远小于
alpha(你的极端例子), 那么这个test就是不如给你实际type I error接近alpha
的另一个test powerful呗, 这不就是Bon不如Sidak powerful的原因嘛
现在唯一不清楚的问题就是
是否有相关性的存在会导致Sidak更liberal的情形
(相关性导致Bon/Sidak more conservative你已经给出了很好的极端例子)
我是暂时没想出来这种情形来

0.

【在 D**g 的大作中提到】
: 你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的
: TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10
: 而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5%
: ”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than
: 0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的
: 办法。因为它实际控制的TYPE I error比预先设置的0.05小。

avatar
y*i
48
两个事件A, B的几率分别是a, b,他们相互独立的时候(请注意这个前提),不出现AB
中任何一个的几率是1-(1-a)(1-b),这是你说的情况。所以1-(1-0.005)^10这个公式
必须有独立前提.
但是当他们两个相互排斥的时候,也就是只要出现A,必然不出现B,只要出现B,必然
不出现A,那么不出现AB中任何一个的几率当然是 1-a-b, 对应于十个0。005的几率事
件, 不出现任何一个的几率是 1-0.005 X 10,这就是Bonferroni correction的极限
情况。这个极限情况独立前提不成立----这点你能想明白么?
所以Bonferroni correction是没有独立前提的。而Sidak correction才需要独立的
前提。
说Bonferroni correction保守是因为它在最极端的情况下也成立。而一般情况没这
么极端。

10
5%
than
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
这句话不对。如果事件之间是相互排斥的,如上面所述,可以到0.005x

【在 D**g 的大作中提到】
: 你大概没看懂我的意思。如果10比较是exclusively independant,而每个比较你设的
: TYPE Ierror为0.005的时候,其over ALL type I error的算法就是1-(1-0.005)^10
: 而不是0.005X10.什么叫“这时候10个0。5%的几率中任何一个成立,几率是0.5%X10=5%
: ”?如果比较间是独立的,那么overall的type I error是0.0488 which is less than
: 0.05. 如果不是exclusive independent, 那么比0.0488更小,所以说BON是个保守的
: 办法。因为它实际控制的TYPE I error比预先设置的0.05小。

avatar
w*y
49
OK, 小李, 看你的例子, 也就是说确实存在Sidak没法控制alpha的情况了?
(实际type I error > alpha)

AB

【在 y***i 的大作中提到】
: 两个事件A, B的几率分别是a, b,他们相互独立的时候(请注意这个前提),不出现AB
: 中任何一个的几率是1-(1-a)(1-b),这是你说的情况。所以1-(1-0.005)^10这个公式
: 必须有独立前提.
: 但是当他们两个相互排斥的时候,也就是只要出现A,必然不出现B,只要出现B,必然
: 不出现A,那么不出现AB中任何一个的几率当然是 1-a-b, 对应于十个0。005的几率事
: 件, 不出现任何一个的几率是 1-0.005 X 10,这就是Bonferroni correction的极限
: 情况。这个极限情况独立前提不成立----这点你能想明白么?
: 所以Bonferroni correction是没有独立前提的。而Sidak correction才需要独立的
: 前提。
: 说Bonferroni correction保守是因为它在最极端的情况下也成立。而一般情况没这

avatar
D*g
50
?最后回帖吧。
我们争的是什么?是为什么说Bon保守?对吧,不是说他需不需要独立的前提。如果十
个是独立的,那么他的alpha是0.0488所以保守,如果其中有correlated的,alpha要更
小。
你说的两两排斥,实际就是负相关,知道一个比较显著,就知道另一个肯定不显著。知
道一个不显著,另一个肯定显著。所以这种情况下你是不需要调整的,直接用alpha0.
05检查任何一个就可以了。 不是说BOn最极端的例子下成立不成立。成立是什么意思?
不成立又是什么意思?而是做遇到极端例子,BON会非常保守。
另外回w开头的那位兄弟,你说的对,BON是因为下调了alpha所以牺牲了power,我前文
所说multiple调整没beta啥事是不对的

AB

【在 y***i 的大作中提到】
: 两个事件A, B的几率分别是a, b,他们相互独立的时候(请注意这个前提),不出现AB
: 中任何一个的几率是1-(1-a)(1-b),这是你说的情况。所以1-(1-0.005)^10这个公式
: 必须有独立前提.
: 但是当他们两个相互排斥的时候,也就是只要出现A,必然不出现B,只要出现B,必然
: 不出现A,那么不出现AB中任何一个的几率当然是 1-a-b, 对应于十个0。005的几率事
: 件, 不出现任何一个的几率是 1-0.005 X 10,这就是Bonferroni correction的极限
: 情况。这个极限情况独立前提不成立----这点你能想明白么?
: 所以Bonferroni correction是没有独立前提的。而Sidak correction才需要独立的
: 前提。
: 说Bonferroni correction保守是因为它在最极端的情况下也成立。而一般情况没这

avatar
r*t
51
Excel 里面 t-test 管不管 normality 呢?管不管剔除 outliner 呢?

都可能
t-

【在 D**g 的大作中提到】
: 除非你事先(比如在grant里)讲好只比较谁和谁。但实际情况一般是这样的:如果你
: 只想比较A和B,就不需要设六种条件了吧。试验条件只要A和B就成了。如果你看到了六
: 个条件的BAR图,再选择差别大的做比较,实际上已经是把所有的15种可能都比较了(
: 用眼睛和用统计方法是一样的)。multiple comparison的基本意思就是:如果你撞一
: 次撞到运气而得到一个positive结果的可能是5%,那么你撞很多次从而得到一个
: positive的结果的可能就不再是5%,而是比5%大得多。最典型的是microarray的结果,
: 如果你比较任意两个RNAsample的基因表达结果,你得到的P-value<0.05甚至0.0001 都可能
: 有N多。
: 生物实验中由于统计方法不正确造成的错误结论应该很多吧。举个最容易犯的错误:t-
: test。很多人喜欢用EXCEL,里面的ttest之TYPE有三个选项:1,2,3. 其中2,3是问

avatar
r*t
52
看来你就是一个啊。
对 2 和 3 结果的差异,你怎么判断什么是显著的,什么是不显著的?

【在 y***i 的大作中提到】
: 两个事件A, B的几率分别是a, b,他们相互独立的时候(请注意这个前提),不出现AB
: 中任何一个的几率是1-(1-a)(1-b),这是你说的情况。所以1-(1-0.005)^10这个公式
: 必须有独立前提.
: 但是当他们两个相互排斥的时候,也就是只要出现A,必然不出现B,只要出现B,必然
: 不出现A,那么不出现AB中任何一个的几率当然是 1-a-b, 对应于十个0。005的几率事
: 件, 不出现任何一个的几率是 1-0.005 X 10,这就是Bonferroni correction的极限
: 情况。这个极限情况独立前提不成立----这点你能想明白么?
: 所以Bonferroni correction是没有独立前提的。而Sidak correction才需要独立的
: 前提。
: 说Bonferroni correction保守是因为它在最极端的情况下也成立。而一般情况没这

avatar
r*t
53
CLT assures your that 没有什么实际意义的差别 asymtotically -> 0 as N->\infty. So 发现差别
显著了就是有意义的显著(就 distribtion mean 而言)

【在 D**g 的大作中提到】
: 是的,如果p在0.05-0.1之间,可以认为反应了一种TREND,只是power不够所以没有发
: 现区别。power=1-typeIIerror。type II error (beta)的意思和alpha相反,意思之
: 错误导致本来有区别但没能发现区别。最简单的增加POWER的方法就是增加SAMPLE 量。
: 一般来说,小SAMPLE量只能够检查到很大的EFFECT,但如果SAMPLE量太大了,很小的差
: 别也会发觉,而这样的差别也许没有什么实际意义。

avatar
r*t
54
这个 thread 把一件事翻来翻去,每个人说的都基本对,正来震去和周博通互搏一样。

?

【在 D**g 的大作中提到】
: ?最后回帖吧。
: 我们争的是什么?是为什么说Bon保守?对吧,不是说他需不需要独立的前提。如果十
: 个是独立的,那么他的alpha是0.0488所以保守,如果其中有correlated的,alpha要更
: 小。
: 你说的两两排斥,实际就是负相关,知道一个比较显著,就知道另一个肯定不显著。知
: 道一个不显著,另一个肯定显著。所以这种情况下你是不需要调整的,直接用alpha0.
: 05检查任何一个就可以了。 不是说BOn最极端的例子下成立不成立。成立是什么意思?
: 不成立又是什么意思?而是做遇到极端例子,BON会非常保守。
: 另外回w开头的那位兄弟,你说的对,BON是因为下调了alpha所以牺牲了power,我前文
: 所说multiple调整没beta啥事是不对的

avatar
M*n
55
各位专家,俺不太懂统计。
所以想问问,ANOVA怎么算,什么情况下用。
平时通常用t-test,不过觉得恐怕是有caveat的,因为样本比较小,所以不知道数据是不是正态分布。
还有如果是重复数次的实验,是不是最好ANOVA.
avatar
D*n
56
t-test,是anova的特殊情况,1(2)way 2 level
anova可以处理 ,2,3,。。。ways, and multiple levels...

是不是正态分布。

【在 M*****n 的大作中提到】
: 各位专家,俺不太懂统计。
: 所以想问问,ANOVA怎么算,什么情况下用。
: 平时通常用t-test,不过觉得恐怕是有caveat的,因为样本比较小,所以不知道数据是不是正态分布。
: 还有如果是重复数次的实验,是不是最好ANOVA.

avatar
D*n
57
我觉得问题是每个人都说得不太对。。。所以才辩来辩去。

【在 r****t 的大作中提到】
: 这个 thread 把一件事翻来翻去,每个人说的都基本对,正来震去和周博通互搏一样。
:
: ?

avatar
p*m
58
现在应该基本都对了 说实话我们这帮天天用统计分析的人居然原理都不能100%说对
真的有点对不起观众

【在 D******n 的大作中提到】
: 我觉得问题是每个人都说得不太对。。。所以才辩来辩去。
avatar
D*n
59
我还统计ms呢,我觉得是因为frequentist的东西的确是比较拗口。multiple test就是
一个很晦涩无聊的东西。当然最出名的还是CI的解释,难受死了。

【在 p*****m 的大作中提到】
: 现在应该基本都对了 说实话我们这帮天天用统计分析的人居然原理都不能100%说对
: 真的有点对不起观众

avatar
p*m
60
样本很小(比如<30) 尤其是<10的情况下用t-test是很有风险的 因为正态性很难
保证 应该改用non-parametric test 虽然会牺牲一些statistical power

是不是正态分布。

【在 M*****n 的大作中提到】
: 各位专家,俺不太懂统计。
: 所以想问问,ANOVA怎么算,什么情况下用。
: 平时通常用t-test,不过觉得恐怕是有caveat的,因为样本比较小,所以不知道数据是不是正态分布。
: 还有如果是重复数次的实验,是不是最好ANOVA.

avatar
p*m
61
其实我觉得大多数生物data压根就不需要什么统计分析 我看见有些paper里3 4个数
还画个bar graph算算t-test什么的我就想笑 这种数先不说有没有credit 就算是有
你放个scatterplot让我们看看每个点都在哪儿不就完了么。。

【在 D******n 的大作中提到】
: 我还统计ms呢,我觉得是因为frequentist的东西的确是比较拗口。multiple test就是
: 一个很晦涩无聊的东西。当然最出名的还是CI的解释,难受死了。

avatar
D*n
62
nature 或是 science上不是有篇文章就说医学杂志上的统计分析,90%都是错的。embl
ishement 而已。

【在 p*****m 的大作中提到】
: 其实我觉得大多数生物data压根就不需要什么统计分析 我看见有些paper里3 4个数
: 还画个bar graph算算t-test什么的我就想笑 这种数先不说有没有credit 就算是有
: 你放个scatterplot让我们看看每个点都在哪儿不就完了么。。

avatar
O*e
63
呵呵,见天做生物实验的却不懂基本原理的也是多了去了

【在 p*****m 的大作中提到】
: 现在应该基本都对了 说实话我们这帮天天用统计分析的人居然原理都不能100%说对
: 真的有点对不起观众

avatar
O*e
64
那些图,基本是凑数交差的。
不过我们不都是在用不同的实验手段去反复支持同一个结论嘛。这基本上能弥补
统计上的不足。

【在 p*****m 的大作中提到】
: 其实我觉得大多数生物data压根就不需要什么统计分析 我看见有些paper里3 4个数
: 还画个bar graph算算t-test什么的我就想笑 这种数先不说有没有credit 就算是有
: 你放个scatterplot让我们看看每个点都在哪儿不就完了么。。

avatar
M*n
65
能不能给详细说说
我的样本基本上是5-10个动物每组,就是简单的比细胞数多少。
用什么test 比较合适?

【在 p*****m 的大作中提到】
: 样本很小(比如<30) 尤其是<10的情况下用t-test是很有风险的 因为正态性很难
: 保证 应该改用non-parametric test 虽然会牺牲一些statistical power
:
: 是不是正态分布。

avatar
r*t
66
俺也不懂统计,只学过 t-test, 样本量越大 power越高,小样本的问题不在于
sample 不是正态分布(其实 sample 都不是随机的不能讲分布),不是正态也能上 t-
test; 而在于 power 不够, 易犯 type II error.

是不是正态分布。

【在 M*****n 的大作中提到】
: 各位专家,俺不太懂统计。
: 所以想问问,ANOVA怎么算,什么情况下用。
: 平时通常用t-test,不过觉得恐怕是有caveat的,因为样本比较小,所以不知道数据是不是正态分布。
: 还有如果是重复数次的实验,是不是最好ANOVA.

avatar
r*t
67
unpaired two-side t test, if your H0 is the cell counts are equal, 应该没问
题的 JMHO. 要是 5-10 个动物差别就显著了就没问题,郁闷的那种是 sample 很多了差别还不显著的人。

【在 M*****n 的大作中提到】
: 能不能给详细说说
: 我的样本基本上是5-10个动物每组,就是简单的比细胞数多少。
: 用什么test 比较合适?

avatar
p*m
68
mann whitney U test

【在 M*****n 的大作中提到】
: 能不能给详细说说
: 我的样本基本上是5-10个动物每组,就是简单的比细胞数多少。
: 用什么test 比较合适?

avatar
D*n
69
the assumption for t-test is actually normality, otherwise the t-statistic u
calculated doesn't follow t-distribution.
problem for small sample size is, 1) hard to verify that it follows normal d
istribution. 2) t-test is robust to non-normality if sample size is large, s
o when it is small, we are less comfortable about using it(unless u r very s
ure it is normal) 3) power is low

【在 r****t 的大作中提到】
: 俺也不懂统计,只学过 t-test, 样本量越大 power越高,小样本的问题不在于
: sample 不是正态分布(其实 sample 都不是随机的不能讲分布),不是正态也能上 t-
: test; 而在于 power 不够, 易犯 type II error.
:
: 是不是正态分布。

avatar
p*m
70
exactly

u
d
s
s

【在 D******n 的大作中提到】
: the assumption for t-test is actually normality, otherwise the t-statistic u
: calculated doesn't follow t-distribution.
: problem for small sample size is, 1) hard to verify that it follows normal d
: istribution. 2) t-test is robust to non-normality if sample size is large, s
: o when it is small, we are less comfortable about using it(unless u r very s
: ure it is normal) 3) power is low

avatar
r*t
71
but this normality assumption is on that of the test statistics, not of the
raw data. If use sample mean, as long as mean exists, it follows t-
distribution.
I see no way one knows something follows what exact distribution. The so
called 'verifying' is another statistic test. One has to make assumption
about the distribution based on the underlying model of the data generating
process. No assumption, there is no test. It is either generated iid, or not
. For the former, t-test is just fine; for

【在 D******n 的大作中提到】
: the assumption for t-test is actually normality, otherwise the t-statistic u
: calculated doesn't follow t-distribution.
: problem for small sample size is, 1) hard to verify that it follows normal d
: istribution. 2) t-test is robust to non-normality if sample size is large, s
: o when it is small, we are less comfortable about using it(unless u r very s
: ure it is normal) 3) power is low

avatar
p*m
72
nod 我其实能理解大家这么干是为啥 还不都是想显得自己quantitative么(主动或
者被迫的) 可实际上现在大多数生物学研究的对象和手段只能允许很粗糙的quali
tative的判断 你非要假装quantitative这个就不仅要闹笑话还要misleading的
比如说吧 某人要是show了3次重复的western blot的结果 然后分析一下发现mean差
了2% 同时做了个ttest发现mean的差异显著性很大。 暂且先不说他就3个结果能不
能用mean来represent数据 也不说ttest能不能随便用 他这个2%的差距就算再显著
你真的相信它能被别的试验室重复 能代表一些有根据的生物学现象?

【在 O******e 的大作中提到】
: 那些图,基本是凑数交差的。
: 不过我们不都是在用不同的实验手段去反复支持同一个结论嘛。这基本上能弥补
: 统计上的不足。

avatar
a*c
73
Central limit theorem?

the
generating
not

【在 r****t 的大作中提到】
: but this normality assumption is on that of the test statistics, not of the
: raw data. If use sample mean, as long as mean exists, it follows t-
: distribution.
: I see no way one knows something follows what exact distribution. The so
: called 'verifying' is another statistic test. One has to make assumption
: about the distribution based on the underlying model of the data generating
: process. No assumption, there is no test. It is either generated iid, or not
: . For the former, t-test is just fine; for

avatar
D*n
74
....speechless....

the
generating
not

【在 r****t 的大作中提到】
: but this normality assumption is on that of the test statistics, not of the
: raw data. If use sample mean, as long as mean exists, it follows t-
: distribution.
: I see no way one knows something follows what exact distribution. The so
: called 'verifying' is another statistic test. One has to make assumption
: about the distribution based on the underlying model of the data generating
: process. No assumption, there is no test. It is either generated iid, or not
: . For the former, t-test is just fine; for

avatar
p*m
75
我觉得这么说就行了 只要sample size足够大 sample variance几乎不会影响test
statistics 所以即便是非正态分布的数据用ttest也不会影响分析结果。但是如果
sample size太小 非正态分布的数据会让ttest倾向于否定H0(原因我不太清楚)
因此不适合ttest 我觉得你们两个说的其实是一回事 两个角度而已

the
generating
not

【在 r****t 的大作中提到】
: but this normality assumption is on that of the test statistics, not of the
: raw data. If use sample mean, as long as mean exists, it follows t-
: distribution.
: I see no way one knows something follows what exact distribution. The so
: called 'verifying' is another statistic test. One has to make assumption
: about the distribution based on the underlying model of the data generating
: process. No assumption, there is no test. It is either generated iid, or not
: . For the former, t-test is just fine; for

avatar
M*n
76
google了一下。
有没有什么软件可以直接算这个的?

【在 p*****m 的大作中提到】
: mann whitney U test
avatar
p*m
77
SPSS里面选compare means然后non-parametric 2-sample test就是用的这个 大家常用
的prism里面应该
也有

【在 M*****n 的大作中提到】
: google了一下。
: 有没有什么软件可以直接算这个的?

avatar
D*n
78
实际操作没有太多区别是一回事,assumption是否是normal是另外一回事。
repast就是把这两个搞混了。
t-test 的assumption就是normality,不等于不是normality的数据不能用。。。。哎,
再说我都变唐僧了。。。。

【在 p*****m 的大作中提到】
: 我觉得这么说就行了 只要sample size足够大 sample variance几乎不会影响test
: statistics 所以即便是非正态分布的数据用ttest也不会影响分析结果。但是如果
: sample size太小 非正态分布的数据会让ttest倾向于否定H0(原因我不太清楚)
: 因此不适合ttest 我觉得你们两个说的其实是一回事 两个角度而已
:
: the
: generating
: not

avatar
r*t
79
Ok, asymtotically. Now you are satisfied...

【在 D******n 的大作中提到】
: ....speechless....
:
: the
: generating
: not

avatar
r*t
80
你觉得他这个能用 pair-wise 的?

【在 p*****m 的大作中提到】
: SPSS里面选compare means然后non-parametric 2-sample test就是用的这个 大家常用
: 的prism里面应该
: 也有

avatar
p*m
81
我记得SPSS里pair-wise comparison就是指2 sample的意思吧 和paired comparis
on不是一回事 不过我有可能记错了 刚刚把SPSS卸掉了。。
OK我估计是记错了 改了下 应该就叫non-parametric 2-sample blabla

【在 r****t 的大作中提到】
: 你觉得他这个能用 pair-wise 的?
avatar
p*m
82
这个我同意 我不是和稀泥的么。。

哎,

【在 D******n 的大作中提到】
: 实际操作没有太多区别是一回事,assumption是否是normal是另外一回事。
: repast就是把这两个搞混了。
: t-test 的assumption就是normality,不等于不是normality的数据不能用。。。。哎,
: 再说我都变唐僧了。。。。

avatar
p*m
83
这个我没明白。。

【在 r****t 的大作中提到】
: Ok, asymtotically. Now you are satisfied...
avatar
M*n
84
no problem.
我们老板刚刚hire了一个statistician, 我回头再问问他吧。

【在 p*****m 的大作中提到】
: 我记得SPSS里pair-wise comparison就是指2 sample的意思吧 和paired comparis
: on不是一回事 不过我有可能记错了 刚刚把SPSS卸掉了。。
: OK我估计是记错了 改了下 应该就叫non-parametric 2-sample blabla

avatar
p*m
85
你看我刚发的 我应该是把名字记错了 东西还是在那里的

【在 M*****n 的大作中提到】
: no problem.
: 我们老板刚刚hire了一个statistician, 我回头再问问他吧。

avatar
D*n
86
这就是我的刚才说的第二点,sample size大的时候,就算数据不太normal,算出来的s
tatistic也比较t

【在 p*****m 的大作中提到】
: 这个我没明白。。
avatar
p*m
87
ok 那就和我说的也一样咯 我主要是不认识这个词。。

的s

【在 D******n 的大作中提到】
: 这就是我的刚才说的第二点,sample size大的时候,就算数据不太normal,算出来的s
: tatistic也比较t

avatar
s*0
88
这都什么乱七八糟的。要这么说所有的statistical test都得用non-parametric才行,
因为也只有non-parametric才没有
任何normality的假设。
什么时候mean都可以算出来,但一组严重不normal的数据算均数的一开始就错了,因为
均数没有什么实际意义,相反中
值才有意义,怎么可能还上t test? 做parametric的统计检验当然会有data
distribution的假设,这样的假设当然有生活中
的认同,比如在人群中取身高,有几个姚明几个mini-me?大部分人不还在中间,而且
逼近正太,凭什么说不能用
normality的假设?而之所以要大样本也是为了避免抽样误差而让它接近实际生活中的
分布。

the
generating
not

【在 r****t 的大作中提到】
: but this normality assumption is on that of the test statistics, not of the
: raw data. If use sample mean, as long as mean exists, it follows t-
: distribution.
: I see no way one knows something follows what exact distribution. The so
: called 'verifying' is another statistic test. One has to make assumption
: about the distribution based on the underlying model of the data generating
: process. No assumption, there is no test. It is either generated iid, or not
: . For the former, t-test is just fine; for

avatar
p*m
89
你这个又给说到歪路上去了 sample size当然可以消除distribution的影响 这个和
是不是能够消除取样误差压根就是两码事

【在 s*****0 的大作中提到】
: 这都什么乱七八糟的。要这么说所有的statistical test都得用non-parametric才行,
: 因为也只有non-parametric才没有
: 任何normality的假设。
: 什么时候mean都可以算出来,但一组严重不normal的数据算均数的一开始就错了,因为
: 均数没有什么实际意义,相反中
: 值才有意义,怎么可能还上t test? 做parametric的统计检验当然会有data
: distribution的假设,这样的假设当然有生活中
: 的认同,比如在人群中取身高,有几个姚明几个mini-me?大部分人不还在中间,而且
: 逼近正太,凭什么说不能用
: normality的假设?而之所以要大样本也是为了避免抽样误差而让它接近实际生活中的

avatar
s*0
90
喔,原来所有double blind randomized design要用大样本不是为了降低sampling
error而是为了消除distribution的影
响?t test对大样本适度的normality violation的容忍不代表增大sample size是为了
消除distribution的影响。

【在 p*****m 的大作中提到】
: 你这个又给说到歪路上去了 sample size当然可以消除distribution的影响 这个和
: 是不是能够消除取样误差压根就是两码事

avatar
y*i
91
sample size当然可以消除distribution的影响 =\=增大sample size是为了消除
~~~~~~~~~ ~~~~~~~~~~~
distribution的影响
不用争了。俩人的基本看法应该是一样的。

【在 s*****0 的大作中提到】
: 喔,原来所有double blind randomized design要用大样本不是为了降低sampling
: error而是为了消除distribution的影
: 响?t test对大样本适度的normality violation的容忍不代表增大sample size是为了
: 消除distribution的影响。

avatar
M*P
92
其实所有的问题罪魁祸首是 p value < 0.05, 而不是啥 t 不 t 分布的问题。

【在 p*****m 的大作中提到】
: 你这个又给说到歪路上去了 sample size当然可以消除distribution的影响 这个和
: 是不是能够消除取样误差压根就是两码事

avatar
p*m
93
ft 我是说刚才那位之所以提到大样本 是因为大样本下非正态分布不会太影响t-st
atistics 结果你上来就说什么消除取样误差 大样本当然可以减小取样误差 可是这
个和原来那位同志说得矛盾么?不矛盾的话你批判人家啥?

【在 s*****0 的大作中提到】
: 喔,原来所有double blind randomized design要用大样本不是为了降低sampling
: error而是为了消除distribution的影
: 响?t test对大样本适度的normality violation的容忍不代表增大sample size是为了
: 消除distribution的影响。

avatar
s*0
94
你再去把那哥们的原话读一遍,你就明白dashagen的"speechless"的感慨了,不是你描
述的如下原因。

【在 p*****m 的大作中提到】
: ft 我是说刚才那位之所以提到大样本 是因为大样本下非正态分布不会太影响t-st
: atistics 结果你上来就说什么消除取样误差 大样本当然可以减小取样误差 可是这
: 个和原来那位同志说得矛盾么?不矛盾的话你批判人家啥?

avatar
r*t
95

你这种看法犯的错误正好是我要大家警醒的,我说的正是不要动不动就用 u-test, 很
多时候 t test 是非常适用的。t-test 对产生 sample 的 distribution 没有任何假
设,不需要是 normal 的,我想 DaShagen 对这个说法没有意见。t test normality
假设是对 test statistics 而言的,sample mean -> true mean (asymtotically) as
N->\infty 的根据是 CLT, 前面有别的同学提过。
我看来这话没有道理,均数为啥没意义?(这个话有啥出处没,能不能 detail 给大家
听听?)
你用正态分布 model 身高,我没有意见。我没有说“不能用normality的假设”,在这
种情况下身高没有必要是正态分布的,你也能用 t test. 因为均值的 normalty 是
CLT 确保了的。

【在 s*****0 的大作中提到】
: 这都什么乱七八糟的。要这么说所有的statistical test都得用non-parametric才行,
: 因为也只有non-parametric才没有
: 任何normality的假设。
: 什么时候mean都可以算出来,但一组严重不normal的数据算均数的一开始就错了,因为
: 均数没有什么实际意义,相反中
: 值才有意义,怎么可能还上t test? 做parametric的统计检验当然会有data
: distribution的假设,这样的假设当然有生活中
: 的认同,比如在人群中取身高,有几个姚明几个mini-me?大部分人不还在中间,而且
: 逼近正太,凭什么说不能用
: normality的假设?而之所以要大样本也是为了避免抽样误差而让它接近实际生活中的

avatar
r*t
96
你这种说法比较容易吓到人,我来说的话是这样:
ample size大的时候,就算数据跟本不 normal (可以是任何存在 expectation 的
distribution),算出来的 t-statistic也基本符合 t distribution.

的s

【在 D******n 的大作中提到】
: 这就是我的刚才说的第二点,sample size大的时候,就算数据不太normal,算出来的s
: tatistic也比较t

avatar
s*0
97
笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同?
normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t
test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。
对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp

【在 r****t 的大作中提到】
: 你这种说法比较容易吓到人,我来说的话是这样:
: ample size大的时候,就算数据跟本不 normal (可以是任何存在 expectation 的
: distribution),算出来的 t-statistic也基本符合 t distribution.
:
: 的s

avatar
r*t
98

DaShagen 的叙述是有些地方让我觉得不清楚,所以我把他的话重说了一遍,见前面帖子。我也没有说要用不带假设的test,我只是说 t test 不假设 underlying distribution is normal. 你没搞清楚我们在说什么,有时候你读贴仔细点,能省你自己和大家很多时间。
两均值之间的 t test 对 underlying distribution 没有 normalty 假设,只要均值
存在就行,i stand by this statement. 严重偏离 normal distribution, 只要是
iid sample. sample mean 仍然是 normal distribution, 仍然用 t test. 有时候你
只要读书认真点,能明白很多事。
均数仍然是存在的,仍然是有定义的,只是在这种情况下 t-statistic 没有“代表性
”,这个和没有"意义"是两码事。你要是追求“代表性”当然不能 t test. 但是即使
在这种情况下 t-test 仍然是有意义的,其结论 on means of the underlying
distr

【在 s*****0 的大作中提到】
: 笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同?
: normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t
: test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。
: 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp

avatar
r*t
99

会不会认同?
不知道,我希望他是认同的,CLT 我想大家都学过。

【在 s*****0 的大作中提到】
: 笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同?
: normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t
: test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。
: 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp

avatar
D*n
100
我也不想再纠结了,大家自己看看书然后自己明白去吧。

【在 r****t 的大作中提到】
:
: 会不会认同?
: 不知道,我希望他是认同的,CLT 我想大家都学过。

avatar
d*a
101
其实很简单。
如果你看到了这次结果挑出来是 significant 的,但是adjust 之后是不significant 的
那么你就再做一次,这次只做你有兴趣的这个比较
如果 p< 0.05 ,那么就是显著的。
因为你已经没有其他的比较来撞大运了。

【在 b******l 的大作中提到】
: 这是良心活儿。你要是一口咬定你没看另外四组的数据,那就是显著的。否则,就是不
: 显著的。很无厘头。
:
: .最
: 以免
: 的。
: 一种
: 能的

avatar
d*a
102
t-test 的assumption里面,按照重要性递减是
independent >> equal variance > normality
as long as normality is not very much violated, e.g. heavily skewed, then t-
test is well approximated.
More skewed a sample, more sample size is needed.

会不会认同?
时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指
该test在大样本的时候还能给出相对可靠的结论,不等于说t
还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-
test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带
假设。
tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有
意义。举个

【在 s*****0 的大作中提到】
: 笑话,t test对normality没有任何假设?别断章取义,你把DaShagen叫来,看看他会不会认同?
: normality是一个parametric test最基本的假设,DaShagen的原意是当样本足够大的时候,t test逼近z test,对normality假设轻度或者中度的violation可以容忍,是指该test在大样本的时候还能给出相对可靠的结论,不等于说t
: test对normality没有任何假设。如果严重偏离normality, sample mean和std趋近,还怎么t-test? 对于right skewed data还可以做对数变换,我怎么动不动建议用u-test?不是你说要用不带假设的test么?那只好non-parametric 了,parametric都带假设。
: 对于highly skewed data, 均数有什么意义?Come on, Mean--measure of central tendency, Variance/STD--measure of dispersion, 这都对normality分布的数据才有意义。举个极端的例子,samp

avatar
s*0
103
行了,别死鸭子嘴硬了,就把你那句话“t test 不假设 underlying distribution is
normal."记着跟Dashagen复述一下,看看能不能共鸣。
还有学统计别一叶障目,光明白一个t test就来大谈假设不假设。parametric
statistic都是基于distribution assumption,没有了这个assumption,还能叫
parametric test?至于后来发现很多test对轻度的non-nomarlity以及unequal
variance有一定程度的容忍,那是test的robustness,跟statstic原本需要符合的应用
条件并不排斥,不能因为test robust就掘弃normality assumption了。
还有自己的发言自己有点信心,不用捎上无辜的shagen同学做垫背,我跟他关于统计的
交流很多,知道他的深浅。说他不会认同你的看法不为无由。明天他回这个版,你不妨
跟他好好谈谈。要说他的理论应该很强,刚毕业什么都热呼着,要说他的应用还尚浅,
原因还是因为他刚毕业,也许以后会很强。可以问问他本人,我有没有资格这

【在 r****t 的大作中提到】
:
: 会不会认同?
: 不知道,我希望他是认同的,CLT 我想大家都学过。

avatar
d*a
104
not really

the
generating
not

【在 r****t 的大作中提到】
: but this normality assumption is on that of the test statistics, not of the
: raw data. If use sample mean, as long as mean exists, it follows t-
: distribution.
: I see no way one knows something follows what exact distribution. The so
: called 'verifying' is another statistic test. One has to make assumption
: about the distribution based on the underlying model of the data generating
: process. No assumption, there is no test. It is either generated iid, or not
: . For the former, t-test is just fine; for

avatar
D*n
105
我一直在,只不过觉得再辩也没有意思。你说的就基本就是我的意思了。

is

【在 s*****0 的大作中提到】
: 行了,别死鸭子嘴硬了,就把你那句话“t test 不假设 underlying distribution is
: normal."记着跟Dashagen复述一下,看看能不能共鸣。
: 还有学统计别一叶障目,光明白一个t test就来大谈假设不假设。parametric
: statistic都是基于distribution assumption,没有了这个assumption,还能叫
: parametric test?至于后来发现很多test对轻度的non-nomarlity以及unequal
: variance有一定程度的容忍,那是test的robustness,跟statstic原本需要符合的应用
: 条件并不排斥,不能因为test robust就掘弃normality assumption了。
: 还有自己的发言自己有点信心,不用捎上无辜的shagen同学做垫背,我跟他关于统计的
: 交流很多,知道他的深浅。说他不会认同你的看法不为无由。明天他回这个版,你不妨
: 跟他好好谈谈。要说他的理论应该很强,刚毕业什么都热呼着,要说他的应用还尚浅,

avatar
r*t
106
我看了书得出和你不太一样的看法 (如果你的看法照
sgu200 说支持他的看法的话)。
你要是不愿意指正我,我就只好执着于错误的观念了。
这个也不是什么面子问题不能说清楚,要是你能告诉
我为什么 t test 要求 underlying data is normal,
sgu2000 的道理到底在哪儿,我就明白地认错。
这么似是而非,对我们这样学的比你少的没有帮助,只
有害处。

【在 D******n 的大作中提到】
: 我也不想再纠结了,大家自己看看书然后自己明白去吧。
avatar
D*n
107
好吧,是这样的。
统计上面这些test都是严格的假定一些东西通过数学变换得来的,譬如这个t-test. 如
果assumption不满足,那么得出来的东西就不会100%的正确。譬如如果非normal,算出
来的t-statistic,就不会完完全全的follow t distribution.
然而,practically,normality一点点的偏离,或者sample size比较大的情况下,算出
来的t-statistics 也勉强不会偏离t distribution 太多。所以就将就用着。
所以,你是把统计上铁铮铮的数学证明所需要的assumption 跟实际上 test的robustne
ss(就是,小小偏离不影响结果太过分)搞混了。

【在 r****t 的大作中提到】
: 我看了书得出和你不太一样的看法 (如果你的看法照
: sgu200 说支持他的看法的话)。
: 你要是不愿意指正我,我就只好执着于错误的观念了。
: 这个也不是什么面子问题不能说清楚,要是你能告诉
: 我为什么 t test 要求 underlying data is normal,
: sgu2000 的道理到底在哪儿,我就明白地认错。
: 这么似是而非,对我们这样学的比你少的没有帮助,只
: 有害处。

avatar
s*0
108
Dashagen快被你逼疯了,我坏人做到底,来救救他。
我猜你从书上的理解是normality可以不被严格遵守,相反equal variance更重要,是
不是?这理解本身没错,因为对t test而言,它足够robust来应对一定程度的
normality violation。
但为什么说“t test 要求 underlying data is normal”? 一个建议,先从Z test的
章节读起,看看能否明白一些?另外一个角度,t值的分子是什么?分母是什么?分子
和分母分别是measure什么的? 为什么data highly skewed的时候分子和分母的
measurement就不适用?为什么要引入median,percentile的概念?为什么要有data
transformation? 既然无所谓data distribution,data transformation又何必多此
一举?non-parametric test难道就是一个摆设?
别单说t test,因为normality assumption不是光apply to t-test。 Google "
par

【在 r****t 的大作中提到】
: 我看了书得出和你不太一样的看法 (如果你的看法照
: sgu200 说支持他的看法的话)。
: 你要是不愿意指正我,我就只好执着于错误的观念了。
: 这个也不是什么面子问题不能说清楚,要是你能告诉
: 我为什么 t test 要求 underlying data is normal,
: sgu2000 的道理到底在哪儿,我就明白地认错。
: 这么似是而非,对我们这样学的比你少的没有帮助,只
: 有害处。

avatar
r*t
109
另外,这个“sample size太小 非正态分布的数据会让ttest倾向于否定H0”的说法根
据是什么?一般讲 small sample 用 U-test, 我能想起来的是两个原因:1. median
比 mean robust; 2. for small sample U-test statistic 简单到可以手算。因为我
没学过,所以有很多别的好处你可以补充。我看来,错误地 reject H0 is your alpha
, which is calculated against your H0 precisely, hence is not related to the
sample, be it large sample or small sample.
对于 sample size 很小的情况,也有 u-test 不适合但是 t-test 更适合的时候。这
个直接和前面我的帖子里面的态度有关,如果你知道数据确实是 normal 的(比如
model 是正态的,或者有很强的理由相信数据是正态,比如对一个柱子测 5 次长度这
种,而不仅仅是从几个 normality test

【在 p*****m 的大作中提到】
: 我觉得这么说就行了 只要sample size足够大 sample variance几乎不会影响test
: statistics 所以即便是非正态分布的数据用ttest也不会影响分析结果。但是如果
: sample size太小 非正态分布的数据会让ttest倾向于否定H0(原因我不太清楚)
: 因此不适合ttest 我觉得你们两个说的其实是一回事 两个角度而已
:
: the
: generating
: not

avatar
r*t
110
我和你分歧就在这儿,CLT's proof only requires (1) iid (2) finite \mu (3)
positive variance.
Note the convergence is in distribution, not in probability. Thus when N is
large, the distribution of mean *IS* normal distribution, hence t-test's
assumption satisfied. 换句话说 sample size比较大的情况下,算出来的t-
statistics conforms to t distribution, 而不仅仅是差别不大,因为你可以 scale
the distribution by sqrt(N) and get a standard normal. 更重要的大家应该留意的
是,underlying distribution 只需要满足条件 (2)(3).
就像说 0.333333.. *3 = 1 而不是<1 一个道理。
test robustn

【在 D******n 的大作中提到】
: 好吧,是这样的。
: 统计上面这些test都是严格的假定一些东西通过数学变换得来的,譬如这个t-test. 如
: 果assumption不满足,那么得出来的东西就不会100%的正确。譬如如果非normal,算出
: 来的t-statistic,就不会完完全全的follow t distribution.
: 然而,practically,normality一点点的偏离,或者sample size比较大的情况下,算出
: 来的t-statistics 也勉强不会偏离t distribution 太多。所以就将就用着。
: 所以,你是把统计上铁铮铮的数学证明所需要的assumption 跟实际上 test的robustne
: ss(就是,小小偏离不影响结果太过分)搞混了。

avatar
D*n
111
fts, 我说的是0.333*3 != 1
你说的是n->inf.....
speechless again.

in
is

【在 r****t 的大作中提到】
: 我和你分歧就在这儿,CLT's proof only requires (1) iid (2) finite \mu (3)
: positive variance.
: Note the convergence is in distribution, not in probability. Thus when N is
: large, the distribution of mean *IS* normal distribution, hence t-test's
: assumption satisfied. 换句话说 sample size比较大的情况下,算出来的t-
: statistics conforms to t distribution, 而不仅仅是差别不大,因为你可以 scale
: the distribution by sqrt(N) and get a standard normal. 更重要的大家应该留意的
: 是,underlying distribution 只需要满足条件 (2)(3).
: 就像说 0.333333.. *3 = 1 而不是<1 一个道理。
: test robustn

avatar
K*n
112
不懂统计,俺胡乱认为,student's t distribution 不是对Gaussian的方差用一个
Gamma prior给Bayesian出来的吗。那推导过程显然是用了Gaussian的
avatar
r*t
113
我说的是理论根据,实践上,0.33 * 3 == 1 这样错误也很小,至少我不会去纠结这个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say reject or not to H0. 这就是为什么我说不要求 underlying data distribution is normal. 很多同学就是被这个吓住了,不敢放心大胆的用 t test.
上面是 sample size 大的情况。
sample size 小的时候你的 normality test 很难得 reject H0 的,所以你的 t test 还是有根有据的。

【在 D******n 的大作中提到】
: fts, 我说的是0.333*3 != 1
: 你说的是n->inf.....
: speechless again.
:
: in
: is

avatar
s*0
114
我总算看明白他的意思了,他其实说得也没什么大问题。因为象t test and ANOVA要考
虑的只是differences between means,CLT让这些test在其样本本身不符合高斯分布也
能work well。
但invoke CLT有一个条件,样本不能太小。不过话说回来,又回到原来的discussion,
即test的robustness被进一步证明而已,不是说t statistic不需要normality
assumption。
其实这么说更直观简洁:如果没有非常weird的分布样本数不小于10-15既可放心使用t-
test;如果有weird的分布所需要的样本数要更大才能invoke CLT,否则只能上
nonparametric。

【在 D******n 的大作中提到】
: fts, 我说的是0.333*3 != 1
: 你说的是n->inf.....
: speechless again.
:
: in
: is

avatar
D*n
115
反正来来回回就是那个意思。。。。说了半天。。。

t-

【在 s*****0 的大作中提到】
: 我总算看明白他的意思了,他其实说得也没什么大问题。因为象t test and ANOVA要考
: 虑的只是differences between means,CLT让这些test在其样本本身不符合高斯分布也
: 能work well。
: 但invoke CLT有一个条件,样本不能太小。不过话说回来,又回到原来的discussion,
: 即test的robustness被进一步证明而已,不是说t statistic不需要normality
: assumption。
: 其实这么说更直观简洁:如果没有非常weird的分布样本数不小于10-15既可放心使用t-
: test;如果有weird的分布所需要的样本数要更大才能invoke CLT,否则只能上
: nonparametric。

avatar
r*t
116

我以为我们在讨论 t test.
我的书上没有讲 t test 要求 normality/equal variance. 手头没有书,Z-test我也
看了一下,建议你也就这些问题再看一遍,注意 underlying data != statistics http://en.wikipedia.org/wiki/Test_statistic,这些应该是统计第一节课该讲的。
你让我 google 的东西,出来的第一个 link 实在是不知所云。或者我学的东西错了,
或者他错了。
http://changingminds.org/explanations/research/analysis/parametric_non-parametric.htm

【在 s*****0 的大作中提到】
: Dashagen快被你逼疯了,我坏人做到底,来救救他。
: 我猜你从书上的理解是normality可以不被严格遵守,相反equal variance更重要,是
: 不是?这理解本身没错,因为对t test而言,它足够robust来应对一定程度的
: normality violation。
: 但为什么说“t test 要求 underlying data is normal”? 一个建议,先从Z test的
: 章节读起,看看能否明白一些?另外一个角度,t值的分子是什么?分母是什么?分子
: 和分母分别是measure什么的? 为什么data highly skewed的时候分子和分母的
: measurement就不适用?为什么要引入median,percentile的概念?为什么要有data
: transformation? 既然无所谓data distribution,data transformation又何必多此
: 一举?non-parametric test难道就是一个摆设?

avatar
r*t
117
前面我已经说过了,读贴仔细一点能省自己和大家很多时间。

t-

【在 s*****0 的大作中提到】
: 我总算看明白他的意思了,他其实说得也没什么大问题。因为象t test and ANOVA要考
: 虑的只是differences between means,CLT让这些test在其样本本身不符合高斯分布也
: 能work well。
: 但invoke CLT有一个条件,样本不能太小。不过话说回来,又回到原来的discussion,
: 即test的robustness被进一步证明而已,不是说t statistic不需要normality
: assumption。
: 其实这么说更直观简洁:如果没有非常weird的分布样本数不小于10-15既可放心使用t-
: test;如果有weird的分布所需要的样本数要更大才能invoke CLT,否则只能上
: nonparametric。

avatar
D*g
118
one way ANOVA如果结果没有显著性 那么post-hoc的分析就是不对的。Tukey-Kramer或
者Fisher t test都是不适合用的
对于你的这个情况 可以考虑单单就用student t test比较mean好了。一般来说也可以
接受。

【在 c**a 的大作中提到】
: 一组实验数据6个条件,用 one-way ANOVA 和post test comparison 比较的时候, 任何
: 两组之间都
: 没有显著差异, 但是如果用paired t-test比较其中两组 (柱状图看上去差异比较大的
: 两组) ,p< 0,05.
: 哪个比较才是对的呢??

avatar
D*g
119
我觉得pair comparison如果只是简单的两两条件t test的话 你的type I error的几率
显然是1-(1-alpha)^m (假设m次比较)
但是pair comparison,比如Tukey,在比较两两之间时 不是用的各自的standard dev
而是用的model MSe,所以你的alpha不用做相应调整 就是0.05就够了。这是Tukey-
Kramer方法的优势所在。(All pair comparison) 当然前提是所有的样本符合正态分布
而且equal variance.
而且这个的前提是ANOVA的null hypothesis被reject 也就是model parameter至少一个
不是0.否则的话Tukey没有意义。

err
leve
H0为
Xalpha,
率就
typ

【在 p*****m 的大作中提到】
: 俺觉得你说的有点似是而非 multiple comparison的correction是为了防止type I err
: or 也就是H0为真却否定之的概率 也就是你设置的alpha level 一般我们设alpha leve
: l=0.05 这样如果p<0.05的话我们认为H0为假 也就是两组数的平均值不相同 这时候H0为
: 真的概率是5%。
: 因此如果进行了相当数量的comparison的话 type I error的可能性是比较次数Xalpha,
: 比如说 如果进行了10次pair comparison,那么其中某一次检验的type I error的概率就
: 高到50% 从而使得统计结果毫无意义 为了吧type I error控制在合理范围内 最简单的
: 办法就是把alpha level变小 比如说你说的alpha/检验次数 这样可以机械的保证总typ
: e I error的概率还是5%。这是最保守的correction方法 当然人们一般习惯用不那么保
: 守的检验方法 其依据一般是多重检验的各组并非完全独立

avatar
w*y
120
貌似你很懂嘛, 连积分积掉sigma都还记得

【在 K****n 的大作中提到】
: 不懂统计,俺胡乱认为,student's t distribution 不是对Gaussian的方差用一个
: Gamma prior给Bayesian出来的吗。那推导过程显然是用了Gaussian的

avatar
b*l
121
拜托大牛们等讨论结束了各写一个总结陈词吧。从理论到实践,从 alpha 到 beta,从
t 到 U,从小样本实验到 microArray 和 bioinformatics。
这个问题算是这个版上最常遇到的统计问题了,也是最有用的一个,整清楚了,功德无
量啊。

【在 w******y 的大作中提到】
: 貌似你很懂嘛, 连积分积掉sigma都还记得
avatar
w*y
122
别吵了
数学推导里用到了normal的条件, 这是理论上必须有的条件
实践上如果大样本无论何分布, normality渐进成立, 用t-test渐进符合underlying
理论
不过真正重要的是很多严重偏离正态的分布去比较均值毫无意义

个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say
reject or not to H0. 这就是为什么我说不要求 underlying data distribution is
normal. 很多同学就是被这个吓
test 还是有根有据的。

【在 r****t 的大作中提到】
: 我说的是理论根据,实践上,0.33 * 3 == 1 这样错误也很小,至少我不会去纠结这个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say reject or not to H0. 这就是为什么我说不要求 underlying data distribution is normal. 很多同学就是被这个吓住了,不敢放心大胆的用 t test.
: 上面是 sample size 大的情况。
: sample size 小的时候你的 normality test 很难得 reject H0 的,所以你的 t test 还是有根有据的。

avatar
r*t
123

你来晚了,这些都是重复而已。
sgu2000 的"无意义" argument is addressed, too. 不用再说一遍了。

【在 w******y 的大作中提到】
: 别吵了
: 数学推导里用到了normal的条件, 这是理论上必须有的条件
: 实践上如果大样本无论何分布, normality渐进成立, 用t-test渐进符合underlying
: 理论
: 不过真正重要的是很多严重偏离正态的分布去比较均值毫无意义
:
: 个 0.01 或者是 0.001. note this is hypothesis testing, you just need to say
: reject or not to H0. 这就是为什么我说不要求 underlying data distribution is
: normal. 很多同学就是被这个吓
: test 还是有根有据的。

avatar
s*0
124
原来wiki是你的教科书,更何况你给的link还不对。喜欢看wiki, 看看这个link:
http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
还有,学统计别学成了孔已己。死抠着t test和CLT不放你不觉得很悲哀么?一个
statistic的选择不是什么天壤之别,t test
得出p=0.049和U test得出p=0.08就因为落在0.05的两侧就完全不一样?可能biologist
PI会这么看问题,所以垃圾文章
漫天飞舞,publication bias uncontrolled.
还有你的公式underlying data != statistics显得很幼稚,数据和方法论居然要相提
并论,难免让人笑掉大牙。缺乏最基本
对统计得理解和尊重,为辩论而辩论,而不是想想为什么,只为自己的立场拼命挽回遮
掩,在mit上挣回这点面子费那么大
劲,自己都不知所云,我问你当data distribution严重left skewed的时候,你打算怎
么处理?别拿CLT来搪塞,而且实话
告诉你取

【在 r****t 的大作中提到】
:
: 你来晚了,这些都是重复而已。
: sgu2000 的"无意义" argument is addressed, too. 不用再说一遍了。

avatar
b*l
125
easy easy,就事论事 :)

biologist

【在 s*****0 的大作中提到】
: 原来wiki是你的教科书,更何况你给的link还不对。喜欢看wiki, 看看这个link:
: http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
: 还有,学统计别学成了孔已己。死抠着t test和CLT不放你不觉得很悲哀么?一个
: statistic的选择不是什么天壤之别,t test
: 得出p=0.049和U test得出p=0.08就因为落在0.05的两侧就完全不一样?可能biologist
: PI会这么看问题,所以垃圾文章
: 漫天飞舞,publication bias uncontrolled.
: 还有你的公式underlying data != statistics显得很幼稚,数据和方法论居然要相提
: 并论,难免让人笑掉大牙。缺乏最基本
: 对统计得理解和尊重,为辩论而辩论,而不是想想为什么,只为自己的立场拼命挽回遮

avatar
r*t
126
wiki 不是教科书,但是现在书不在手边。这个新页面我不看了,没时间了。你的论点
是什么?

【在 s*****0 的大作中提到】
: 原来wiki是你的教科书,更何况你给的link还不对。喜欢看wiki, 看看这个link:
: http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
: 还有,学统计别学成了孔已己。死抠着t test和CLT不放你不觉得很悲哀么?一个
: statistic的选择不是什么天壤之别,t test
: 得出p=0.049和U test得出p=0.08就因为落在0.05的两侧就完全不一样?可能biologist
: PI会这么看问题,所以垃圾文章
: 漫天飞舞,publication bias uncontrolled.
: 还有你的公式underlying data != statistics显得很幼稚,数据和方法论居然要相提
: 并论,难免让人笑掉大牙。缺乏最基本
: 对统计得理解和尊重,为辩论而辩论,而不是想想为什么,只为自己的立场拼命挽回遮

avatar
r*t
127
我只是想让大家放心大胆,而且正确的用 t test, 并且知道为什么不用担心
underlying data non-normal. 今天讨论里面我还没提到 p-value...你可能是看了别
的帖子,加我头上了

biologist

【在 s*****0 的大作中提到】
: 原来wiki是你的教科书,更何况你给的link还不对。喜欢看wiki, 看看这个link:
: http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
: 还有,学统计别学成了孔已己。死抠着t test和CLT不放你不觉得很悲哀么?一个
: statistic的选择不是什么天壤之别,t test
: 得出p=0.049和U test得出p=0.08就因为落在0.05的两侧就完全不一样?可能biologist
: PI会这么看问题,所以垃圾文章
: 漫天飞舞,publication bias uncontrolled.
: 还有你的公式underlying data != statistics显得很幼稚,数据和方法论居然要相提
: 并论,难免让人笑掉大牙。缺乏最基本
: 对统计得理解和尊重,为辩论而辩论,而不是想想为什么,只为自己的立场拼命挽回遮

avatar
w*y
128
这个“无意义”是t-test thread里面最有意义的一句话

【在 r****t 的大作中提到】
: 我只是想让大家放心大胆,而且正确的用 t test, 并且知道为什么不用担心
: underlying data non-normal. 今天讨论里面我还没提到 p-value...你可能是看了别
: 的帖子,加我头上了
:
: biologist

avatar
s*0
129
我的论点是你该多补充些知识,别一知半解。你我素昧平生,我没成见,难得冒个泡,
还斗上了。言语冒犯之处,见谅。

【在 r****t 的大作中提到】
: wiki 不是教科书,但是现在书不在手边。这个新页面我不看了,没时间了。你的论点
: 是什么?

avatar
K*n
130
我现在完全已经糊涂了,打算和bigsnail一起等总结。。。

【在 w******y 的大作中提到】
: 貌似你很懂嘛, 连积分积掉sigma都还记得
avatar
r*t
131
不好意思,我不是科班出生, 幼稚是很可能的。但是我很尊重统计理论和统计方法。
给你写的那个也不是公式,就是提醒你 normality assumption on A is not
normality assumption on B. 你科班出生的给别人提建议的时候最好说清楚,很多我
遇到的人用 t test 都不知道是不是适当,怎么去 justify/defend, 最大的误区就是
以为 underlying data has to be close to normal.
data distribution 严重 left skewed, 如果你 H0 is about mean, then use t test
; if your H0 is about some other statistic, use correspondent tests.

【在 s*****0 的大作中提到】
: 我的论点是你该多补充些知识,别一知半解。你我素昧平生,我没成见,难得冒个泡,
: 还斗上了。言语冒犯之处,见谅。

avatar
D*g
132
几位都辛苦了 整套帖子看下来,明白许多 顿时对统计背后的数学大生兴趣。。。
也算是辩辩的好处 启示众人嘛。

【在 s*****0 的大作中提到】
: 我的论点是你该多补充些知识,别一知半解。你我素昧平生,我没成见,难得冒个泡,
: 还斗上了。言语冒犯之处,见谅。

avatar
r*t
133
我看来是偏题了的一句话。如果你 H0 is not about mean, how can u use t test, at all? How can you evaluate whether or not t test is (in)appropriate when you do not even have the choice to do t test?
This is not to say t test results is not meaningful if you choose to do it anyway, if that is translated to "无意义“。its result still holds for what it speaks about, though may not be instructional/representative as you wish.

【在 w******y 的大作中提到】
: 这个“无意义”是t-test thread里面最有意义的一句话
avatar
r*t
134
那我就学习吧,我看了你给我这个 section, 没觉得学到什么新东西。看到的东西恰恰
不提 t test 需要假设 normalty.
http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
Unpaired and paired two-sample t-test:
The unpaired, or "independent samples" t-test is used when two separate
independent and identically distributed samples are obtained,...

【在 s*****0 的大作中提到】
: 我的论点是你该多补充些知识,别一知半解。你我素昧平生,我没成见,难得冒个泡,
: 还斗上了。言语冒犯之处,见谅。

avatar
s*0
135
我也不是科班出身,只是工作中用得多了些罢了,小小得建议是把统计书系统得看一遍
,而不是需要用啥就看啥。 可以看
看科普类得读物,比如一些stat in biomedical research等等类得书,里面多时方法
论没有太多得公式推导。本来统计偏
重于应用,知道什么时候用什么比死推公式有用得多。
至于问你得问题,严重left skewed data除非很大得sample勉强apply CLT上t, 没有什
么有效得transformation
remedy,直接nonparametric就行。

test

【在 r****t 的大作中提到】
: 不好意思,我不是科班出生, 幼稚是很可能的。但是我很尊重统计理论和统计方法。
: 给你写的那个也不是公式,就是提醒你 normality assumption on A is not
: normality assumption on B. 你科班出生的给别人提建议的时候最好说清楚,很多我
: 遇到的人用 t test 都不知道是不是适当,怎么去 justify/defend, 最大的误区就是
: 以为 underlying data has to be close to normal.
: data distribution 严重 left skewed, 如果你 H0 is about mean, then use t test
: ; if your H0 is about some other statistic, use correspondent tests.

avatar
s*0
136
请往上找,细阅。 (:-:)

【在 r****t 的大作中提到】
: 那我就学习吧,我看了你给我这个 section, 没觉得学到什么新东西。看到的东西恰恰
: 不提 t test 需要假设 normalty.
: http://en.wikipedia.org/wiki/T_test#Unpaired_and_paired_two-sample_t-tests
: Unpaired and paired two-sample t-test:
: The unpaired, or "independent samples" t-test is used when two separate
: independent and identically distributed samples are obtained,...

avatar
r*t
137
让我去学习 z-test 的不是你吗?我觉得你在帖子里给我提的那些问题,你要是自己回
答对了,应该也就明白了,所以才说你应该自己重新看看,回答你自己的那些问题。

【在 s*****0 的大作中提到】
: 请往上找,细阅。 (:-:)
avatar
r*t
138
我说实话刚才都看过了,还需要我重新说一遍么?他写的没错,和我说的也一致。

【在 s*****0 的大作中提到】
: 请往上找,细阅。 (:-:)
avatar
r*t
139
我的体会相反,科普类读物很多时候叙述有问题,很多没列出参考文献不能查原文。而
且容易引起误解,读这个讨论的人(including you) 如果觉得 confused, 可能是科普
书不准确引起的先见。
不少人和你一样持这观点,忽视推导,知其然不知其所以然。容易失去判断力。

【在 s*****0 的大作中提到】
: 我也不是科班出身,只是工作中用得多了些罢了,小小得建议是把统计书系统得看一遍
: ,而不是需要用啥就看啥。 可以看
: 看科普类得读物,比如一些stat in biomedical research等等类得书,里面多时方法
: 论没有太多得公式推导。本来统计偏
: 重于应用,知道什么时候用什么比死推公式有用得多。
: 至于问你得问题,严重left skewed data除非很大得sample勉强apply CLT上t, 没有什
: 么有效得transformation
: remedy,直接nonparametric就行。
:
: test

avatar
a*m
141
大家都在学习,sgu大侠的高深的理论水平和实际问题相结合,给我深深的补了一堂课!
Thanks!
不过,我认为这些在生物研究中没有多大用出,就是能用就行了,别人做过的,自己找
着做!
avatar
y*i
142
非常有用。

课!

【在 a****m 的大作中提到】
: 大家都在学习,sgu大侠的高深的理论水平和实际问题相结合,给我深深的补了一堂课!
: Thanks!
: 不过,我认为这些在生物研究中没有多大用出,就是能用就行了,别人做过的,自己找
: 着做!

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。