[转载] 问个误差估计的问题# Computation - 科学计算
r*y
1 楼
【 以下文字转载自 Mathematics 讨论区 】
【 原文由 rossby 所发表 】
假设测量一个物理量随时间变化的情况
y = y(t) t=1, 2, 3, 4, ...,
每一时刻测量的误差也是知道的,为err(t),每一次的误差都是独立随即变量
如果此物理量随时间的变化可以表示成
y0(t)= at + b + y1(t)
where y1(t+T)= y1(t)
如果先用线性拟合估计a, b及其error bar,
y1(t)的数值估计 mean{(y(t)-at-b)} for t=i, i+T, i+2T,..., i+NT
如果我想给出y1(t)的数值估计的error bar,该怎么给出呢?
如果没有线性函数at+b,误差err(t)=err=Costant, 那么y1(t)的
error bar 是 err/ sqrt(N). 加了这个线性项, 我就不知道怎么做了。
【 原文由 rossby 所发表 】
假设测量一个物理量随时间变化的情况
y = y(t) t=1, 2, 3, 4, ...,
每一时刻测量的误差也是知道的,为err(t),每一次的误差都是独立随即变量
如果此物理量随时间的变化可以表示成
y0(t)= at + b + y1(t)
where y1(t+T)= y1(t)
如果先用线性拟合估计a, b及其error bar,
y1(t)的数值估计 mean{(y(t)-at-b)} for t=i, i+T, i+2T,..., i+NT
如果我想给出y1(t)的数值估计的error bar,该怎么给出呢?
如果没有线性函数at+b,误差err(t)=err=Costant, 那么y1(t)的
error bar 是 err/ sqrt(N). 加了这个线性项, 我就不知道怎么做了。