数学:标准差是什么意思

如题所述

标准差(Standard Deviation),在概率统计中最常使用作为统计分布程度(statistical dispersion)上的测量。标准差定义为方差的算术平方根,反映组内个体间的离散程度。测量到分布程度的结果,原则上具有两种性质:一个总量的标准差或一个随机变量的标准差,及一个子集合样品数的标准差之间,有所差别。其公式如下所列。标准差的观念是由卡尔·皮尔逊(Karl Pearson)引入到统计中。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2017-05-03
标准差(Standard Deviation)

各数据偏离平均数的距离(离均差)的平均数,它是离差平方和平均后的方根。用σ表示。因此,标准差也是一种平均数

标准差是方差的算术平方根。

标准差能反映一个数据集的离散程度。平均数相同的,标准差未必相同。

例如,A、B两组各有6位学生参加同一次语文测验,A组的分数为95、85、75、65、55、45,B组的分数为73、72、71、69、68、67。这两组的平均数都是70,但A组的标准差为17.08分,B组的标准差为2.16分,说明A组学生之间的差距要比B组学生之间的差距大得多。

标准差也被称为标准偏差,或者实验标准差。
第2个回答  2020-01-17
相似回答