统计--Bhattacharyya distance(巴氏距离)

转自维基:https://en.wikipedia.org/wiki/Bhattacharyya_distance

统计中Bhattacharyya距离用于 度量两个概率分布的相似性。它与Bhattacharyya系数密切相关,后者是两个统计样本或总体之间重叠量的度量。两项措施均以1930年代在印度统计研究所工作的统计学家Anil Kumar Bhattacharya的名字命名。[1]

该系数可用于确定所考虑的两个样本的相对接近度。它用于度量分类的类的可分离性,并且被认为比马哈拉诺比斯距离更可靠,因为当两个类的标准偏差相同时,马哈拉诺比斯距离是Bhattacharyya距离的特例。因此,当两个类别具有相似的均值但标准差不同时,马氏距离将趋于零,而巴氏距离则根据标准差之间的差异而增长。

统计--Bhattacharyya distance(巴氏距离)

统计--Bhattacharyya distance(巴氏距离) 

统计--Bhattacharyya distance(巴氏距离)

因此,这个公式对于每个具有来自两个样本的成员的分区更大,对于其中两个样本的成员有较大重叠的每个分区更大。分区数目的选择取决于每个样本中的成员数目;过少的分区会因为高估重叠区域而失去准确性,过多的分区会因为在人口稠密的样本空间中创建没有成员的单独分区而失去准确性。

如果由于每个分区的乘法为零而没有重叠,那么Bhattacharyya系数将为0。这意味着完全分离的样本之间的距离不会仅由该系数暴露。

Bhattacharyya系数用于极性码的构造[5]。

 

Bhattacharyya距离广泛应用于特征提取和选择研究,[6]图像处理,[7]说话人识别,[8]电话聚类[9]

Bhattacharyya空间是一种可用于纹理分割的特征选择技术

External links[edit]

https://www.encyclopediaofmath.org/index.php/Bhattacharyya_distance