说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> Kullback-Leibler熵
1)  Kullback-Leibler entropy
Kullback-Leibler熵
1.
As Kullback-Leibler entropy, this method measures the similarity by measuring the generalized distance between the joint distribution and the distribution associated to the case of complete indepence.
近几年受大家欢迎的基于互信息的配准方法通过最大化两幅图像灰度值的联合概率分布和完全独立时他们的边缘概率分布之积的广义距离来达到图像配准的目的,该距离是用 Kullback-Leibler熵度量的;本文采用另一种度量该距离的方法——信息离散性度量(简称FDOD 函数)方法,与Kullback—Leibler熵相比,FDOD函数具有更多好的数学性质。
2)  Kullback-Leibler discrimination
Kullback-Leibler测度
3)  Kullback-Leibler distance
Kullback-Leibler距离
1.
Kullback-Leibler distance based concepts mapping between web ontologies;
语义网中基于Kullback-Leibler距离的本体映射方法(英文)
2.
Kullback-Leibler distance of information can be used to measure the difference degree between the random variables.
信息的Kullback-Leibler距离能够很好地表示两个分布函数所包含信息的差异程度。
3.
Based on the distance of Kullback-Leibler,this paper give the exact definition of the maximum Kullback-Leibler distance between two different distribution functions and prove that this one has analytic properties such as symmetry,triangle inequality which is the same as the Euclidean distance.
在Kullback-Leibler距离的基础上,定义了两个概率分布之间的最大Kullback-Leibler距离,证明了这个距离具有欧式距离的对称性,三角不等式性等分析性质,依照该定义,计算了两个不同的二项分布,两个不同的正态分布等一些常见分布之间的最大Kullback-Leibler距离。
4)  Kullback-Leibler divergence
Kullback-Leibler距离
1.
The connections between Shannon mutual information,Kullback-Leibler divergence and Shannon inequality are investigated.
分析了Shannon互信息、Kullback-Leibler距离和Shannon不等式之间的相互关系,并根据不等式理论,提出了广义距离度量的新概念及其定义。
5)  Kullback-Leibler information
Kullback-Leibler信息
6)  KullbackLeibler divergence
Kullback-Leibler散度
补充资料:标准熵
分子式:
CAS号:

性质:根据热力学第三定律的普朗克表述(即0K时,纯物质的完整晶体的熵等于零)规定的物质的熵的绝对值,有时也称为规定熵(conventional entropy)。物理化学手册中给出的是纯物质在标准状态和298.15K的摩尔规定熵,也称为标准熵,符号Sm,298.15,单位J/(K·mol)。在确定熵值时需要用量热方法测量热容Cp与温度的关系以及各种相变热,因此规定熵也称量热熵(calorimetric entropy)。

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条