![机器学习:从公理到算法](https://wfqqreader-1252317822.image.myqcloud.com/cover/786/920786/b_920786.jpg)
3.1 密度估计的参数方法
如果已经知道p(x)所在的分布族p(x|θ),此时的密度估计问题变成估计θ。简单说来,此时即为密度估计的参数方法。在此情形下,,SimX(x,θ)=p(x|θ)。假设对θ得到估计
,则可设
。
3.1.1 最大似然估计
在此情形下,如果对于θ的信息一无所知,则可以假设对θ得到估计。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。显然,
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00012.jpg?sign=1738800144-3ZEisnqrHCBXqA6n9VqKLnT9CC5xu48V-0-e2569f80c91ed75632abb479c460e4d6)
为了简化计算,对公式(3.1)两边取负自然对数,求最大变为求最小,得到如下目标函数:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00013.jpg?sign=1738800144-1AMbRmtU7stode1ubLqorve5OWiyx8HO-0-78d0aaa9ddaf0b9c7d76fd00d7e56e77)
显然,最大化目标函数(3.1)是最大似然估计。因此,类紧致准则可以导出常见的最大似然估计。
• 高斯密度估计
假设,其中
。根据公式(3.2),我们可以得到如下目标函数(3.3):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00009.jpg?sign=1738800144-XKiChNlr5GhUolX3bER1wiFq60cZYzQJ-0-9571716f47222d39eabe592471283a43)
因此,计算目标函数(3.3)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00010.jpg?sign=1738800144-YcP6rSaRHELdBSnhp9laMknnon2PvMU5-0-d21269d75c36e75bc661755dcfab31ef)
解方程(3.4),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00011.jpg?sign=1738800144-LBqhMiZIbbsUGvm1e3RjSrN31ULfnsjD-0-30239bf9a782a8a76b5ad74c09ad0d28)
令,其中
按照以上的办法,同样可以得出
的估计。
• n元多项分布估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
1,∀i,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1的向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,
,因此,可以知道
。
根据公式(3.2),我们可以得到如下目标函数(3.6):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00014.jpg?sign=1738800144-hyjMlHc8MdpTzprbTaXQpJhPeoWEbMu8-0-63a1339a9cfbfe63ebb3738315015d9d)
根据拉格朗日乘子法,要得到目标函数(3.6)在条件下的最小值,只需令如下函数(3.7)的一阶导数为零:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00015.jpg?sign=1738800144-5Rii4YRwpzgOFDzR40jmABTeXiqfptuP-0-95192ac460be340b82a5b363a253a2b9)
由此得到方程(3.8):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00016.jpg?sign=1738800144-LxZDEPfeTEIhkBxScDuJwTNQOnMlZEK6-0-515720ed4f1be4c863fca80a0e3724d1)
注意到,由方程(3.8)可以得到λ=N。
据此,解方程(3.8)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00017.jpg?sign=1738800144-kw5eJxn84ZjQnRVpPQ65ByQN4KW8Yo8Q-0-0e2050e1894b90beba18f115d47394e7)
3.1.2 贝叶斯估计
需要特别指出的是,在参数估计情形下,类可以用θ来表示。有时候,基于历史经验,人们不仅知道分布的形式,甚至会对θ的信息有所了解。比如,当谈到许海峰的手枪射击成绩时,人们会有先验估计;当谈起烟台苹果莱阳梨,人们一般也会有先验印象。甚至朋友交往,第一印象也对人们后续交往影响巨大。实际上,日常所说的声誉,就是一种对于事物的先验印象。如果θ的信息完全确定,就不需要通过观察抽样样本来估计了,或者说观察已经影响不了人们对于θ的信息。这近似于信仰或者崇拜。
一般情形下,人们对于θ的信息有所了解,但是该信息会随着观察的积累增多而改变,具有不确定性。因此,对θ的信息先验了解程度,可以用假设θ服从p(θ|θ0)分布来表示,p(θ|θ0)反映了人们对于θ的了解程度,θ0是事先确定的值。换一种说法,p(θ|θ0)反映了θ与固定值θ0的相似度,即Sim(θ,θ0)=p(θ|θ0)。理论上,应该选择与固定值θ0最相似的θ值。如果无限相似,即变成信仰,此时观察改变不了θ的估计。如果不是无限相似,则观察可以改变对于θ的估计。
假设对θ得到估计,根据以上的分析,设
,
。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。同时,如果假设输入类表示为θ0,类一致性准则要求考虑最大化如下约束(3.10):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00018.jpg?sign=1738800144-MJux2Zdc64PnawsTZqmg2OQftlotmxsl-0-29e33e869c4f6dc23084e3335ab89a12)
这是一个典型的多目标函数优化问题。一个自然的想法是合成为单目标函数优化问题。
由此,综合考虑类一致性准则和类紧致性准则,应该最大化目标函数(3.11):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00019.jpg?sign=1738800144-noiU9LcRNmmnkWYhVK2mqc9dxOAA8sfj-0-77f207743031e00ab79800bcc40cf41e)
显然,如果只最大化目标函数(3.10),则与观察数据无关。如果先验随着观察数据的增加而不同,最大化目标函数(3.11)即是常见的贝叶斯估计。因此,类紧致准则与贝叶斯估计也联系密切。
• 高斯密度的贝叶斯估计
假设∀k,xk∈Rp,x∈Rp,,其中
其中
。
根据公式(3.11),应该最小化目标函数(3.12):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00020.jpg?sign=1738800144-VdwdSbX96wdJf8V0YpXn5TeejQgstnRs-0-15df646ddd9104100fa76eb84087c6ee)
因此,计算目标函数(3.12)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00021.jpg?sign=1738800144-KBKGXZ5veJhKvsuH9NyVCbDrAtFnP85u-0-534d59fb6a804f87640c5d5884070af9)
解方程(3.13),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00022.jpg?sign=1738800144-5u9n1iWRTBewLjej1yO3Vl0Ccm3fF3p4-0-271b9f4f030cd80ecf36585b96f9b61a)
如果,其中
,按照以上的办法,同样可以得出
的估计。
• n元多项分布的贝叶斯估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,∀k,
,因此,可以知道
,其中
。
根据公式(3.11),应该最小化如下目标函数(3.15):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00026.jpg?sign=1738800144-K5q7PZGfN50zBtVJjpLRWnGhfXhKQ3RG-0-85060d2c85b63f43828fdbc7c9d95da1)
根据拉格朗日乘子法,要得到目标函数(3.15)在条件下的最小值,只需令如下函数(3.16)的一阶导数为零。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00023.jpg?sign=1738800144-546NgAZrEzSPjCa5aYftx63BbpWU0GAv-0-ee83c378a4afc4eaa8b32a4ddc83f943)
由此得到方程(3.17)。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00024.jpg?sign=1738800144-QZgQyLiGYz1YTudsKPgODnpgLYndYbwT-0-fdcd8bdaa26fb741bdad827f77f4d0ee)
解方程(3.17)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00025.jpg?sign=1738800144-u4HbGs46sQtLQHkABgK1NYVTEjVU719G-0-7bb57ca84294d94777e06673d010d674)
称为Dirichlet分布,其中
,∀pi>0,∀αi>0。