Processing math: 100%


Probabilistic Learning

1. Concepts

1.1. Concavity

对于一元函数, 有定义如下

function f is convex

x1,x2dom,t[0,1]:f(tx1+(1t)x2)tf(x1)+(1t)f(x2)

function f is concave

x1,x2dom,t[0,1]:f(tx1+(1t)x2)<tf(x1)+(1t)f(x2)

从导数的角度考虑, 对于 xR:

function f is convexd2fdx20

对于多元函数, xRd:

function f is convex2f(x)0

其中 2f 指的是 fHessian 矩阵

1.2. Jensen Inequality

relatively trivial, see wikipedia for more details

1.3. Normal Distribution

详情查看我的这篇数据科学笔记

2. KNN

k - Nearest Neighbor Classifier (KNN)

2.1. Steps

  • 计算测试样本 ˉxDtrain 中所有训练样本 xi 之间的距离 d(ˉx,xi)

  • 对所有距离值 (相似度值) 进行升序 (降序) 排列

  • 选择化个最近 (距离最小/相似度最大) 的训练样本

  • 采用投票法, 将近邻中样本数最多的类别标签分配给无

k 的取值变化有很多影响:

  • k 一般取奇数值, 避免平局
  • k 取不同的值, 分类结果可能不同
  • k 值较小时, 对噪声敏感, 整体模型变得复杂, 容易过拟合
  • k 值较大时, 对噪声不敏感, 整体模型变得简单, 容易欠拟合

2.2. 1-NN

P( err )1cYP2(cx)1P2(cx)=(1+P(cx))(1P(cx))2×(1P(cx))

3. GMM

3.1. Mixture Model

在统计学中, 混合模型 (Mixture model) 是用于表示母体中子母体的存在的几率模型, 换句话说, 混合模型表示了测量结果在母体中的几率分布, 它是一个由数个子母体之几率分布组成的混合分布. 混合模型不要求测量结果供关于各个子母体之几率分布的资讯即可计算测量结果在母体分布中的几率.

举一个不是那么严谨的例子(Wikipedia), 若是我们手上有一个班级中所有学生某一次考试的各项科目分数分布, 并且每一科的分数都大致依照高斯分布. 则当我们要描述每个学生的总分分布时, 单高斯模型及多维的高斯模型不一定能很好的描述这个分布, 因为每一科的分布的情形都不尽相同, 此时我们可以用高斯混合模型更好的来描述这个问题.

3.2. Gaussian Mixture Model

高斯混合模型可以看作是由若干个 (n) 单高斯模型组合而成的模型, 这 n 个子模型是混合模型的隐变量 (Hidden variable). 一般来说, 一个混合模型可以使用任何概率分布, 这里使用高斯混合模型是因为高斯分布具备很好的数学性质以及良好的计算性能.

形式化地, GMM 的 PDF 有定义如下

p(x)=Ni=1αiN(x;μi,Σi)=Ni=1αi(2π)d/2|Σi|1/2exp(12(xμi)TΣ1i(xμi))

其中:

  • 随机变量 XRd
  • N 表示该 GMM 有 N 个单变量 Gaussian 分布
  • i:αi>0,Ni=1αi=1
  • 参数 θ={αi,μi,Σi}Ni=1

显然从 GMM 中采出样本 x 需要两步:

  • 先从 Z 中采样得到 i: 假设随机变量 Z{1,2,,N} 符合离散分布, 也就是 p(Z=i)=αi
  • 再从第 iGaussian 分布 N(μi,σi)中采样 x

4. MLE

详情查看我的这篇数据科学笔记

5. EM Algorithm

5.1. Principle

Expectation-Maximization algorithm

EM 算法是一个迭代的算法, 采用极大似然估计 MLE 对统计模型中的参数进行估计. 特别是针对含有无法观测的隐变量的模型.

通常, 引入隐变量之后会有两个参数, EM 算法会先固定其中的一个参数, 然后使用 MLE 计算第二个变量值; 接着通过固定第二个变量, 在用 MLE 估计第一个变量值. 依次迭代, 直到收敛到局部最优解.

假设隐变量 Z 的分布 Q(Zθ) 是一个任意的离散分布, 满足:

ZQ(zθ)=1,Q(zθ)0
(θ)=lnL(θX)=XlnZp(X,Zθ)=XlnZQ(Zθ)p(X,Zθ)Q(Zθ)=XlnEQ[p(X,Zθ)Q(Zθ)]XEQ[lnp(X,Zθ)Q(Zθ)]=XZQ(Zθ)lnp(X,Zθ)Q(Zθ)

其中, (2)(3) 显然是利用了 Jensen 不等式. 要使得不等式取等, 必须有

p(X,Zθ)Q(Zθ)=c

也就是说,

Q(Zθ)=p(X,Zθ)c=p(X,Zθ)cZQ(Zθ)(ZQ(zθ)=1)=p(X,Zθ)ZcQ(Zθ)=p(X,Zθ)Zp(X,Zθ)(p(X,Zθ)Q(Zθ)=c)=p(X,Zθ)p(Xθ)=p(ZX,θ)

此时固定 θ, 计算 Q(Zθ)=p(Z,xθ), 就可以得到 (θ) 的下界. 然后继续优化这个下界:

θ=argmaxθΘ(θ)=argmaxθΘXZp(ZX,θ)lnp(X,Zθ)p(ZX,θ)

5.2. Steps

形式化地, EM 算法可以写成如下的三步骤.

  • E-Step: 利用可观测数据 X 和当前的参数估计 ˆθ(t), 估计更好的隐藏变量 Z
Qt=p(ZX,θt)=p(X,Zθt)Zp(X,Zθt)
γij=E[zijxj,θ(t)]=α(t)iN(xj;μ(t)i,Σ(t)i))Nk=1α(t)kN(xj;μ(t)k,Σ(t)k)

其中

  • 1iN,1jM
  • zij{0,1}
  • zij=1xj 由第 iGaussian 分布产生
  • M-Step: 利用可观测数据 X 和当前的参数估计 Z, 估计更好的隐藏变量 变量 ˆθ(t+1)
θ(t+1)=argmaxθΘXZQtlnp(X,Zθ)Qt
mi=Mj=1γij,μ(t+1)i=1miMj=1γijxj,Σ(t+1)i=1miMj=1γij(xjμ(t+1)i)(xjμ(t+1)i)Tαi=1MMj=1γij=miM
  • Repeat: 重复上述两个步骤, 直到收敛.

5.3. EM in K-means

K-means 算法本质上也使用了 EM 算法的设计.

对于聚类准则函数 J=cj=1xSjxmj2

  • 样本 xj 是可观测变量 X
  • 类别标签 (簇) Sj 看作是隐藏变量 Z
  • 簇中心 / 聚类均值 mj 看作是参数 θ
  • 聚类准则函数 J 看作是 θ 的似然函数