机器学习-LPP

24 年 5 月 17 日 星期五
520 字
3 分钟

原论文 详解博客

LPP是无监督学习 意图根据权重矩阵来在降维过程中尽量保持相邻数据点的距离,,以便在低维空间中保持数据的局部邻接关系

前置

数据集XRdnX \in R^{d * n} 降维后数据集YRrnY \in R^{r * n} 对于xix_i转换后的数据yiy_i

yi=ATxiy_{i} = A^{T}x_{i}

推导

首先,我们将数据表示为一个图,其中每个节点代表一个数据点,边表示数据点之间的邻接关系。可以通过k近邻(k-nearest neighbors)或ε-邻域(ε-neighborhood)来确定邻接关系,并用权重矩阵WW表示这些关系。

k近邻方法

对于k近邻方法,首先需要选择一个合适的参数 kk,表示每个样本的邻近样本个数。然后,对于每个样本,找出与其距离最近的 kk 个样本,将这些样本视为其邻居。根据邻居关系构建权重矩阵,常见的方法是将邻居的权重设为1,非邻居的权重设为0或者根据距离赋予不同的权重值。

ϵ\epsilon-邻域方法

对于ϵ\epsilon-邻域方法,我们需要选择一个合适的参数 ϵ\epsilon,表示一个样本的邻域半径。对于每个样本,找出距离该样本在半径 ϵ\epsilon 内的所有样本,将这些样本视为其邻居。根据邻居关系构建权重矩阵,方法与k近邻类似,可以将邻居的权重设为1,非邻居的权重设为0或者根据距离赋予不同的权重值。

Wi,j={1n,xixj<ϵ,0ortherwise\begin{aligned} W_{i,j} = \begin{cases} \frac{1}{n}, &\|x_{i} - x_{j}\| \lt \epsilon, \\ 0 & \text{ortherwise} \end{cases} \end{aligned}

ϵ\epsilon为正无穷时 等价于PCA

我们希望保持其局部位置信息 有待优化函数

12i,jyiyj2Wij=12i,jATxiATxj2Wij=i(ATxiDiixiTA)ij(ATxiWijxiTA)=ATX(DW)XTA=ATXLXTA\begin{aligned} &\frac{1}{2}\sum\limits_{i,j}\|y_{i}-y_{j}\|^{2}W_{ij} \\ &=\frac{1}{2}\sum\limits_{i,j}\|A^{T}x_{i}-A^{T}x_{j}\|^{2}W_{ij} \\ &=\sum\limits_{i}(A^{T}x_{i}D_{ii}x_{i}^{T}A)-\sum\limits_{ij}(A^{T}x_{i}W_{ij}x_{i}^{T}A) \\ &=A^{T}X(D-W)X^{T}A=A^{T}XLX^{T}A \\ \end{aligned}

其中Di,i=jnWi,jD_{i,i} = \sum\limits_{j}^{n}W_{i, j} 有最终待优化式

argminAATXLXTAs.t. ATXDXTA=I\begin{aligned} argmin_{A} A^{T}XLX^{T}A \\ s.t. \ A^{T}XDX^{T}A=I \end{aligned}

拉格朗日数乘法

XLXTA=λXDXTAXLX^{T}A=\lambda XDX^TA

求解(XDXT)1XLXT(XDX^T)^{-1}XLX^T的前k个特征向量即所求投影矩阵

XLXTA=λAXLX^{T}A=\lambda A

文章标题:机器学习-LPP

文章作者:Blank

文章链接:https://blankxiao.github.io/posts/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/lpp[复制]

最后修改时间:


商业转载请联系站长获得授权,非商业转载请注明本文出处及文章链接,您可以自由地在任何媒体以任何形式复制和分发作品,也可以修改和创作,但是分发衍生作品时必须采用相同的许可协议。
本文采用CC BY-NC-SA 4.0进行许可。