原论文
详解博客
LPP是无监督学习 意图根据权重矩阵
来在降维过程中尽量保持相邻数据点的距离,,以便在低维空间中保持数据的局部邻接关系
前置
数据集X∈Rd∗n
降维后数据集Y∈Rr∗n
对于xi转换后的数据yi 有
yi=ATxi
推导
首先,我们将数据表示为一个图,其中每个节点代表一个数据点,边表示数据点之间的邻接关系。可以通过k近邻(k-nearest neighbors)或ε-邻域(ε-neighborhood)来确定邻接关系,并用权重矩阵W表示这些关系。
k近邻方法
对于k近邻方法,首先需要选择一个合适的参数 k,表示每个样本的邻近样本个数。然后,对于每个样本,找出与其距离最近的 k 个样本,将这些样本视为其邻居。根据邻居关系构建权重矩阵,常见的方法是将邻居的权重设为1,非邻居的权重设为0或者根据距离赋予不同的权重值。
ϵ-邻域方法
对于ϵ-邻域方法,我们需要选择一个合适的参数 ϵ,表示一个样本的邻域半径。对于每个样本,找出距离该样本在半径 ϵ 内的所有样本,将这些样本视为其邻居。根据邻居关系构建权重矩阵,方法与k近邻类似,可以将邻居的权重设为1,非邻居的权重设为0或者根据距离赋予不同的权重值。
Wi,j={n1,0∥xi−xj∥<ϵ,ortherwise
当ϵ为正无穷时 等价于PCA
我们希望保持其局部位置信息
有待优化函数
21i,j∑∥yi−yj∥2Wij=21i,j∑∥ATxi−ATxj∥2Wij=i∑(ATxiDiixiTA)−ij∑(ATxiWijxiTA)=ATX(D−W)XTA=ATXLXTA
其中Di,i=j∑nWi,j
有最终待优化式
argminAATXLXTAs.t. ATXDXTA=I
拉格朗日数乘法
XLXTA=λXDXTA
求解(XDXT)−1XLXT的前k个特征向量即所求投影矩阵
XLXTA=λA