深度学习:PCA白化

简介: PCA白化

PCA白化

前置知识

一文读懂PCA

回顾PCA

PCA是在对观测数据进行基变换,新的坐标系使各数据维度线性无关,坐标系的重要程度从大到小衰减。

求解过程:

  1. 数据标准化(以远点为坐标原点)
  2. 求协方差矩阵
  3. 对协方差矩阵特征值分解找到最大方差的方向
  4. 对数据基变换

其中特征向量,就是最大方差方向,每个特征向量对应的特征值就是这个数据维度的方差。

PCA白化

PCA白化实际上就是在数据通过PCA进行基变换后再把数据进行标准化,让数据每个维度的方差全部为1。
公式推导如下:

符号定义:X:原始数据矩阵 M:原始数据协方差矩阵 设$S^{1/2}$为白化矩阵

在这里插入图片描述

对M特征值分解:
在这里插入图片描述
U就是我们要找的变换矩阵,转换数据基坐标:
$$X_{PCA}=UX$$

然后进行白化操作:
lambda为特征值
在这里插入图片描述

其中有的特征值很小,会造成数值溢出,就给它加上了1个常数项,于是把白化矩阵改为:

在这里插入图片描述

目录
相关文章
|
机器学习/深度学习 计算机视觉
深度学习常见的损失函数
深度学习常见的损失函数
211 1
深度学习常见的损失函数
|
1月前
|
机器学习/深度学习 人工智能 算法
探索机器学习:从线性回归到深度学习
本文将带领读者从基础的线性回归模型开始,逐步深入到复杂的深度学习网络。我们将通过代码示例,展示如何实现这些算法,并解释其背后的数学原理。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的见解和知识。让我们一起踏上这段激动人心的旅程吧!
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习与神经网络:探索复杂数据的表示
【9月更文挑战第26天】深度学习作为人工智能领域的明珠,通过神经网络自动从大数据中提取高级特征,实现分类、回归等任务。本文介绍深度学习的基础、张量表示、非线性变换、反向传播及梯度下降算法,并探讨其在计算机视觉、自然语言处理等领域的应用与挑战。未来,深度学习将更加智能化,揭示数据背后的奥秘。
|
6月前
|
机器学习/深度学习 算法 数据挖掘
深度学习中常用损失函数介绍
选择正确的损失函数对于训练机器学习模型非常重要。不同的损失函数适用于不同类型的问题。本文将总结一些常见的损失函数,并附有易于理解的解释、用法和示例
182 0
深度学习中常用损失函数介绍
|
8月前
|
机器学习/深度学习 算法
深度学习之线性回归,使用maxnet工具
深度学习之线性回归,使用maxnet工具
92 0
|
机器学习/深度学习 算法
深度学习正则化
深度学习正则化
97 0
|
机器学习/深度学习 人工智能 算法
深度学习神经网络介绍
深度学习神经网络介绍
175 0
|
机器学习/深度学习 算法 网络架构
深度学习中的正则化的应用(最全)
深度学习中的正则化的应用(最全)
416 0
|
机器学习/深度学习 算法 数据挖掘
【深度学习】: PyTorch从零实现线性回归
==线性回归==是机器学习中非常常用的模型之一,特别在研究定量数据的问题中,它能分析变量之间的关系,并给出很好的解释。此外,它还是新方法的一个良好起点:许多有趣的统计学习方法可以被视为线性回归的推广或扩展。例如`Lasso回归`,`岭回归`,`logistic regression`,`softmax回归`。
  【深度学习】: PyTorch从零实现线性回归
|
机器学习/深度学习 自然语言处理 算法
深度学习和神经网络的介绍
深度学习和神经网络的介绍
420 0