推荐系列(四):矩阵分解|Matrix Factorization

简介: 简单讲解推荐系统中的矩阵分解

矩阵分解|Matrix Factorization

在上节讲过,用户和item之间的关系可以用一个关系矩阵表示,而矩阵分解式一个简单的嵌入模型。假设一个用户反馈矩阵:

$$ A \in R^{m \times n} $$

,其中m表示用户的数量,n表示item的数量

  • 用户嵌入矩阵

$$ U \in \mathbb R^{m \times d} $$

  • 商品嵌入矩阵

$$ V \in \mathbb R^{n \times d} $$

使用重复电影示例的矩阵分解的插图。

嵌入矩阵可以看作是

$$ U V^T(i, j)U . V^T\langle U_i, V_j\rangle i j A_{i, j} $$

的点积

矩阵分解一般是用近似的方法表示,而不是使用整个矩阵表示,整个矩阵的元素个数是O(nm)个元素,而嵌入矩阵的元素个数是O((m+n)d),其中d的维数一般远小于m和n的维度。因此,嵌入矩阵能够表示数据的潜在结构,这表明观察到的结果接近于低维子空间,类似于降维。在上述例子中,由于维度太低,以至于这个优点被忽略不计。然而,在现实的推荐系统中,使用矩阵分解的效果可以比学习完整矩阵会更加高效。

选择目标函数

一个常用的目标函数是欧式距离,这里以此为例。为此,最小化所有观察到的item对的误差平方和:

$$ \min_{U \in \mathbb R^{m \times d},\ V \in \mathbb R^{n \times d}} \sum_{(i, j) \in \text{obs}} (A_{ij} - \langle U_{i}, V_{j} \rangle)^2 $$

在上述目标函数中,只对观察到的item对(i,j)求和,即用户反馈矩阵中的非零值。然而,只对观察到值进行处理并不是一个好的想法 ,因为矩阵中的所有元素都会对模型产生影响,如果只用观察到的值进行仿真模拟,则该模型无法得出有效的推荐且泛化能力差。一句话总结:在推荐系统中,正样本数据集和负样本数据集都是有用的。

因此会有另外的求和方法,如下所示:

三个矩阵的图示:仅观察到矩阵分解,加权分解和奇异值分解。

将为观察到的item对的值设置为0, 并对矩阵中所有的值求和,因此求和公式从之前的只对观察到的item对求和之外,还需要对未观察到的item对,求和公式如下所示:

$$ \min_{U \in \mathbb R^{m \times d},\ V \in \mathbb R^{n \times d}} \|A - U V^T\|_F^2 $$

上述问题可以使用奇异值分解(Singular Value Decomposition , SVD)处理,然而SVD不是一个很好的解决方法,这是由于其在实际应用中,矩阵A可能是非常稀疏的,比如在视频或新闻APP中,热门的item可能被更多的用户浏览,导致矩阵很稀疏。稀疏矩阵会导致SVD的求解结果近似为0,导致泛化能力很差。

相反,加权矩阵分解 将目标分解为两个总和:

  • 观察到的条目的总和;
  • 未观察到的条目的总和;

$$ \min_{U \in \mathbb R^{m \times d},\ V \in \mathbb R^{n \times d}} \sum_{(i, j) \in \text{obs}} (A_{ij} - \langle U_{i}, V_{j} \rangle)^2 + w_0 \sum_{(i, j) \not \in \text{obs}} (\langle U_i, V_j\rangle)^2 $$

注意,在实际应用中,还需要仔细权衡观察到的item对。例如,热门item或频繁使用(例如,重度用户)可能会主导目标函数。因此,我们可以通过对训练样例进行加权重来考虑item频率来校正模型效果。换句话说,可以通过以下方式替换目标函数:

$$ \sum_{(i, j) \in \text{obs}} w_{i, j} (A_{i, j} - \langle U_i, V_j \rangle)^2 + w_0 \sum_{i, j \not \in \text{obs}} \langle U_i, V_j \rangle^2 $$

最小化目标函数

最小化目标函数的常用算法包括:

  • 随机梯度下降(SGD) 是使损失函数最小化的通用方法。
  • 加权交替最小二乘WALS)专门针对这一特定目标。

目标函数对于U和V都是二次的,其中,随机梯度下降算法是比较常用的模型训练方法,这里不做过多的介绍,而WALS通过随机初始化嵌入,然后交替进行以下工作:

  • 固定U,对V求解
  • 固定V, 对U求解

关于WALS的详细介绍可以看该图:
wals_method

SGD vs. WALS

SGD和WALS各有自身的优点有缺点:

SGD

  • 非常灵活 :可以使用其他损失函数
  • 可以并行化
  • 收敛较慢
  • 更难处理未观察到的item

WALS

  • 依赖于均方误差
  • 可以并行化
  • 收敛速度比SGD快
  • 更容易处理未观察到的item
目录
相关文章
|
6月前
|
编解码 监控 算法
3D-Genome | Hi-C互作矩阵归一化指南
3D-Genome | Hi-C互作矩阵归一化指南
141 2
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
混淆矩阵(Confusion Matrix)
随着机器学习和人工智能的迅速发展,分类模型成为了解决各种问题的重要工具。然而,仅仅知道模型预测对了多少样本是不够的。我们需要一种更详细、更系统的方法来理解模型的分类能力,以及它在不同类别上的表现。 混淆矩阵是在机器学习和统计学中用于评估分类模型性能的一种表格。它对模型的分类结果进行了详细的总结,特别是针对二元分类问题,另外混淆矩阵是用于评估分类模型性能的一种表格,特别适用于监督学习中的分类问题。它以矩阵形式展示了模型对样本进行分类的情况,将模型的预测结果与实际标签进行对比。
325 1
|
6月前
|
数据可视化
R语言中的多项式回归、B样条曲线(B-spline Curves)回归
R语言中的多项式回归、B样条曲线(B-spline Curves)回归
|
机器学习/深度学习 搜索推荐
高斯-马尔科夫定理(Gauss-Markov theorem)
高斯-马尔科夫定理(Gauss-Markov theorem),也称为高斯-马尔科夫定理(Gauss-Markov theorem)或线性最小二乘定理(linear least squares theorem),是统计学中一个重要的定理,它描述了在一些假设条件下,普通最小二乘估计(Ordinary Least Squares, OLS)是线性回归模型中最优的无偏估计。
360 0
|
6月前
|
人工智能 算法 计算机视觉
VGen与SVD的比较
【1月更文挑战第7天】VGen与SVD的比较
141 1
VGen与SVD的比较
对角矩阵(Diagonal Matrix)
对角矩阵(Diagonal Matrix)是一种特殊的矩阵,其元素仅位于主对角线上。对角矩阵通常用于线性代数和微积分等数学领域,它有以下几个特点:
635 7
|
机器学习/深度学习 存储 搜索推荐
三个主要降维技术对比介绍:PCA, LCA,SVD
本文将深入研究三种强大的降维技术——主成分分析(PCA)、线性判别分析(LDA)和奇异值分解(SVD)。我们不仅介绍这些方法的基本算法,而且提供各自的优点和缺点。
127 1
|
机器学习/深度学习 移动开发 分布式计算
IS ATTENTION BETTER THAN MATRIX DECOMPOSITION
目前self-attention机制已经在深度学习领域发挥着至关重要的作用。在建模全局信息时,attention机制是不是能够被取代,或者有更好的方法?
145 0
|
机器学习/深度学习 Java
2022-10-10-使用SVD进行数据降维
2022-10-10-使用SVD进行数据降维
97 0
|
机器学习/深度学习 人工智能 自然语言处理
【推荐系统】隐语义模型(LFD)与矩阵分解(Matrix Factorization)
【推荐系统】隐语义模型(LFD)与矩阵分解(Matrix Factorization)
193 0
【推荐系统】隐语义模型(LFD)与矩阵分解(Matrix Factorization)