- 智能搜索和推荐系统:原理、算法与应用
- 刘宇
- 296字
- 2021-06-03 16:06:54
1.2.5 奇异值分解
除了前述由特征向量和特征值组成的特征分解外,奇异值分解(Singular Value Decomposition,SVD)也是使用较为广泛的矩阵分解方法。它将矩阵分解为奇异向量和奇异值。通过奇异值分解,我们可以得到与特征分解类似的信息。与特征分解不同的是,奇异值分解能分解非方阵,因此应用更加广泛。
奇异值分解将矩阵A分解为三个矩阵的乘积:
![](https://epubservercos.yuewen.com/153798/19106523408254006/epubprivate/OEBPS/Images/012-4-i.png?sign=1739592394-k2m8qHXTMMRiJE9eqBiOPPyV4u7ulONs-0-e0da56aaf9016c9f637c13d145616a57)
其中,A为m×n的矩阵,U为m×m的矩阵,D为m×n的矩阵,V为n×n的矩阵。矩阵U和矩阵V为正交矩阵(如果AAT=E,则n阶实矩阵A称为正交矩阵);D为对角矩阵(主对角线之外的元素皆为0的矩阵,常写为diag);对角矩阵上的元素称为矩阵A的奇异值,矩阵U的列向量称为左奇异向量,矩阵V的列向量称为右奇异向量。