因子分解机(Factorization Machine)详解(一)

Factorization Machine

因子分解机(Factorization Machine, FM)是由Steffen Rendle提出的一种基于矩阵分解的机器学习算法。目前,被广泛的应用于广告预估模型中,相比LR而言,效果强了不少。我们可以认为,这个模型结合了SVM的优点与分解模型的优点。与SVM类似的是,FM是一个广泛的预测器,可以兼容任意实值的特征向量。而与FM不同的是,FM对于所有变量之间的联系使用了分解的参量去建模。

  • 主要目标: 解决数据稀疏的情况下,特征怎样组合的问题。
  • FM优点:
    主要考虑到,FM模型是SVM模型与factorization模型的结合。
    1. FM模型可以在非常稀疏的数据中进行合理的参数轨迹,而SVM做不到这点。(FMs allow parameter estimation under very sparse data wher SVMs fails.)
    2. FM模型的复杂度是线性的,优化效果很好,而且不需要像SVM一样依赖于支持向量。(FMs have linear complexity, can be optimized in the primal and do not rely on support vectors like SVM.)
    3. FM是一个通用模型,它可以用于任何特征值为实值的情况。而其他因式分解模型只能用于一些输入数据比较固定的情况。(FMs are a general predictor that can work with any real valued feature vector. In contrast to this, other state-of-the-art factorization models work only on very restricted input data)

关于FM, peghoty的博文比较清晰,大家可以点击链接先阅读一下,并与本文章进行对比。

1. FM模型简介

1.1 FM模型

本质上是SVM模型的拓展,主要考虑到多维特征之间的交叉关系,其中参数的训练使用的是矩阵分解的方法。
参数模型的表示如下:我们的预测任务是估计一个函数y:RnTy : \mathbb{R}^{n} \rightarrow T表示从实值向量xRn\mathbf{x} \in \mathbb{R}^{n}到目标域TT中,(比如对回归问题T=RT=\mathbb{R},分类问题T={+,}T=\{+,-\})。在监督模型中,我们假设存在一个训练数据集D={(x(1),y(1)),(x(2),y(2)),}D=\left\{\left(\mathbf{x}^{(1)}, y^{(1)}\right),\left(\mathbf{x}^{(2)}, y^{(2)}\right), \ldots\right\}。另外,也调查了推荐任务的函数yy,以及T=RT = \mathbb{R}可以被用来表示向量x\mathbf x。分数函数可以被用来训练成对训练集,这里特征元组(x(A),x(B))D\left(\mathbf{x}^{(A)}, \mathbf{x}^{(B)}\right) \in D表示x(A)\mathbf{x}^{(A)}应该比x(B)\mathbf{x}^{(B)}排名更高。

1.2 FM 模型的超平面分类公式

  1. 二阶FM的公式(2-order, 2-way FM):
    y^FM(x):=w,x+j>jpj,pjxjxj\hat { y } _ { \mathrm { FM } } ( \boldsymbol { x } ) : = \langle \boldsymbol { w } , \boldsymbol { x } \rangle + \sum _ { j ^ { \prime } > j } \left\langle \overline { \boldsymbol { p } } _ { j } , \overline { \boldsymbol { p } } _ { j ^ { \prime } } \right\rangle x _ { j } x _ { j }
    或者更为普遍的写法:
    y^(x):=w0+i=1nwixi+i=1nj=i+1nvi,vjxixj\hat{y}(\mathbf{x}) :=w_{0}+\sum_{i=1}^{n} w_{i} x_{i}+\sum_{i=1}^{n} \sum_{j=i+1}^{n}\left\langle\mathbf{v}_{i}, \mathbf{v}_{j}\right\rangle x_{i} x_{j}
    其中,各个参数的size为:
    w0R,wRn,VRn×kw_{0} \in \mathbb{R}, \quad \mathbf{w} \in \mathbb{R}^{n}, \quad \mathbf{V} \in \mathbb{R}^{n \times k}
    内积定义如下:
    vi,vj:=f=1kvi,fvj,f\left\langle\mathbf{v}_{i}, \mathbf{v}_{j}\right\rangle :=\sum_{f=1}^{k} v_{i, f} \cdot v_{j, f}
    其中kN0+k \in \mathbb{N}_{0}^{+}表示的是决定分解机维度的超参。nn表示的是模型参数的维度。2-way的FM捕捉了所有的单独的特征以及变量之间的特征,各参数的意义表示如下:

    • w0w_0是全局偏置量
    • wiw_i建模了第i个变量的强度
    • w^i,j:=vi,vj\hat{w}_{i, j}:=\left\langle\mathbf{v}_{i}, \mathbf{v}_{j}\right\rangle。建模了第i和第j个变量之间的联系。
  2. 高阶FM的公式:
    y^HOFM(x):=w,x+j>jpj(2),pj(2)xjxj++jm>>j1pj1(m),,pjm(m)xj1xj2xjm\hat { y } _ { \mathrm { HOFM } } ( \boldsymbol { x } ) : = \langle \boldsymbol { w } , \boldsymbol { x } \rangle + \sum _ { j ^ { \prime } > j } \left\langle \overline { \boldsymbol { p } } _ { j } ^ { ( 2 ) } , \overline { \boldsymbol { p } } _ { j ^ { \prime } } ^ { ( 2 ) } \right\rangle x _ { j } x _ { j ^ { \prime } } + \cdots + \sum _ { j _ { m } > \cdots > j _ { 1 } } \left\langle \overline { \boldsymbol { p } } _ { j _ { 1 } } ^ { ( m ) } , \ldots , \overline { \boldsymbol { p } } _ { j _ { m } } ^ { ( m ) } \right\rangle x _ { j _ { 1 } } x _ { j _ { 2 } } \ldots x _ { j _ { m } }
    与二阶FM类似,但是其考虑了更多特征之间的关联性质。

1.3 关于FM三点优点的解释

首先,对于稀疏数据的计算,通常没有足够的数据来直接独立地估计变量之间的关联性。FM可以评估,则是因为FM通过分解的方式打破了数据参数的独立性。
具体可以参见图1:


因子分解机(Factorization Machine)详解(一)

在FM中,每个评分记录被放在一个矩阵的一行中,从列数看特征矩阵x\mathbf x的前面uu列即为User矩阵,每个User对应一列,接下来的ii列即为item特征矩阵,之后数列是多余的非显式的特征关系。后面一列表示时间关系,最后ii列则表示同一个user在上一条记录中的结果,用于表示用户的历史行为。

例子,可以考虑用户A以及电影ST之间的关系。首先,二者没有直接的联系,也就是wA,ST=0w_{A, \mathrm{ST}}=0,通过分解联系的变量vA,vST\left\langle\mathbf{v}_{A}, \mathbf{v}_{\mathrm{ST}}\right\rangle我们能够估计在这种情况下的联系。因此,对于稀疏数据而言,FM可以挖掘出更深层次的信息。

第二,假设n,kn, k如前述定义,那么计算前驱过程的时间复杂度为O(kn2)O\left(k n^{2}\right)。但是通过重组计算公式能够得到线性的时间复杂度O(kn)O(k n)。证明如下:
i=1nj=i+1nvi,vjxixj=12i=1nj=1nvi,vjxixj12i=1nvi,vixixi=12(i=1nj=1nf=1kvi,fvj,fxixji=1nf=1kvi,fvi,fxixi)=12f=1k((i=1nvi,fxi)(j=1nvj,fxj)i=1nvi,f2xi2)=12f=1k((i=1nvi,fxi)2i=1nvi,f2xi2)\begin{aligned} & \sum_{i=1}^{n} \sum_{j=i+1}^{n}\left\langle\mathbf{v}_{i}, \mathbf{v}_{j}\right\rangle x_{i} x_{j} \\=& \frac{1}{2} \sum_{i=1}^{n} \sum_{j=1}^{n}\left\langle\mathbf{v}_{i}, \mathbf{v}_{j}\right\rangle x_{i} x_{j}-\frac{1}{2} \sum_{i=1}^{n}\left\langle\mathbf{v}_{i}, \mathbf{v}_{i}\right\rangle x_{i} x_{i} \\=& \frac{1}{2}\left(\sum_{i=1}^{n} \sum_{j=1}^{n} \sum_{f=1}^{k} v_{i, f} v_{j, f} x_{i} x_{j}-\sum_{i=1}^{n} \sum_{f=1}^{k} v_{i, f} v_{i, f} x_{i} x_{i}\right) \\&=\frac{1}{2} \sum_{f=1}^{k}\left(\left(\sum_{i=1}^{n} v_{i, f} x_{i}\right)\left(\sum_{j=1}^{n} v_{j, f} x_{j}\right)-\sum_{i=1}^{n} v_{i, f}^{2} x_{i}^{2}\right) \\&=\frac{1}{2} \sum_{f=1}^{k}\left(\left(\sum_{i=1}^{n} v_{i, f} x_{i}\right)^{2}-\sum_{i=1}^{n} v_{i, f}^{2} x_{i}^{2}\right) \end{aligned}
可以看到我们只需要计算vi,fv_{i,f}以及xix_i相关的结果。另外,由上式可以看到,在稀疏的情况下,我们只需要计算非0的结果。假设x\mathbf x中非0的数量为m(x)m(\mathbf{x}),时间复杂度为O(kmD)O\left(k \overline{m}_{D}\right)。另外,FM也具有多线性(multi-linearity)的性质,对任意参数θ\theta,FM的预测模型如下:
y^(x)=gθ(x)+θhθ(x)θΘ\hat{y}(\mathbf{x})=g_{\theta}(\mathbf{x})+\theta h_{\theta}(\mathbf{x}) \quad \forall \theta \in \Theta
可以轻易求得梯度:
hθ(x)=y^(x)θ={1, if θ is w0xl, if θ is wlxljlvj,fxj, if θ is vl,fh_{\theta}(\mathbf{x})=\frac{\partial \hat{y}(\mathbf{x})}{\partial \theta}=\left\{\begin{array}{ll}{1,} & {\text { if } \theta \text { is } w_{0}} \\ {x_{l},} & {\text { if } \theta \text { is } w_{l}} \\ {x_{l} \sum_{j \neq l} v_{j, f} x_{j},} & {\text { if } \theta \text { is } v_{l, f}}\end{array}\right.
关于第三个优点,分别考虑FM与传统的线性分类器SVM与常见的分解方法MF, SVD++, PITF( factorizing pairwise interactions)以及FPMC( Factorized Personalized Markov Chains)等方法进行对比。具体的对比我会再写一篇文章进行详细分析。

2. FM的训练方法

对于FM而言,其可以被应用于很多预测任务,包括:

  • 回归问题: 可以使用最小均方误差进行优化
  • 二分类问题: 可以使用hinge loss或者logit loss进行优化
  • Ranking问题: 向量x\mathbf x以预测的分数函数y^(x)\hat{y}(\mathbf{x})为基准进行排列,优化是使用实例向量(x(a),x(b))D\left(\mathbf{x}^{(\mathbf{a})}, \mathbf{x}^{(\mathbf{b})}\right) \in D成对的分类误差进行的。

具体的优化方法包括SGD, ALS以及MCMC。

2.1 优化问题介绍

对于特定的观测集SS,我们得到目标函数为:
OPT(S):=argminΘ(x,y)Sl(y^(xΘ),y)\operatorname{OPT}(S) :=\underset{\Theta}{\operatorname{argmin}} \sum_{(\mathbf{x}, y) \in S} l(\hat{y}(\mathbf{x} | \Theta), y)
loss function:

  • 回归问题:lLS(y1,y2):=(y1y2)2l^{\mathrm{LS}}\left(y_{1}, y_{2}\right) :=\left(y_{1}-y_{2}\right)^{2}
  • 二分类问题:lC(y1,y2):=lnσ(y1y2)l^{\mathrm{C}}\left(y_{1}, y_{2}\right) :=-\ln \sigma\left(y_{1} y_{2}\right)

对Stochastic的目标函数分布:

  • 回归问题:p(yx,Θ)N(y^(x,Θ),1/α)p(y|\mathbf{x}, \Theta) \sim \mathcal{N}(\hat{y}(\mathbf{x}, \Theta), 1 / \alpha)
  • 二分类问题:p(yx,Θ)Bernoulli(b(y^(x,Θ)))p(y|\mathbf{x}, \Theta) \sim \operatorname{Bernoulli}(b(\hat{y}(\mathbf{x}, \Theta)))

其概率图模型可表示如下:


因子分解机(Factorization Machine)详解(一)
其中μ,λ\mu, \lambda等均为超参。
梯度计算公式如下:

  • 回归问题:

θlLS(y^(xΘ),y)=θ(y^(xΘ)y)2=2(y^(xΘ)y)θy^(xΘ)\frac{\partial}{\partial \theta} l^{\mathrm{LS}}(\hat{y}(\mathbf{x} | \Theta), y)=\frac{\partial}{\partial \theta}(\hat{y}(\mathbf{x} | \Theta)-y)^{2}=2(\hat{y}(\mathbf{x} | \Theta)-y) \frac{\partial}{\partial \theta} \hat{y}(\mathbf{x} | \Theta)

  • 二分类问题:

θlC(y^(xΘ),y)=θlnσ(y^(xΘ)y)=(σ(y^(xΘ)y)1)yθy^(xΘ)\frac{\partial}{\partial \theta} l^{\mathrm{C}}(\hat{y}(\mathbf{x} | \Theta), y)=\frac{\partial}{\partial \theta}-\ln \sigma(\hat{y}(\mathbf{x} | \Theta) y)=(\sigma(\hat{y}(\mathbf{x} | \Theta) y)-1) y \frac{\partial}{\partial \theta} \hat{y}(\mathbf{x} | \Theta)

2.2 SGD方法

不多说,直接上算法:


因子分解机(Factorization Machine)详解(一)
比较容易理解,缺点是必须确定学习率η\eta

2.3 ALS

ALS即为Alternating Least-Squares,也是Coordinate Descent,是对SGD方法的改进。具体是将参数Θ\Theta拆分成若干个部分,公式为:
θ=argminθ((x,y)S(y^(xΘ)y)2+θΘλθθ2)=argminθ((x,y)S(gθ(xΘ\{θ})+θhθ(xΘ\{θ})y)2+θΘλθθ2)=i=1nhθ2(xiΘ\{θ})hθ(xiΘ\{θ})i=1nhθ(xi)2+λθ=θi=1nhθ2(xiΘ\{θ})hθ(xi)eii=1nhθ(xi)2+λθ\begin{aligned} \theta^{*} &=\underset{\theta}{\operatorname{argmin}}\left(\sum_{(\mathbf{x}, y) \in S}(\hat{y}(\mathbf{x} | \Theta)-y)^{2}+\sum_{\theta \in \Theta} \lambda_{\theta} \theta^{2}\right) \\ &=\underset{\theta}{\operatorname{argmin}}\left(\sum_{(\mathbf{x}, y) \in S}\left(g_{\theta}(\mathbf{x} | \Theta \backslash\{\theta\})+\theta h_{\theta}(\mathbf{x} | \Theta \backslash\{\theta\})-y\right)^{2}+\sum_{\theta \in \Theta} \lambda_{\theta} \theta^{2}\right) \\ &=\frac{\sum_{i=1}^{n} h_{\theta}^{2}\left(\mathbf{x}_{i} | \Theta \backslash\{\theta\}\right) h_{\theta}\left(\mathbf{x}_{i} | \Theta \backslash\{\theta\}\right)}{\sum_{i=1}^{n} h_{\theta}\left(\mathbf{x}_{i}\right)^{2}+\lambda_{\theta}} \\ &=\frac{\theta \sum_{i=1}^{n} h_{\theta}^{2}\left(\mathbf{x}_{i} | \Theta \backslash\{\theta\}\right) h_{\theta}\left(\mathbf{x}_{i}\right) e_{i}}{\sum_{i=1}^{n} h_{\theta}\left(\mathbf{x}_{i}\right)^{2}+\lambda_{\theta}} \end{aligned}
其中ei:=yiy^(xiΘ)e_{i} :=y_{i}-\hat{y}\left(\mathbf{x}_{i} | \Theta\right),为残差项。算法如下:
因子分解机(Factorization Machine)详解(一)
对于更加详细的ALS算法,可以表现为下图:
因子分解机(Factorization Machine)详解(一)
其中,ALS的主要改进为不需要学习率,但是仍然需要确定regularization的超参。

2.4 MCMC方法

使用概率图推断以及最大后验估计(MAP)的方法。概率图如下:
因子分解机(Factorization Machine)详解(一)
其实就是针对原方法对各个超参进行MCMC采样操作。具体采用Gibbs采样器。通过确定各个超参的先验概率,使用贝叶斯推断方法,以及对各个参数的后验概率求导,即可对整个模型进行优化。参数集Θ\Theta为:
Θ0:={α0,β0,αλ,βλ,μ0,γ0}\Theta_{0} :=\left\{\alpha_{0}, \beta_{0}, \alpha_{\lambda}, \beta_{\lambda}, \mu_{0}, \gamma_{0}\right\}


后续将继续介绍FM与深度学习相结合的应用,以及解决高阶FM的方法。

3. Reference

[1] Rendle S. Factorization machines[C]//2010 IEEE International Conference on Data Mining. IEEE, 2010: 995-1000.

[2] Rendle S. Factorization machines with libfm[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2012, 3(3): 57.

[3] Blondel M, Fujino A, Ueda N, et al. Higher-order factorization machines[C]//Advances in Neural Information Processing Systems. 2016: 3351-3359.