CRT之FM、FFM、DeepFM

背景:

  • 在传统的线性模型中,每个特征都是独立的,如果需要考虑特征与特征之间的相互作用,可能需要人工对特征进行交叉组合;
  • 非线性SVM可以对特征进行核变换,但是在特征高度稀疏的情况下,并不能很好的进行学习;
  • 综上提出了FM系列算法

FM

数据模型上表达特征xi,xj的组合用xixj表示,即所说的多项式模型,通常情况下只考虑两阶多项式模型,也就是特征两两组合的问题,模型表达如下:
y=ω0+i=1nωixi+i=1n1j=i+1nωijxixj y = \omega_0+\sum^n_{i=1}\omega_ix_i + \sum^{n-1}_{i=1}\sum^{n}_{j=i+1}\omega_{ij}x_ix_j
ωij\omega_{ij}求解的思路是通过矩阵分解的方法,引入辅助向量Vi=(vi1,vi2,...,vik)V_i=(v_{i1},v_{i2},...,v_{ik})
CRT之FM、FFM、DeepFM
然后用ViVjTV_iV^T_jωij\omega_{ij}进行求解:
CRT之FM、FFM、DeepFM
从上式可以看出二项式的参数数量由原来的n(n1)2\frac{n(n-1)}{2}个减少为nknk个,远少于多项式模型的参数数量。另外,参数因子化使得xhxix_hx_i的参数和xhxjx_hx_j的参数不再相互独立,因为有了xhx_h特征关联。因此我们可以在样本稀疏的情况下相对合理地估计FM的二次项参数。
具体来说,xhxix_hx_ixhxjx_hx_j的系数分别为vh,vi,vh,vj\langle v_h,v_i\rangle,\langle v_h,v_j\rangle,它们之间的共同项vhv_h,因此所有包含xhx_h的非零组合特征的样本都可以用来学习隐向量vhv_h,很大程度上避免了数据稀疏性造成的影响。
求解vi,vj\langle v_i,v_j\rangle,具体过程如下,仿照(a+b+c)2a2b2c2(a+b+c)^2-a^2-b^2-c^2
CRT之FM、FFM、DeepFM
通过上述等式,FM的二次项化简为只与vi,fv_{i,f}有关的等式。因此,FM可以在线性时间对新样本做出预测,复杂度和LR模型一样,且效果提升不少。
在训练FM时,假如使用SGD来优化模型,训练时各个参数的梯度如下:
CRT之FM、FFM、DeepFM

FFM

1.原理

在CTR预估中,通常会遇到one-hot类型的变量,会导致数据特征的稀疏。为解决这个问题,FFM在FM的基础上进一步改进,在模型中引入类别的概念,即field。将同一个field的特征单独进行one-hot,因此在FFM中,每一维特征(假设nn个)都会针对其他特征的每个field(假设ff个),分别学习一个隐变量(总共nfnf个),该隐变量不仅与特征相关,也与field相关。
假设样本的nn个特征属于ff个field,那么FFM的二次项有nfnf个隐向量,相当于每个特征有ff个隐变量。而在FM模型中,每个特征的隐向量只有一个。FM可以看做FFM的特例,把所有特征都归属到一个field的FFM模型。其模型方程为:
y=ω0+i=1nωixi+i=1n1j=i+1nVi,fj,Vj,fixixj y = \omega_0+\sum^n_{i=1}\omega_ix_i + \sum^{n-1}_{i=1}\sum^{n}_{j=i+1}\langle V_{i,f_j},V_{j,f_i}\rangle x_ix_j
FM中xixjx_ix_j的系数Vi,Vj\langle V_i,V_j\rangle在FFM中变为Vi,fj,Vj,fi\langle V_{i,f_j},V_{j,f_i}\rangle,主要是增加了一层field,所有Vi,fj,Vj,fiV_{i,f_j},V_{j,f_i}取自于以下矩阵:
T=(V11V12V1fV21V22V2fVn1Vn2Vnf)n×f T=\left( \begin{matrix} V_{11} & V_{12} & \cdots & V_{1f} \\ V_{21} & V_{22} & \cdots & V_{2f} \\ \vdots & \vdots & &\vdots \\ V_{n1} & V_{n2} & \cdots & V_{nf} \\ \end{matrix} \right)_{n\times f}
而他们具体形式同FM,为
CRT之FM、FFM、DeepFM
所以,FFM的二次参数有nfknfk个,远多于FM模型的nknk个。

2.应用

CTR应用中常出现以下三类特征:

  • 用户相关的特征
    年龄、性别、职业、兴趣、品类偏好、浏览/购买品类等基本信息,以及用户近期点击量/购买量/消费额等统计信息
  • 商品相关的特征
    商品所属品类、销量、价格、评分、历史CTR/CVR等信息
  • 用户-商品匹配特征
    浏览/购买品类匹配、浏览/购买商家匹配、兴趣偏好匹配等

为了使用FFM方法,所有的特征必须转换成“field_id:feat_id:value”格式,field_id代表特征所属field的编号,feat_id是特征编号,value是特征的值。

  • 数值型的特征比较容易处理,只需分配单独的field编号,如用户评论得分、商品的历史CTR/CVR等。
  • categorical特征需要经过One-Hot编码成数值型,编码产生的所有特征同属于一个field,而特征的值只能是0或1,如用户的性别、年龄段,商品的品类id等。
  • 除此之外,还有第三类特征,如用户浏览/购买品类,有多个品类id且用一个数值衡量用户浏览或购买每个品类商品的数量。这类特征按照categorical特征处理,不同的只是特征的值不是0或1,而是代表用户浏览或购买数量的数值。按前述方法得到field_id之后,再对转换后特征顺序编号,得到feat_id,特征的值也可以按照之前的方法获得。

实例

  • 原始数据
    CRT之FM、FFM、DeepFM
  • 特征编号
    CRT之FM、FFM、DeepFM
  • 特征组合
    CRT之FM、FFM、DeepFM

DeepFM

FM通过对每一维特征的隐变量内积来提取特征组合,最后的结果也不错,虽然理论上FM可以对高阶特征组合进行建模,但实际上因为计算复杂度原因,一般都只用到了二阶特征组合。对于高阶特征组合来说,我们很自然想到多层神经网络DNN。

  • FM结构
    CRT之FM、FFM、DeepFM
  • DNN结构
    CRT之FM、FFM、DeepFM
  • DeepFM结构
    CRT之FM、FFM、DeepFM
    DeepFM目的是同时学习低阶和高阶的特征交叉,主要由FM和DNN两部分组成,底部共享同样的输入。模型可以表示为:
    y^=sigmoid(yFM+yDNN)\hat{y}=sigmoid(y_{FM}+y_{DNN})
    Dense Embedding层在FM中理解为隐变量ViV_i,在DNN中理解为Embedding,解决数据过于稀疏问题
  • DeepFM优势:
    1.DeepFM模型的Deep component和FM component从Embedding层共享数据输入,这样做的好处是Embedding层的隐向量在(残差反向传播)训练时可以同时接受到Deep component和FM component的信息,从而使Embedding层的信息表达更加准确而最终提升推荐效果。
    2.DeepFM模型同时对低阶特征组合和高阶特征组合建模,从而能够学习到各阶特征之间的组合关系
    3.DeepFM模型是一个端到端的模型,不需要任何的人工特征工程

参考:
1.https://blog.****.net/hiwallace/article/details/81333604
2.TensorFlow代码实现:https://blog.****.net/John_xyz/article/details/78933253