显因子模型简介

简介:   SiGIR 2014在推荐系统方面收录了三篇很有价值的论文,提出了新的算法框架。在此介绍第一种算法框架(来自论文:Explicit Factor Models for Explainable Recommendation based on Phrase-level Sentiment Analysis,基于短语级情感分析的可解释型推荐模型——显因子模型)。

  SiGIR 2014在推荐系统方面收录了三篇很有价值的论文,提出了新的算法框架。在此介绍第一种算法框架(来自论文:Explicit Factor Models for Explainable Recommendation based on Phrase-level Sentiment Analysis,基于短语级情感分析的可解释型推荐模型——显因子模型)。如与本文有不同理解,不吝赐教。

一、概述
       EFM ( Explicit Factor Models,显因子模型),是针对LFM (Latent Factor Models,隐因子模型) 的不足而设计的。
  LFM的特点如下:
       a. 通过分类抽象出隐因子空间。在分类过程中,我们不需要关心分类的角度,结果都是基于用户打分自动聚类的。分类的粒度通过设置LFM的最终分类数来控制。
       b. 对于每个物品,并不是明确地划分到某一类,而是计算其属于该类的程度。
       c. 对于每个用户,计算他对每个类的兴趣度。
  不足在于:
       <1>单一的打分不能反映用户对物品各项特征的偏好,没有利用到用户评论。
       <2>因为类别是抽象出来的,没有明确的含义,所以向用户推荐物品时,无法解释推荐理由。
 
  EFM的特点如下:
       a. 通过对用户评论进行phrase-level(短语级)的情感分析,显式地抽取物品的特征和用户的意见。
       b. 对于每个物品,计算它对每个特征的包含程度。
       c. 对于每个用户,计算他对每个特征的喜好程度。
       d. 根据用户评论和打分两方面的数据(设置这两者的权重),计算得到用户-物品的喜好程度矩阵。
       e. 向用户推荐购买物品的同时,也建议用户不要购买某些物品。
  优点在于:
       <1>充分利用用户评论,提高算法的精准度。
       <2>因为物品的特征已经被显式的抽取出来,所以向用户推荐商品时,可以直观地解释推荐理由。从而帮助用户更快决定是否购买;特别是建议用户不要购买某些物品,有助于提高用户对系统的信任度。
 
二、EFM算法框架
  1. 构建情感词典
       EFM构建词典的过程用下面的例子说明:(有 阴影的格子表示用户对该物品进行了评论。)
      首先,从用户评论的 语料库抽取物品的特征(或者说,物品的某一方面):screen、earphone。然后,抽取用户对这些特征的意见:perfect、good。如果这些表示意见的 词汇本身是积极的情感,则用1表示;反之则用-1表示。所以在这个例子中,情感短语表示为(screen, perfect, 1), (earphone, good, 1),这一条条短语就组成了情感词典。
      根据情感词典,对用户评论进行情感分析, 判断用户的情感是肯定的还是否定的。例如:perfect是肯定的,而good是否定的,因为前面加了否定词not。所以,这个例子中,用户的评论就可以表示成 特征/情感对:(screen, 1), (earphone, -1)。
      把用户的评论表示为 特征/情感对,是构建情感词典的目的。
 
2. 构建矩阵
       EFM需要构建三个矩阵。
       第一个是 用户打分矩阵A,表示第 i 个用户对第 j 个物品打的分数。由于用户不一定对所有物品都打过分数,所以没打分则记为
       第二个是 用户-特征关注矩阵X,表示第 i 个用户对第 j 个特征的喜好程度:
其中,N表示用户打分的最高分数(一般为5分)。为了使该矩阵的每个值与用户打分矩阵的值范围都是[1, N],用sigmoid函数规范参数的取值。
       第三个是 物品-特征质量矩阵Y,表示第 i 个物品包含第 j 个特征的程度:
其中,k表示第 i 个物品的第 j 个特征被用户提到了几次。k次提到则被表示成k个特征/情感对,计算这k个对的取值(1或-1)的平均值,则为
 
3.  估计矩阵X、Y、A的缺失值
       矩阵X、Y中的非零数表示已有的用户或物品与特征之间的关系,而 则表示尚未清楚的 缺失值。为了估计这些缺失值,则采用 最优化损失函数的方法。
        损失函数是把一个事件 映射能表示与其相关的经济成本或机会成本的实数的一种函数。在统计学中,损失函数经常用来 估计参数。损失函数的未知参数用  θ 表示,决策的方案(已获得的实际值)用  d 表示,常见的损失函数有两种:
       二次损失函数:  L(θ,d) = c(θ − d)2
绝对损失函数:
 
       该算法采用的是 二次损失函数。采用最优化损失函数的方法,是指 最小化估计值与真实值的差距。所以X、Y的最优化损失函数如下:
与LFM相比,EFM已经抽取出了显式的特征。我们假设一些特征属于某一类型,而用户喜欢这一类型或者物品包含这一类型,由于特征是显式的,因而引入“显因子”的概念。上面表达式中的  r 就是指显因子的数量
      同理,估计打分矩阵A的缺失值也会用到显因子。同时,考虑到 用户在打分时还会考虑到其他一些潜在的因素,因此也引入了LFM中用到的 隐因子 表示隐因子的数量。A的最优化损失函数为:
然后把这两个损失函数合并为:
  ( * )
其中, 是防止过拟合的正则化项。
 
( * )式通过拉格朗日函数和KKT条件的推导后,得到矩阵V、U1、U2、H1、H2的更新公式,如下所示:
 
设置迭代次数进行迭代,或者在参数收敛后,得到以上5个矩阵的参数值,从而估计X、Y、A的缺失值:
 
 
 
4. Top-K推荐
       矢量 的行表示第 i 个用户对每个特征的喜好程度,选取其中 参数值最大的k个特征的下标,用 表示。然后用以下方法计算第 i 个用户对第 j 个物品的打分:
       其中, ,具体的值由实验确定。在大多数打分系统中,最高分数为5,所以N=5。
       最后,选择打分最高的前K个物品推荐给用户,并根据特征向用户解释推荐理由。

 

目录
相关文章
|
1月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
71 0
|
10天前
|
数据可视化 Java 数据挖掘
R语言Fama-French三因子模型实际应用:优化投资组合
R语言Fama-French三因子模型实际应用:优化投资组合
23 1
|
10天前
R语言中使用线性模型、回归决策树自动组合特征因子水平
R语言中使用线性模型、回归决策树自动组合特征因子水平
13 0
|
2月前
|
机器学习/深度学习 算法 数据可视化
YOLO+混合注意力机制 | YOLOv5再加4.3%才可以做对手,Transformer混合设计依旧可以卷
YOLO+混合注意力机制 | YOLOv5再加4.3%才可以做对手,Transformer混合设计依旧可以卷
66 0
|
2月前
|
机器学习/深度学习 安全 自动驾驶
部署必备 | 目标检测量化效果差不知道怎么解决?Cal-DETR带来更全面的分析基础!
部署必备 | 目标检测量化效果差不知道怎么解决?Cal-DETR带来更全面的分析基础!
57 0
|
4月前
|
机器学习/深度学习 TensorFlow 定位技术
神经网络学习率指数衰减ExponentialDecay策略的参数含义与使用方法详解
神经网络学习率指数衰减ExponentialDecay策略的参数含义与使用方法详解
|
9月前
|
机器学习/深度学习
采用附加动量法和自适应学习率设计来改进bp神经网络的迭代速度,如果不迭代学习率会提高精度;迭代学习率(自适应)会加快收敛,但精度降低(Matlab代码实现)
采用附加动量法和自适应学习率设计来改进bp神经网络的迭代速度,如果不迭代学习率会提高精度;迭代学习率(自适应)会加快收敛,但精度降低(Matlab代码实现)
|
11月前
速度精度均超越SOLOv2 | 看FastInst如何实现最优秀的实例分割模型(二)
速度精度均超越SOLOv2 | 看FastInst如何实现最优秀的实例分割模型(二)
172 0
|
11月前
|
机器学习/深度学习 编解码 算法
速度精度均超越SOLOv2 | 看FastInst如何实现最优秀的实例分割模型(一)
速度精度均超越SOLOv2 | 看FastInst如何实现最优秀的实例分割模型(一)
307 0
|
11月前
|
机器学习/深度学习 人工智能
【机器学习】信息量、香农熵、信息增益(增加例子,方便理解)
【机器学习】信息量、香农熵、信息增益(增加例子,方便理解)
129 0