《推荐系统实战》- 笔记与思考

本文是笔者阅读《推荐系统实战》后的一篇读书笔记,包括了笔者的一部分浅显思考。书质量非常不错,有问题欢迎指正!

什么是好的推荐系统

推荐系统一般有两种:一种是预测用户评分,另外是给出TopN,但后者会更频繁更有用。因为预测分数并不能怎么样。“重点是他看了,而不是评价”。下面都以TopN为主。

衡量推荐系统有四个基本指标:

  • 准确率:
  • 召回率:
  • 覆盖率:对长尾物品的挖掘能力,所有用户的推荐总列表,占所有商品的比例,可以看出,K越大,覆盖率一定越高
  • 流行度:

更高级别的:

  • 新颖度: 这会让人眼前一亮,但很难通过离线计算获得,通常都用用户问卷。

现在主流推荐算法都有马太效应:强者越强,弱者越弱,会造成基尼系数的进一步提升。

距离和基于图的算法

基于距离的算法

用户购买的物品,可以记做矩阵。就有了ItemCF和UserCF,即常用的协同过滤。简单说,购买了相似物品的用户越相似,被用户同时购买的商品更相似。

对大部分东西的热度曲线,都呈现长尾效应:指数曲线。占20%的物品占据了80%的流量。越是重度用户,越会关心那些冷门的信息。

UserCF的推荐更社会化, 反映了用户在小型团体中兴趣的程度;和自己相似的人喜欢的,自己也喜欢。 ItemCF的推荐更个性化,反映了用户自己的兴趣:一定会喜欢购买类似的商品。

算法看似简单,但都有共同的问题,比如物品和物品是不同的,新华字典的信息量肯定没有《机器学习》来得大;人和人也是不同的,一个书商购书行为,也和普通的文艺青年有所区别。因此,需要特别去调整频繁用户/物品的权重,避免污染整个数据集。

另外,如果物品特别多或更新频繁,就去更新用户矩阵。而若用户特别多,则可用物品矩阵。简而言之,没有最合适的方法,都需要根据具体业务场景来定义规则。

K值越大,需要考虑的用户和商品就越多,显然,对UserCF,可以提升覆盖率,但不一定能提升召回。对ItemCF, K越大会降低覆盖率(为什么?)。
选择一个合适的K很重要。ItemCF的好处是其可解释性。

基于隐语义的算法

简单说,如果用户之前喜欢科技类书籍,那么就可以给他打标签,科技,之后即可推荐科技类书籍。

但问题是:

  • 不是所有的书籍都有准确的分类,比如数学or计算机
  • 分类很难提供准确的粗细粒度
  • 甚至不一定有合适的分类标签

这就是隐语义,可以通过类似聚类的方法,将Item做分类,但标签不一定是可解释的,也就是所谓的“隐”,即LFM。

LFM通过如下公式计算用户对某个商品的兴趣:

Preference=pTuqi=(p(u,k))(i(k,u))Preference=puTqi=∑(p(u,k))(i(k,u))

分为两步, 其中P(u,k)P(u,k) 度量了用户u的兴趣和k个隐变量的关系, q(i,k)q(i,k) 度量了k个隐变量和商品i的关系。类似传导。很像SVD分解后的S矩阵和D矩阵。

这基本上把它当成了打分的问题(分类),但是负样本从哪里来?一些网站可通过“踩”表达负向,但很多时候只有正向。 负向可通过采样实现,比较好的实践方法:

  • 从热门,但用户却没有反馈的样本中抽取负样本
  • 对每个用户,保证正负样本的平衡

之后即可通过SGD最小化均方误差(SGD简直万能)。LFM比ItemCF和UserCF效果都好,但样本稀疏时,可能效果就不如了。另外,提升负样本的比率可有效提升系统的准确率和召回率。

基于图的算法

ItemCF和UserCF都只考虑了一层关系,但朋友的朋友如果也喜欢一样东西是不是我也会喜欢它呢?基于图的算法,比那几种考虑的更多。当然,计算量也更大。

方法是随机游走,将i和u都看成图上的点,有一定的概率转移和停顿,则经过多次迭代,每个节点被访问到的概率会逐渐趋于定值。称作PersonalRank算法。

但是,计算量太大,方法就是求逆矩阵。

3. 推荐系统的冷启动问题

当系统刚刚建立,数据并不完全,因此很多计算无法实施,尤其是ItemCF。

两种解决办法:

用户相关

注册时提交喜好信息,构建成最适合分类的二叉树,从而快速确定用户的基本兴趣。

注册时提供基本信息,系统可根据性别/年龄和国籍来进行初步推荐。

商品相关

对商品进行分类,利用商品特征,做出关键词向量,开发线性分类器。向量空间模型的特点是简单容易实现,但却丢失了一些信息。 相比于协同过滤,它的性能低很多。

但是这也不一定,比如GitHub,可能会fork同一个作者的多个项目,因此将作者作为特征,可以非常强地模拟协同过滤。

LDA也可以对话题做出分类,这种方法比向量空间模型更为高级,但是其内部的数学原理,还需挖掘(待学习)。

另外是专家系统,通过专家对不同维度进行打标,解决冷启动,这也有很多成功的案例。如果item较少,这种方式是很可行的。

冷启动代表了一系列问题,处理它需要一定的经验。

4. 用户标签

先理清UGC的概念,是User Generated Content的简称。标签是一种常用的方法,便于解释,用户能够方便地为商品打标,提升用户互动。

一般来说,标签可以由系统自动产生(NLP),也可以由用户手工添加,包括以下类型:作者,主题,时间,评价,是否喜爱等。

基线算法

统计用户最常用的标签,对每个标签,统计被打过这些标签的最多的商品,然后把这些商品推荐给用户。

标签会随着系统发展,变得越来越多。因此相似的标签需要合并,不合理的标签要去掉,太过普遍的标签会被降权。

如果用户给的标签太少,则可以在已有的标签上,给出更多新的标签。

标签相当于是个纽带。同样标签也能被推荐,方法也很简单。

5. 利用上下文信息

时间上下文

用户在不同场景下,心情是不同的。因此行为和音乐肯定也有所区别。实时性非常重要,此时,推荐系统变成了时变系统。

当用户对某个物品发生了点击时,就会触发一次推荐的更新,这种实时回流非常重要。是如何实现的呢?

  • 如何判断一个系统的时变速度

显然维基百科和youtube的物品时变速率大大不同。新闻比电影的时变性更强。判断系统时变性有两种方法,T天之内,每天和前一天该物品的特征向量求相似度数值,可以扫出一条曲线。

  • 如何提高时变性

最简单的,在推荐列表中,一部分是推荐的,一部分是随机的。

当用户看过某件商品,就会对其做降权。很多推荐系统无法得到更多的回流数据,导致重复推荐。

每次都使用不同的推荐算法来推荐。

  • 对时间增加权重

最近的行为,对这次的相似度贡献要比更早的行为更多。

当然,推荐系统要首先保证精度,再考虑推荐的实时性。

地点上下文

一些场景对地点很敏感,例如餐馆商场等。本地新闻也会提升用户的粘性。这个问题比较复杂,有一些方法能解决这个问题:

设计多层分类器,例如江苏南京用户,先对整体用户做推荐,再对中国用户推荐,再对江苏,最后是南京,几种模型进行叠加,最终生成结果。但问题是到分类树的枝杈时,数据已经非常稀疏了。

6. 推荐系统实例

基础结构

包括三个部分:UI,日志系统和推荐系统。

三个级别: 用户,特征,商品。先从用户生成特征,再通过特征找到商品。

三个步骤: 推荐,过滤,排序。

多个推荐系统可以进行投票,最终可以做推荐系统的推荐系统,按照不同用户的需求生成推荐

7. 对于新闻推荐算法的思考

新闻有其独特的特点: 不断有新文章进来,之后又不断过期。实时性很高。ItemCF似乎不可行。

用户会喜欢多个类目,但一旦热门新闻过来,门类反而不重要了。甚至一些观点认为,每天最热门的物品已经吸引了绝大多数用户的眼球,长尾物品很少得到用户关注。

而新闻本身的质量非常重要。通常好文章的阅读数远大于其他文章(长尾效应,二八原则)

如果没有社交信息,UserCF就也变得不可靠了。

需要对文章的作者提供适当的保护,否则马太效应明显。

拥有众多埋点行为可供参考,例如该页面停留时间,用户滑动行为,点击/点赞/踩。

8. 其他

从整本书,我们能够分析一些通用的思路。

通过向量可以计算相似度,用共现可计算关系。但是,需要对热门u或i做惩罚,TF/IDF是个很好的思路。它不仅能用于词汇,还能用于各种离散化的,对顺序无要求的系统中。

计算一个网络中多个节点的关系,可以用PersonalRank来实现,即随机游走。随机游走需要定义启动概率,一般是相同的。这种算法的好处,是能够评估横跨多个节点的弱关系。虽然图距离较远,但因为路径权重较大,很有可能距离比直接节点还要近。

推荐系统是与人打交道的系统,如何提升交互的质量非常重要,例如可解释性。系统设计人员需要对业务有深入的了解,例如电商推荐,商品的降价信息可能会极大地影响推荐的效果。但这个特征似乎被忽视了。

太过复杂的算法,效果可能不一定好,因为可能无法满足实时性要求。或是在工程上成本太高,反而抵消了复杂算法实现的效果。

为什么推荐系统会发布那么多论文,因为这里可变的参数实在太多了,而使用的环境又千变万化,上下文也会改变,非常适合大量的水论文。

作者:热情的沙漠
出处:http://www.cnblogs.com/buptzym/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

分类:
算法

本文转自FerventDesert博客园博客,原文链接:http://www.cnblogs.com/buptzym/p/7140639.html,如需转载请自行联系原作者

    原文作者:推荐算法
    原文地址: https://yq.aliyun.com/articles/378195
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞