Programming Collecive Intelligence 笔记 Making Recommendations

简介:

现在recommendation是非常普遍的一项技术, 在网上购物Amazon会推荐你可能感兴趣的商品,在电影,音乐网站,会推荐你可能喜欢的音乐或电影。那么这儿就来看看,这些推荐是怎么样实现的

Collaborative Filtering

日常生活中,最简单的获取推荐的方法就是问朋友,你可能知道某些朋友的品位比较高,爱好和你比较相像。不过这种方法并不是一直管用,因为朋友知道的毕竟是很有限的, 相信每个人都会有很纠结不知道去哪儿吃饭,或不知道什么商品更值得买的时候。

那么这时候就需要一个Collaborative Filtering算法,A collaborative filtering algorithm usually works by searching a large group of people and finding a smaller set with tastes similar to yours.

这样就是把你的朋友的范围进行扩展,当人多了,自然信息就多了

Collecting Preferences

The first thing you need is a way to represent different people and their preferences.

上面说了Collaborative Filtering算法,要从很多人中找出和你兴趣相近的人,那么首先的一步就是怎么样来表示个人和他的兴趣,以便于后面的数据处理。

通用的做法就是把每个人都当作一个向量, 而每个兴趣的特征点都作为向量的一维, 这儿需要把所有的兴趣都进行量化,不然无法进行数据的计算处理. 比如, 你很喜欢, 标上数值5, 一般标上3.

而在python表示这种向量就用字典,很方便

critics={

''Lisa Rose'': {''Lady in the Water'': 2.5, ''Snakes on a Plane'': 3.5, ''Just My Luck'': 3.0, ''Superman Returns'': 3.5, ''You, Me and Dupree'': 2.5, ''The Night Listener'': 3.0},
''Gene Seymour'': {''Lady in the Water'': 3.0, ''Snakes on a Plane'': 3.5, ''Just My Luck'': 1.5, ''Superman Returns'': 5.0, ''The Night Listener'': 3.0, ''You, Me and Dupree'': 3.5}

}

上面就表示了lisa和gene分别对各个电影的喜欢程度,用1到5的数值来表示

Finding Similar Users

上面我用向量的形式表示出需要进行Collaborative Filtering的user, 那么下面的问题是怎么样从中发现similar的user

既然我们用向量来表示user, 那么发现similar的user, 其实就是去计算向量间距离最短的问题, 找出那些最相近的向量

I’ll show you two systems for calculating similarity scores: Euclidean distance and Pearson correlation .

Euclidean distance

欧氏距离就是两点间绝对距离, 这个很好理解

>> from math import sqrt
>> sqrt(pow(5-4,2)+pow(4-1,2))
3.1622776601683795

上面的代码就计算了(5,4)和(4,1)两点间的距离

However, you need a function that gives higher values for people who are similar.

>> 1/(1+sqrt(pow(5-4,2)+pow(4-1,2)))
0.2402530733520421

Pearson correlation

欧氏距离比较简单, 但有个问题, 对样东西的打分是主观的, 每个人打分的标准是不一样的, 有人打分偏高, 有人偏低, 所以算绝对距离对这种情况无法处理.

pearson相关系数用于计算向量各维度间的比例, 两个向量的维度间比例相近, 就认为两向量相似

如向量(1,2) 和 (4,8), 如果用欧氏距离去算差的很远的, 但是用pearson相关系数去计算, 相似度就是1, 完全相似.

There are many other functions such as the Jaccard coefficient or Manhattan distance that you can use as your similarity function.

Ranking the Critics 
Now that you have functions for comparing two people, you can create a function that scores everyone against a given person and finds the closest matches.

Recommending Items 
Finding a good critic to read is great, but what I really want is a movie recommendation right now.

上面通过计算向量间距离, 我们已经可以找到和某个user最相近的那些users, 但我们的目的是进行电影推荐, 那么下面应该怎么做了

现在有下面5个相似的user对night, lady, luck这3部电影的评分, 来看看怎样来推荐电影了

Critic          Similarity  Night   S.xNight  Lady   S.xLady  Luck   S.xLuck
Rose             0.99       3.0        2.97     2.5      2.48       3.0    2.97
Seymour       0.38       3.0        1.14     3.0      1.14       1.5    0.57
Puig              0.89       4.5        4.02                              3.0    2.68
LaSalle          0.92       3.0        2.77     3.0      2.77       2.0   1.85
Matthews     0.66       3.0        1.99      3.0      1.99
Total                                       12.89                8.38               8.07
Sim. Sum                                  3.84                2.95                3.18
Total/Sim. Sum                        3.35                  2.83               2.53

首先电影评分*Similarity得到相对的评分, 如 Similarity * Night =  S.xNight, 这样越相似的user的评分的权重越高

把所有user对电影的相对评分相加得到总评分, 直接把总评分作为推荐依据, 会导致被越多用户评分的电影的越占便宜, 所以就那就用总评分除上所有评论用户的similarity和来得到Total/Sim. Sum, 用这个作为推荐的依据.

Not only do you get a ranked list of movies, but you also get a guess at what my rating for each movie would be.

以上我们就完成了一个推荐系统, 我们可以把其中的用户和电影替换为其他任意对象, 来完成各种各样的推荐系统.

Item-Based Filtering

The way the recommendation engine has been implemented so far requires the use of all the rankings from every user in order to create a dataset. This will probably work well for a few thousand people or items, but a very large site like Amazon has millions of customers and products—comparing a user with every other user and then comparing every product each user has rated can be very slow.

我们上面介绍的方法对于小数据集没有问题, 不过对于象Amazon等这样的大数据集, 就会很慢, 因为你每次都要去计算任意两个对象的相似度.这种方法被称为user-based collaborative filtering . An alternative is known as item-based collaborative filtering . In cases with very large datasets, item-based collaborative filtering can give better results, and it allows many of the calculations to be performed in advance so that a user needing recommendations can get them more quickly.

这边假设推荐系统都是用来为user推荐item的, 上面我们的方法是, 先找到和该user相似的user集合, 然后根据这些user所喜欢的item来推荐.

那么其实item之间本身也是有相似度, 那么如果我们事先算出和每个item相似的item集合, 在对user进行item推荐的时候, 只需要以该user喜欢的item的相似item集合来进行推荐.

这样做的一个依据是comparisons between items will not change as often as comparisons between users

因为你用户的兴趣可能是不断变的, 所以用户之间的关系是不断变化的, 而事物之间的关系是相对稳定的, 比如两部电影的关系, 是比较客观的

那么怎么计算item间的相似度了, 前面我们算user的相似度, 可以把这个矩阵倒置, 以item为向量, 以user的评价为维, 来计算item的相似度

这种方法刚开始user的评价不多的时候, item间的相似度关系会频繁变动, 但当user的评价达到一定数量级的时候, 这个相似度关系会变的稳定. 其实你也可以通过其他方法来算item间相似度, 比如对电影, 可以计算电影介绍, 影评的相似度

那么得到了item间的相似度, 怎么进行推荐

假设user对Snakes, Superman, Dupree进行了评价, 那么怎样基于他的评价给他进行推荐新的电影

下面列出了和其他电影之间的相似度, 假设只有Night, Lady, Luck

Movie         Rating   Night  R.xNight  Lady  R.xLady  Luck  R.xLuck
Snakes         4.5      0.182  0.818    0.222  0.999    0.105 0.474
Superman     4.0     0.103   0.412    0.091  0.363    0.065 0.258
Dupree         1.0      0.148  0.148     0.4      0.4        0.182 0.182
Total                        0.433  1.378    0.713  1.764    0.352  0.914
Normalized                         3.183                2.598               2.473

计算方法如下

Rating  * Night = R.xNight

Total-R.x/Total-Night = Normalized

User-Based or Item-Based Filtering?

Item-based filtering is significantly faster than user-based when getting a list of recommendations for a large dataset, but it does have the additional overhead of maintaining the item similarity table.

Item-based filtering usually outperforms user-based filtering in sparse datasets, and the two perform about equally in dense datasets.


本文章摘自博客园,原文发布日期:2011-07-04

目录
相关文章
|
5月前
|
Dart
B - MaratonIME challenges USPGameDev
B - MaratonIME challenges USPGameDev
|
算法 关系型数据库 数据建模
【读书笔记】Algorithms for Decision Making(4)
本部分讨论从数据学习或拟合模型参数的问题,进一步讨论了从数据中学习模型结构的方法,最后对决策理论进行了简单的概述。
【读书笔记】Algorithms for Decision Making(4)
|
算法
【读书笔记】Algorithms for Decision Making(3)
上一部分给出了概率分布的表示论。本部分将展示如何使用概率表示进行推理,即确定一组给定观察变量相关值的一个或多个未观察变量的分布。在该部分中首先介绍直接推断的办法,然后给出几种有效的近似方法。
120 0
|
机器学习/深度学习 算法 vr&ar
【读书笔记】Algorithms for Decision Making(9)
与基于模型的方法相比,无模型方法不需要构建转移函数和奖励函数的显性表示,而是直接作用于值函数建模。进一步地,考虑模拟学习来重建奖励函数。
【读书笔记】Algorithms for Decision Making(9)
|
机器学习/深度学习 API
【读书笔记】Algorithms for Decision Making(8)
解决存在模型不确定性的此类问题是强化学习领域的主题,这是这部分的重点。解决模型不确定性的几个挑战:首先,智能体必须仔细平衡环境探索和利用通过经验获得的知识。第二,在做出重要决策后很长时间内,可能会收到奖励,因此必须将以后奖励的学分分配给以前的决策。第三,智能体必须从有限的经验中进行概括。
169 0
【读书笔记】Algorithms for Decision Making(8)
|
算法
【读书笔记】Algorithms for Decision Making(11)
在有限维场景中,POMDP问题的精确解也经常很难计算。因而,考虑求得近似解的方法是合理的。本部分从离线近似解讨论到在线近似解,是近似方法的常规逻辑思路。
106 0
|
vr&ar
【读书笔记】Algorithms for Decision Making(5)
此前讲述了在某个时间点做一个单一的决定的问题,但许多重要的问题需要做出一系列的决定。序列环境中的最佳决策需要对未来行动和观察序列进行推理。
|
机器学习/深度学习
【读书笔记】Algorithms for Decision Making(7)
策略搜索即搜索策略空间,而无需直接计算值函数。策略空间的维数通常低于状态空间,并且通常可以更有效地搜索。本部分首先讨论在初始状态分布下估计策略价值的方法。然后讨论不使用策略梯度估计的搜索方法和策略梯度方法。接着介绍Actor-Critic方法用值函数的估计来指导优化。
|
人工智能 vr&ar 决策智能
【读书笔记】Algorithms for Decision Making(12)
现将单智能体的核心概念扩展到多智能体系统的问题。在该系统中,可将其他智能体建模为潜在的盟友或对手,并随着时间的推移进行相应的调整。
|
算法 决策智能
【读书笔记】Algorithms for Decision Making(14)
本部分将简单游戏扩展到具有多个状态的连续上下文。马尔可夫博弈可以看作是多个具有自己奖励函数的智能体的马尔可夫决策过程。
307 0
【读书笔记】Algorithms for Decision Making(14)

热门文章

最新文章