求知 文章 文库 Lib 视频 iProcess 课程 角色 咨询 工具 讲座 Modeler   Code  
会员   
 
  
每天15篇文章
不仅获得谋生技能
更可以追随信仰
 
 
     
   
分享到
数据挖掘:如何寻找相关项
 

作者:bionicspirit.com,发布于2012-5-28

 

导读:随着大数据时代浪潮的到来数据科学家这一新兴职业也越来越受到人们的关注。本文作者Alexandru Nedelcu就将数学挖掘算法与大数据有机的结合起来,并无缝的应用在面临大数据浪潮的网站之中。

数据科学家需要具备专业领域知识并研究相应的算法以分析对应的问题,而数据挖掘是其必须掌握的重要技术。以帮助创建推动业务发展的相应大数据产品和大数据解决方案。EMC最近的一项调查也证实了这点。调查结果显示83%的人认为大数据浪潮所催生的新技术增加了数据科学家的需求。本文将为您展示如何基于一个简单的公式查找相关的项目。请注意,此项技术适用于所有的网站(如亚马逊),以个性化用户体验、提高转换效率。

查找相关项问题

要想为一个特定的项目查找相关项,就必须首先为这两个项目定义相关之处。而这些也正是你要解决的问题:

  • 在博客上,你可能想以标签的形式分享文章,或者对比查看同一个人阅读过的文章
  • 亚马逊站点被称为“购买此商品的客户还购买了”的部分
  • 一个类似于IMDB(Internet Movie Database)的服务,可以根据用户的评级,给出观影指南建议

不论是标签、购买的商品还是观看的电影,我们都要对其进行分门别类。这里我们将采用标签的形式,因为它很简单,而且其公式也适用于更复杂的情形。

以几何关系重定义问题

现在以我的博客为例,来列举一些标签:

["API", "Algorithms", "Amazon", "Android", "Books", "Browser"]

好,我们来看看在欧式空间几何学中如何表示这些标签。

我们要排序或比较的每个项目在空间中以点表示,坐标值(代表一个标签)为1(标记)或者0(未标记)。

因此,如果我们已经获取了一篇标签为“API”和“Browser”的文章,那么其关联点是:

[ 1, 0, 0, 0, 0, 1 ]

现在这些坐标可以表示其它含义。例如,他们可以代表用户。如果在你的系统中有6个用户,其中2个用户对一篇文章分别评了3星和5星,那么你就可以针对此文章查看相关联的点(请注意顺序):

[ 0, 3, 0, 0, 5, 0 ]

现在我们可以计算出相关矢量之间的夹角,以及这些点之间的距离。下面是它们在二维空间中的图像:

欧式几何空间距离

计算欧式几何空间两点之间距离的数学公式非常简单。考虑相关两点A、B之间的距离:

两点之间的距离越近,它们的相关性越大。下面是Ruby代码:

# Returns the Euclidean distance between 2 points  
#  
# Params:  
#  - a, b: list of coordinates (float or integer)  
#  
def euclidean_distance(a, b)  
   sq = a.zip(b).map{|a,b| (a - b) ** 2}  
   Math.sqrt(sq.inject(0) {|s,c| s + c})  
end 
# Returns the associated point of our tags_set, relative to our  
# tags_space.  
#  
# Params:  
#  - tags_set: list of tags  
#  - tags_space: _ordered_ list of tags  
def tags_to_point(tags_set, tags_space)  
   tags_space.map{|c| tags_set.member?(c) ? 1 : 0}  
end 
# Returns other_items sorted by similarity to this_item   
# (most relevant are first in the returned list)  
#  
# Params:  
#  - items: list of hashes that have [:tags]  
#  - by_these_tags: list of tags to compare with  
def sort_by_similarity(items, by_these_tags)  
   tags_space = by_these_tags + items.map{|x| x[:tags]}    
   tags_space.flatten!.sort!.uniq!  
   this_point = tags_to_point(by_these_tags, tags_space) 
   other_points = items.map{|i|   
   [i, tags_to_point(i[:tags], tags_space)]  
   }  
   similarities = other_points.map{|item, that_point|  
     [item, euclidean_distance(this_point, that_point)]  
   }  
   sorted = similarities.sort {|a,b| a[1] <=> b[1]}  
   return sorted.map{|point,s| point}  
End 

这是一些示例代码,你可以直接复制运行:

# SAMPLE DATA 
all_articles = [  
  { 
   :article => "Data Mining: Finding Similar Items",  
   :tags => ["Algorithms", "Programming", "Mining",   
     "Python", "Ruby"]  
  },  
  { 
   :article => "Blogging Platform for Hackers",   
   :tags => ["Publishing", "Server", "Cloud", "Heroku",   
     "Jekyll", "GAE"]  
  },   
  {  
   :article => "UX Tip: Don't Hurt Me On Sign-Up",   
   :tags => ["Web", "Design", "UX"]  
  },   
  { 
   :article => "Crawling the Android Marketplace",  
   :tags => ["Python", "Android", "Mining",  
     "Web", "API"] 
  }  
]  
# SORTING these articles by similarity with an article  
# tagged with Publishing + Web + API  
#  
#  
# The list is returned in this order:  
#  
# 1. article: Crawling the Android Marketplace  
#    similarity: 2.0  
#  
# 2. article: "UX Tip: Don't Hurt Me On Sign-Up"  
#    similarity: 2.0 
#  
# 3. article: Blogging Platform for Hackers 
#    similarity: 2.645751 
#  
# 4. article: "Data Mining: Finding Similar Items"  
#    similarity: 2.828427  
#  
sorted = sort_by_similarity(  
    all_articles, ['Publishing', 'Web', 'API'])  
require 'yaml' 
puts YAML.dump(sorted) 

你是否留意到我们之前选择的数据存在一个缺陷?前两篇文章对于标签“["Publishing", "Web", "API"]”有着相同的欧氏几何空间距离。

为了更加形象化,我们来看看计算第一篇文章所用到的点:

[1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1]

[1, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 1]

只有四个坐标值不同,我们再来看看第二篇文章所用到的点:

[1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1]

[0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1]

与第一篇文章相同,也只有4个坐标值不同。欧氏空间距离的度量取决于点之间的差异。这也许不太好,因为相对平均值而言,有更多或更少标签的文章会处于不利地位。

余弦相似度

这种方法与之前的方法类似,但更关注相似性。下面是公式:

下面是Ruby代码:

def dot_product(a, b)  
  products = a.zip(b).map{|a, b| a * b}  
  products.inject(0) {|s,p| s + p}  
end 
def magnitude(point)  
  squares = point.map{|x| x ** 2} 
  Math.sqrt(squares.inject(0) {|s, c| s + c})  
end 
# Returns the cosine of the angle between the vectors   
#associated with 2 points  
#  
# Params: 
#  - a, b: list of coordinates (float or integer)  
# 
def cosine_similarity(a, b)  
  dot_product(a, b) / (magnitude(a) * magnitude(b)) 
end 

对于以上示例,我们对文章进行分类得到:

- article: Crawling the Android Marketplace  
  similarity: 0.5163977794943222  
- article: "UX Tip: Don't Hurt Me On Sign-Up" 
  similarity: 0.33333333333333337  
- article: Blogging Platform for Hackers  
  similarity: 0.23570226039551587 
- article: "Data Mining: Finding Similar Items" 
   similarity: 0.0 

这种方法有了很大改善,我们的代码可以很好地运行,但它依然存在问题。

示例中的问题:Tf-ldf权重

我们的数据很简单,可以轻松地计算并作为衡量的依据。如果不采用余弦相似度,很可能会出现相同的结果。

Tf-ldf权重是一种解决方案。Tf-ldf是一个静态统计量,用于权衡文本集合中的一个词在一个文档中的重要性。

根据Tf-ldff,我们可以为坐标值赋予独特的值,而并非局限于0和1.

对于我们刚才示例中的简单数据集,也许更简单的度量方法更适合,比如Jaccard index也许会更好。

皮尔逊相关系数(Pearson Correlation Coefficient)

使用皮尔逊相关系数(Pearson Correlation Coefficient)寻找两个项目之间的相似性略显复杂,也并不是非常适用于我们的数据集合。

例如,我们在IMDB中有2个用户。其中一个用户名为John,对五部电影做了评级:[1,2,3,4,5]。另一个用户名为Mary,对这五部电影也给出了评级:[4, 5, 6, 7, 8]。这两个用户非常相似,他们之间有一个完美的线性关系,Mary的评级都是在John的基础上加3。

计算公式如下:

代码如下:

def pearson_score(a, b)  
  n = a.length  
  return 0 unless n > 0  
  # summing the preferences  
  sum1 = a.inject(0) {|sum, c| sum + c}  
  sum2 = b.inject(0) {|sum, c| sum + c}  
  # summing up the squares  
  sum1_sq = a.inject(0) {|sum, c| sum + c ** 2}  
  sum2_sq = b.inject(0) {|sum, c| sum + c ** 2}  
  # summing up the product  
  prod_sum = a.zip(b).inject(0) {|sum, ab| sum + ab[0] * ab[1]}  
  # calculating the Pearson score  
  num = prod_sum - (sum1 *sum2 / n)    
  den = Math.sqrt((sum1_sq - (sum1 ** 2) / n) * (sum2_sq - (sum2 ** 2) / n))  
  return 0 if den == 0  
  return num / den    
end 
puts pearson_score([1,2,3,4,5], [4,5,6,7,8])  
# => 1.0  
puts pearson_score([1,2,3,4,5], [4,5,0,7,8])  
# => 0.5063696835418333  
puts pearson_score([1,2,3,4,5], [4,5,0,7,7])  
# => 0.4338609156373132  
puts pearson_score([1,2,3,4,5], [8,7,6,5,4])  
# => -1 

曼哈顿距离算法

没有放之四海而皆准的真理,我们所使用的公式取决于要处理的数据。下面我们简要介绍一下曼哈顿距离算法。

曼哈顿距离算法计算两点之间的网格距离,维基百科中的图形完美诠释了它与欧氏几何距离的不同:

红线、黄线和蓝线是具有相同长度的曼哈顿距离,绿线代表欧氏几何空间距离。


相关文章 相关文档 相关视频



我们该如何设计数据库
数据库设计经验谈
数据库设计过程
数据库编程总结
数据库性能调优技巧
数据库性能调整
数据库性能优化讲座
数据库系统性能调优系列
高性能数据库设计与优化
高级数据库架构师
数据仓库和数据挖掘技术
Hadoop原理、部署与性能调优

 
分享到
 
 
     


MySQL索引背后的数据结构
MySQL性能调优与架构设计
SQL Server数据库备份与恢复
让数据库飞起来 10大DB2优化
oracle的临时表空间写满磁盘
数据库的跨平台设计
更多...   


并发、大容量、高性能数据库
高级数据库架构设计师
Hadoop原理与实践
Oracle 数据仓库
数据仓库和数据挖掘
Oracle数据库开发与管理


GE 区块链技术与实现培训
航天科工某子公司 Nodejs高级应用开发
中盛益华 卓越管理者必须具备的五项能力
某信息技术公司 Python培训
某博彩IT系统厂商 易用性测试与评估
中国邮储银行 测试成熟度模型集成(TMMI)
中物院 产品经理与产品管理
更多...   
 
 
 
 
 
每天2个文档/视频
扫描微信二维码订阅
订阅技术月刊
获得每月300个技术资源
 
 

关于我们 | 联系我们 | 京ICP备10020922号 京公海网安备110108001071号