Spark 机器学习(四)
原文:
zh.annas-archive.org/md5/7A35D303E4132E910DFC5ADB5679B82A译者:飞龙
第八章:使用 Spark 构建聚类模型
在过去的几章中,我们涵盖了监督学习方法,其中训练数据带有我们想要预测的真实结果的标签(例如,推荐的评级和分类的类分配,或者在回归的情况下是真实目标变量)。
接下来,我们将考虑没有可用标记数据的情况。这被称为无监督学习,因为模型没有受到真实目标标签的监督。无监督情况在实践中非常常见,因为在许多真实场景中获取标记的训练数据可能非常困难或昂贵(例如,让人类为分类标签标记训练数据)。然而,我们仍然希望学习数据中的一些潜在结构,并使用这些结构进行预测。
这就是无监督学习方法可以发挥作用的地方。无监督学习模型也经常与监督模型结合使用;例如,应用无监督技术为监督模型创建新的输入特征。
聚类模型在许多方面类似于分类模型的无监督等价物。在分类中,我们试图学习一个模型,可以预测给定训练示例属于哪个类。该模型本质上是从一组特征到类的映射。
在聚类中,我们希望对数据进行分段,以便将每个训练示例分配给一个称为簇的段。这些簇的作用很像类,只是真实的类分配是未知的。
聚类模型有许多与分类相同的用例;其中包括以下内容:
-
根据行为特征和元数据将用户或客户分成不同的群体
-
在网站上对内容进行分组或在零售业务中对产品进行分组
-
寻找相似基因的簇
-
在生态学中对社区进行分割
-
创建图像段,用于图像分析应用,如目标检测
在本章中,我们将:
-
简要探讨几种聚类模型
-
从数据中提取特征,特别是使用一个模型的输出作为我们聚类模型的输入特征
-
训练一个聚类模型并使用它进行预测
-
应用性能评估和参数选择技术来选择要使用的最佳簇数
聚类模型的类型
有许多不同形式的聚类模型可用,从简单到极其复杂。Spark MLlib 目前提供 k-means 聚类,这是最简单的方法之一。然而,它通常非常有效,而且其简单性意味着相对容易理解并且可扩展。
k-means 聚类
k-means 试图将一组数据点分成K个不同的簇(其中K是模型的输入参数)。
更正式地说,k-means 试图找到簇,以便最小化每个簇内的平方误差(或距离)。这个目标函数被称为簇内平方误差和(WCSS)。
它是每个簇中每个点与簇中心之间的平方误差的总和。
从一组K个初始簇中心开始(这些中心是计算为簇中所有数据点的平均向量),K-means 的标准方法在两个步骤之间进行迭代:
-
将每个数据点分配给最小化 WCSS 的簇。平方和等于平方欧氏距离;因此,这相当于根据欧氏距离度量将每个点分配给最接近的簇中心。
-
根据第一步的簇分配计算新的簇中心。
该算法进行到达到最大迭代次数或收敛为止。收敛意味着在第一步期间簇分配不再改变;因此,WCSS 目标函数的值也不再改变。
有关更多详细信息,请参考 Spark 关于聚类的文档spark.apache.org/docs/latest/mllib-clustering.html或参考en.wikipedia.org/wiki/K-means_clustering。
为了说明 K-means 的基础知识,我们将使用我们在第六章中展示的多类分类示例中所示的简单数据集,使用 Spark 构建分类模型。回想一下,我们有五个类别,如下图所示:
多类数据集
然而,假设我们实际上不知道真实的类别。如果我们使用五个簇的 k-means,那么在第一步之后,模型的簇分配可能是这样的:
第一次 K-means 迭代后的簇分配
我们可以看到,k-means 已经相当好地挑选出了每个簇的中心。在下一次迭代之后,分配可能看起来像下图所示的那样:
第二次 K-means 迭代后的簇分配
事情开始稳定下来,但总体簇分配与第一次迭代后基本相同。一旦模型收敛,最终的分配可能看起来像这样:
K-means 的最终簇分配
正如我们所看到的,模型已经相当好地分离了这五个簇。最左边的三个相当准确(有一些错误的点)。然而,右下角的两个簇不太准确。
这说明:
-
K-means 的迭代性质
-
模型对于最初选择簇中心的方法的依赖性(这里,我们将使用随机方法)
-
最终的簇分配对于分离良好的数据可能非常好,但对于更困难的数据可能较差
初始化方法
k-means 的标准初始化方法通常简称为随机方法,它首先随机将每个数据点分配给一个簇,然后进行第一个更新步骤。
Spark ML 提供了这种初始化方法的并行变体,称为K-means++,这是默认的初始化方法。
有关更多信息,请参阅en.wikipedia.org/wiki/K-means_clustering#Initialization_methods和en.wikipedia.org/wiki/K-means%2B%2B。
使用 K-means++的结果如下所示。请注意,这一次,困难的右下角点大部分被正确地聚类了:
K-means++的最终簇分配
还有许多其他的 K-means 变体;它们侧重于初始化方法或核心模型。其中一个更常见的变体是模糊 K-means。这个模型不像 K-means 那样将每个点分配给一个簇(所谓的硬分配)。相反,它是 K-means 的软版本,其中每个点可以属于许多簇,并且由相对于每个簇的成员资格表示。因此,对于K个簇,每个点被表示为一个 K 维成员资格向量,向量中的每个条目表示在每个簇中的成员资格比例。
混合模型
混合模型本质上是模糊 K 均值背后思想的延伸;然而,它假设存在一个生成数据的潜在概率分布。例如,我们可能假设数据点是从一组 K 个独立的高斯(正态)概率分布中抽取的。簇分配也是软的,因此每个点在 K 个潜在概率分布中都由K成员权重表示。
有关混合模型的更多详细信息和混合模型的数学处理,请参见en.wikipedia.org/wiki/Mixture_model。
分层聚类
分层聚类是一种结构化的聚类方法,它会产生一个多级别的簇层次结构,其中每个簇可能包含许多子簇。因此,每个子簇都与父簇相关联。这种形式的聚类通常也被称为树状聚类。
凝聚聚类是一种自下而上的方法:
-
每个数据点都开始在自己的簇中
-
评估每对簇之间的相似性(或距离)
-
找到最相似的一对簇;然后将这对簇合并成一个新的簇
-
该过程重复进行,直到只剩下一个顶层簇
分裂聚类是一种自上而下的方法,从一个簇开始,然后在每个阶段将一个簇分裂成两个,直到所有数据点都被分配到自己的底层簇中。
自上而下聚类比自下而上聚类更复杂,因为需要第二个平面聚类算法作为“子程序”。如果我们不生成完整的层次结构到单个文档叶子,自上而下聚类具有更高的效率。
您可以在en.wikipedia.org/wiki/Hierarchical_clustering找到更多信息。
从数据中提取正确的特征
与迄今为止遇到的大多数机器学习模型一样,k 均值聚类需要数值向量作为输入。我们已经看到的用于分类和回归的相同特征提取和转换方法也适用于聚类。
与最小二乘回归一样,由于 k 均值使用平方误差函数作为优化目标,它往往会受到异常值和具有大方差的特征的影响。
聚类可以用来检测异常值,因为它们可能会引起很多问题。
对于回归和分类情况,输入数据可以被标准化和规范化以克服这一问题,这可能会提高准确性。然而,在某些情况下,如果例如目标是根据某些特定特征找到分割,可能不希望标准化数据。
从 MovieLens 数据集中提取特征
在使用聚类算法之前,我们将使用 ALS 算法获取用户和项目(电影)的数值特征:
- 首先将数据
u.data加载到 DataFrame 中:
val ratings = spark.sparkContext
.textFile(DATA_PATH + "/u.data")
.map(_.split("\t"))
.map(lineSplit => Rating(lineSplit(0).toInt,
lineSplit(1).toInt, lineSplit(2).toFloat,
lineSplit(3).toLong))
.toDF()
- 然后我们将其按 80:20 的比例分割,得到训练和测试数据:
val Array(training, test) =
ratings.randomSplit(Array(0.8, 0.2))
- 我们实例化
ALS类,将最大迭代次数设置为5,正则化参数设置为0.01:
val als = new ALS()
.setMaxIter(5)
.setRegParam(0.01)
.setUserCol("userId")
.setItemCol("movieId")
.setRatingCol("rating")
- 然后我们创建一个模型,然后计算预测:
val model = als.fit(training)
val predictions = model.transform(test)
- 接着计算
userFactors和itemFactors:
val itemFactors = model.itemFactors
itemFactors.show()
val userFactors = model.userFactors
userFactors.show()
- 我们将它们转换为 libsvm 格式并将它们持久化在一个文件中。请注意,我们持久化所有特征以及两个特征:
val itemFactorsOrdererd = itemFactors.orderBy("id")
val itemFactorLibSVMFormat =
itemFactorsOrdererd.rdd.map(x => x(0) + " " +
getDetails(x(1).asInstanceOf
[scala.collection.mutable.WrappedArray[Float]]))
println("itemFactorLibSVMFormat.count() : " +
itemFactorLibSVMFormat.count())
print("itemFactorLibSVMFormat.first() : " +
itemFactorLibSVMFormat.first())
itemFactorLibSVMFormat.coalesce(1)
.saveAsTextFile(output + "/" + date_time +
"/movie_lens_items_libsvm")
movie_lens_items_libsvm的输出将如下所示:
1 1:0.44353345 2:-0.7453435 3:-0.55146646 4:-0.40894786
5:-0.9921601 6:1.2012635 7:0.50330496 8:-0.23256435
9:0.55483425 10:-1.4781344
2 1:0.34384087 2:-1.0242497 3:-0.20907198 4:-0.102892995
5:-1.0616653 6:1.1338154 7:0.5742042 8:-0.46505615
9:0.3823278 10:-1.0695107 3 1:-0.04743084 2:-0.6035447
3:-0.7999673 4:0.16897096
5:-1.0216197 6:0.3304353 7:1.5495727 8:0.2972699
9:-0.6855238
10:-1.5391738
4 1:0.24745995 2:-0.33971268 3:0.025664425 4:0.16798466
5:-0.8462472 6:0.6734541 7:0.7537076 8:-0.7119413
9:0.7475001
10:-1.965572
5 1:0.30903652 2:-0.8523586 3:-0.54090345 4:-0.7004097
5:-1.0383878 6:1.1784278 7:0.5125761 8:0.2566347
9:-0.020201845
10:-1.118083
....
1681 1:-0.14603947 2:-0.4475343 3:-0.50514024 4:-0.7221697
5:-0.7997808 6:0.21069092 7:0.22631708 8:-0.32458723
9:0.20187362 10:-1.2734087
1682 1:0.21975909 2:0.45303428 3:-0.73912954 4:-0.40584692
5:-0.5299451 6:0.79586357 7:0.5154468 8:-0.4033669
9:0.2220822
10:-0.70235217
- 接下来,我们持久化前两个特征(具有最大变化)并将它们持久化在一个文件中:
var itemFactorsXY = itemFactorsOrdererd.rdd.map(
x => getXY(x(1).asInstanceOf
[scala.collection.mutable.WrappedArray[Float]]))
itemFactorsXY.first()
itemFactorsXY.coalesce(1).saveAsTextFile(output + "/" +
date_time + "/movie_lens_items_xy")
movie_lens_items_xy的输出将如下所示:
2.254384458065033, 0.5487040132284164
-2.0540390759706497, 0.5557805597782135
-2.303591560572386, -0.047419726848602295
-0.7448508385568857, -0.5028514862060547
-2.8230229914188385, 0.8093537855893373
-1.4274845123291016, 1.4835840165615082
-1.3214656114578247, 0.09438827633857727
-2.028286747634411, 1.0806758720427752
-0.798517256975174, 0.8371041417121887
-1.556841880083084, -0.8985426127910614
-1.0867036543786526, 1.7443277575075626
-1.4234793484210968, 0.6246072947978973
-0.04958712309598923, 0.14585793018341064
- 接下来我们计算
userFactors的 libsvm 格式:
val userFactorsOrdererd = userFactors.orderBy("id")
val userFactorLibSVMFormat =
userFactorsOrdererd.rdd.map(x => x(0) + " " +
getDetails(x(1).asInstanceOf
[scala.collection.mutable.WrappedArray[Float]]))
println("userFactorLibSVMFormat.count() : " +
userFactorLibSVMFormat.count())
print("userFactorLibSVMFormat.first() : " +
userFactorLibSVMFormat.first())
userFactorLibSVMFormat.coalesce(1)
.saveAsTextFile(output + "/" + date_time +
"/movie_lens_users_libsvm")
movie_lens_users_libsvm的输出将如下所示:
1 1:0.75239724 2:0.31830165 3:0.031550772 4:-0.63495475
5:-0.719721 6:0.5437525 7:0.59800273 8:-0.4264512
9:0.6661331
10:-0.9702077
2 1:-0.053673547 2:-0.24080916 3:-0.6896337 4:-0.3918436
5:-0.4108574 6:0.663401 7:0.1975566 8:0.43086317 9:1.0833738
10:-0.9398713
3 1:0.6261427 2:0.58282375 3:-0.48752788 4:-0.36584544
5:-1.1869227 6:0.14955235 7:-0.17821303 8:0.3922112
9:0.5596394 10:-0.83293504
4 1:1.0485783 2:0.2569924 3:-0.48094323 4:-1.8882223
5:-1.4912299 6:0.50734115 7:1.2781366 8:0.028034585
9:1.1323715 10:0.4267411
5 1:0.31982875 2:0.13479441 3:0.5392742 4:0.33915272
5:-1.1892766 6:0.33669636 7:0.38314193 8:-0.9331541
9:0.531006 10:-1.0546529
6 1:-0.5351592 2:0.1995535 3:-0.9234565 4:-0.5741345
5:-0.4506062 6:0.35505387 7:0.41615438 8:-0.32665777
9:0.22966743 10:-1.1040379
7 1:0.41014928 2:-0.32102737 3:-0.73221415 4:-0.4017513
5:-0.87815255 6:0.3717881 7:-0.070220165 8:-0.5443932
9:0.24361002 10:-1.2957898
8 1:0.2991327 2:0.3574251 3:-0.03855041 4:-0.1719838
5:-0.840421 6:0.89891523 7:0.024321048 8:-0.9811069
9:0.57676667 10:-1.2015694
9 1:-1.4988179 2:0.42335498 3:0.5973782 4:-0.11305857
5:-1.3311529 6:0.91228217 7:1.461522 8:1.4502159 9:0.5554214
10:-1.5014526
10 1:0.5876411 2:-0.26684982 3:-0.30273324 4:-0.78348076
5:-0.61448336 6:0.5506227 7:0.2809167 8:-0.08864456
9:0.57811487 10:-1.1085391
- 接下来我们提取前两个特征并将它们持久化在一个文件中:
var userFactorsXY = userFactorsOrdererd.rdd.map(
x => getXY(x(1).asInstanceOf
[scala.collection.mutable.WrappedArray[Float]]))
userFactorsXY.first()
userFactorsXY.coalesce(1).saveAsTextFile(output + "/" +
date_time + "/movie_lens_user_xy")
movie_lens_user_xy的输出将如下所示:
-0.2524261102080345, 0.4112294316291809
-1.7868174277245998, 1.435323253273964
-0.8313295543193817, 0.09025487303733826
-2.55482479929924, 3.3726249802857637
0.14377352595329285, -0.736962765455246
-2.283802881836891, -0.4298199713230133
-1.9229961037635803, -1.2950050458312035
-0.39439742639660835, -0.682673366740346
-1.9222962260246277, 2.8779889345169067
-1.3799060583114624, 0.21247059851884842
我们将需要xy特征来对两个特征进行聚类,以便我们可以创建一个二维图。
K-means - 训练聚类模型
在 Spark ML 中,对 K-means 进行训练采用了与其他模型类似的方法——我们将包含训练数据的 DataFrame 传递给KMeans对象的 fit 方法。
在这里,我们使用 libsvm 数据格式。
在 MovieLens 数据集上训练聚类模型
我们将为我们通过运行推荐模型生成的电影和用户因子训练模型。
我们需要传入簇的数量K和算法运行的最大迭代次数。如果从一次迭代到下一次迭代的目标函数的变化小于容差水平(默认容差为 0.0001),则模型训练可能会运行少于最大迭代次数。
Spark ML 的 k-means 提供了随机和 K-means ||初始化,其中默认为 K-means ||。由于这两种初始化方法在某种程度上都是基于随机选择的,因此每次模型训练运行都会返回不同的结果。
K-means 通常不会收敛到全局最优模型,因此进行多次训练运行并从这些运行中选择最优模型是一种常见做法。MLlib 的训练方法公开了一个选项,可以完成多个模型训练运行。通过评估损失函数的评估,选择最佳训练运行作为最终模型。
- 首先,我们创建一个
SparkSession实例,并使用它来加载movie_lens_users_libsvm数据:
val spConfig = (new
SparkConf).setMaster("local[1]").setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
"./OUTPUT/11_10_2016_10_28_56/movie_lens_users_libsvm/part-
00000")
datasetUsers.show(3)
输出是:
+-----+--------------------+
|label| features|
+-----+--------------------+
| 1.0|(10,[0,1,2,3,4,5,...|
| 2.0|(10,[0,1,2,3,4,5,...|
| 3.0|(10,[0,1,2,3,4,5,...|
+-----+--------------------+
only showing top 3 rows
- 然后我们创建一个模型:
val kmeans = new KMeans().setK(5).setSeed(1L)
val modelUsers = kmeans.fit(datasetUsers)
- 最后,我们使用用户向量数据集训练一个 K-means 模型:
val modelUsers = kmeans.fit(datasetUsers)
K-means:使用聚类模型进行预测。
使用训练好的 K-means 模型是简单的,并且类似于我们迄今为止遇到的其他模型,如分类和回归。
通过将 DataFrame 传递给模型的 transform 方法,我们可以对多个输入进行预测:
val predictedUserClusters = modelUsers.transform(datasetUsers)
predictedUserClusters.show(5)
结果输出是预测列中每个数据点的聚类分配:
+-----+--------------------+----------+
|label| features|prediction|
+-----+--------------------+----------+
| 1.0|(10,[0,1,2,3,4,5,...| 2|
| 2.0|(10,[0,1,2,3,4,5,...| 0|
| 3.0|(10,[0,1,2,3,4,5,...| 0|
| 4.0|(10,[0,1,2,3,4,5,...| 2|
| 5.0|(10,[0,1,2,3,4,5,...| 2|
+-----+--------------------+----------+
only showing top 5 rows
由于随机初始化,聚类分配可能会从模型的一次运行到另一次运行发生变化,因此您的结果可能与之前显示的结果不同。聚类 ID 本身没有固有含义;它们只是从 0 开始的任意标记。
K-means - 解释 MovieLens 数据集上的簇预测
我们已经介绍了如何对一组输入向量进行预测,但是我们如何评估预测的好坏呢?我们稍后将介绍性能指标;但是在这里,我们将看到如何手动检查和解释我们的 k-means 模型所做的聚类分配。
虽然无监督技术的优点是不需要我们提供标记的训练数据,但缺点是通常需要手动解释结果。通常,我们希望进一步检查找到的簇,并可能尝试解释它们并为它们分配某种标签或分类。
例如,我们可以检查我们找到的电影的聚类,尝试看看是否有一些有意义的解释,比如在聚类中的电影中是否有共同的流派或主题。我们可以使用许多方法,但我们将从每个聚类中取几部最接近聚类中心的电影开始。我们假设这些电影最不可能在其聚类分配方面边缘化,因此它们应该是最具代表性的电影之一。通过检查这些电影集,我们可以看到每个聚类中的电影共享哪些属性。
解释电影簇
我们将尝试通过将数据集与预测输出数据集中的电影名称进行连接,列出与每个聚类相关联的电影:
Cluster : 0
--------------------------
+--------------------+
| name|
+--------------------+
| GoldenEye (1995)|
| Four Rooms (1995)|
|Shanghai Triad (Y...|
|Twelve Monkeys (1...|
|Dead Man Walking ...|
|Usual Suspects, T...|
|Mighty Aphrodite ...|
|Antonia's Line (1...|
| Braveheart (1995)|
| Taxi Driver (1976)|
+--------------------+
only showing top 10 rows
Cluster : 1
--------------------------
+--------------------+
| name|
+--------------------+
| Bad Boys (1995)|
|Free Willy 2: The...|
| Nadja (1994)|
| Net, The (1995)|
| Priest (1994)|
|While You Were Sl...|
|Ace Ventura: Pet ...|
| Free Willy (1993)|
|Remains of the Da...|
|Sleepless in Seat...|
+--------------------+
only showing top 10 rows
Cluster : 2
--------------------------
+--------------------+
| name|
+--------------------+
| Toy Story (1995)|
| Get Shorty (1995)|
| Copycat (1995)|
| Richard III (1995)|
|Seven (Se7en) (1995)|
|Mr. Holland's Opu...|
|From Dusk Till Da...|
|Brothers McMullen...|
|Batman Forever (1...|
| Disclosure (1994)|
+--------------------+
only showing top 10 rows
Cluster : 3
--------------------------
+--------------------+
| name|
+--------------------+
| Babe (1995)|
| Postino, Il (1994)|
|White Balloon, Th...|
|Muppet Treasure I...|
|Rumble in the Bro...|
|Birdcage, The (1996)|
| Apollo 13 (1995)|
|Belle de jour (1967)|
| Crimson Tide (1995)|
|To Wong Foo, Than...|
+--------------------+
only showing top 10 rows
解释电影簇
在本节中,我们将回顾代码,其中我们获取每个标签的预测并将它们保存在文本文件中,并绘制二维散点图。
我们将创建两个散点图,一个用于用户,另一个用于项目(在这种情况下是电影):
object MovieLensKMeansPersist {
val BASE= "./data/movie_lens_libsvm_2f"
val time = System.currentTimeMillis()
val formatter = new SimpleDateFormat("dd_MM_yyyy_hh_mm_ss")
import java.util.Calendar
val calendar = Calendar.getInstance()
calendar.setTimeInMillis(time)
val date_time = formatter.format(calendar.getTime())
def main(args: Array[String]): Unit = {
val spConfig = (
new SparkConf).setMaster("local[1]").
setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
BASE + "/movie_lens_2f_users_libsvm/part-00000")
datasetUsers.show(3)
val kmeans = new KMeans().setK(5).setSeed(1L)
val modelUsers = kmeans.fit(datasetUsers)
// Evaluate clustering by computing Within
//Set Sum of Squared Errors.
val predictedDataSetUsers = modelUsers.transform(datasetUsers)
print(predictedDataSetUsers.first())
print(predictedDataSetUsers.count())
val predictionsUsers =
predictedDataSetUsers.select("prediction").
rdd.map(x=> x(0))
predictionsUsers.saveAsTextFile(
BASE + "/prediction/" + date_time + "/users")
val datasetItems = spark.read.format("libsvm").load(
BASE + "/movie_lens_2f_items_libsvm/part-00000")
datasetItems.show(3)
val kmeansItems = new KMeans().setK(5).setSeed(1L)
val modelItems = kmeansItems.fit(datasetItems)
// Evaluate clustering by computing Within
//Set Sum of Squared Errors.
val WSSSEItems = modelItems.computeCost(datasetItems)
println(s"Items : Within Set Sum of Squared Errors =
$WSSSEItems")
// Shows the result.
println("Items - Cluster Centers: ")
modelUsers.clusterCenters.foreach(println)
val predictedDataSetItems = modelItems.transform(datasetItems)
val predictionsItems = predictedDataSetItems.
select("prediction").rdd.map(x=> x(0))
predictionsItems.saveAsTextFile(BASE + "/prediction/" +
date_time + "/items")
spark.stop()
}
具有用户数据的 K 均值聚类
上图显示了用户数据的 K 均值聚类。
具有项目数据的 K 均值聚类图
上图显示了项目数据的 K 均值聚类。
K 均值绘制聚类数的效果
上图显示了具有两个特征和一个迭代的用户数据的 K 均值聚类。
上图显示了具有两个特征和 10 次迭代的用户数据的 K 均值聚类。请注意聚类边界的移动。
上图显示了具有两个特征和 10 次迭代的用户数据的 K 均值聚类。请注意聚类边界的移动。
K 均值-评估聚类模型的性能
使用回归、分类和推荐引擎等模型,可以应用许多评估指标来分析聚类模型的性能和数据点的聚类好坏。聚类评估通常分为内部评估和外部评估。内部评估是指使用相同的数据来训练模型和进行评估的情况。外部评估是指使用训练数据之外的数据进行评估。
内部评估指标
常见的内部评估指标包括我们之前介绍的 WCSS(这恰好是 K 均值的目标函数)、Davies-Bouldin 指数、Dunn 指数和轮廓系数。所有这些指标都倾向于奖励集群,其中集群内的元素相对较近,而不同集群中的元素相对较远。
聚类评估的维基百科页面en.wikipedia.org/wiki/Cluster_analysis#Internal_evaluation有更多细节。
外部评估指标
由于聚类可以被视为无监督分类,如果有某种标记(或部分标记)的数据可用,我们可以使用这些标签来评估聚类模型。我们可以使用模型对集群(即类标签)进行预测,并使用类似于分类评估的指标来评估预测(即基于真正和假负率)。
这些包括 Rand 指标、F 指标、Jaccard 指数等。
有关聚类外部评估的更多信息,请参见en.wikipedia.org/wiki/Cluster_analysis#External_evaluation。
在 MovieLens 数据集上计算性能指标
Spark ML 提供了一个方便的computeCost函数,用于计算给定 DataFrame 的 WSSS 目标函数。我们将为以下项目和用户训练数据计算此指标:
val WSSSEUsers = modelUsers.computeCost(datasetUsers)
println(s"Users : Within Set Sum of Squared Errors = $WSSSEUsers")
val WSSSEItems = modelItems.computeCost(datasetItems)
println(s"Items : Within Set Sum of Squared Errors = $WSSSEItems")
这应该输出类似于以下结果:
Users : Within Set Sum of Squared Errors = 2261.3086181660324
Items : Within Set Sum of Squared Errors = 5647.825222497311
衡量 WSSSE 有效性的最佳方法是如下部分所示的迭代次数。
迭代对 WSSSE 的影响
让我们找出迭代对 MovieLens 数据集的 WSSSE 的影响。我们将计算各种迭代值的 WSSSE 并绘制输出。
代码清单如下:
object MovieLensKMeansMetrics {
case class RatingX(userId: Int, movieId: Int, rating: Float,
timestamp: Long)
val DATA_PATH= "../../../data/ml-100k"
val PATH_MOVIES = DATA_PATH + "/u.item"
val dataSetUsers = null
def main(args: Array[String]): Unit = {
val spConfig = (new
SparkConf).setMaster("local[1]").setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
"./data/movie_lens_libsvm/movie_lens_users_libsvm/part-
00000")
datasetUsers.show(3)
val k = 5
val itr = Array(1,10,20,50,75,100)
val result = new ArrayString
for(i <- 0 until itr.length){
val w = calculateWSSSE(spark,datasetUsers,itr(i),5,1L)
result(i) = itr(i) + "," + w
}
println("----------Users----------")
for(j <- 0 until itr.length) {
println(result(j))
}
println("-------------------------")
val datasetItems = spark.read.format("libsvm").load(
"./data/movie_lens_libsvm/movie_lens_items_libsvm/"+
"part-00000")
val resultItems = new ArrayString
for(i <- 0 until itr.length){
val w = calculateWSSSE(spark,datasetItems,itr(i),5,1L)
resultItems(i) = itr(i) + "," + w
}
println("----------Items----------")
for(j <- 0 until itr.length) {
println(resultItems(j))
}
println("-------------------------")
spark.stop()
}
import org.apache.spark.sql.DataFrame
def calculateWSSSE(spark : SparkSession, dataset : DataFrame,
iterations : Int, k : Int, seed : Long) : Double = {
val x = dataset.columns
val kmeans =
new KMeans().setK(k).setSeed(seed).setMaxIter(iterations)
val model = kmeans.fit(dataset)
val WSSSEUsers = model.computeCost(dataset)
return WSSSEUsers
}
输出是:
----------Users----------
1,2429.214784372865
10,2274.362593105573
20,2261.3086181660324
50,2261.015660051977
75,2261.015660051977
100,2261.015660051977
-------------------------
----------Items----------
1,5851.444935665099
10,5720.505597821477
20,5647.825222497311
50,5637.7439669472005
75,5637.7439669472005
100,5637.7439669472005
让我们绘制这些数字以更好地了解:
用户 WSSSE 与迭代次数
项目 WSSSE 与迭代次数
二分 KMeans
这是通用 KMeans 的变体。
参考:www.siam.org/meetings/sdm01/pdf/sdm01_05.pdf
算法的步骤是:
- 通过随机选择一个点,比如
然后计算M的质心w并计算:
质心是聚类的中心。质心是一个包含每个变量的一个数字的向量,其中每个数字是该聚类中观察值的平均值。
- 将M =[x1, x2, ... xn]分成两个子聚类M[L]和M[R],根据以下规则:
-
计算M[L]和M[R]的质心w[L]和w[R],如第 2 步所示。
-
如果 w[L] = c[L] 和 w[R] = c[R],则停止。
否则,让 c[L]= w[L] c[R] = w[R],转到第 2 步。
二分 K 均值-训练聚类模型
在 Spark ML 中进行二分 K 均值的训练涉及采用类似其他模型的方法--我们将包含训练数据的 DataFrame 传递给KMeans对象的 fit 方法。请注意,这里我们使用 libsvm 数据格式:
- 实例化聚类对象:
val spConfig = (new
SparkConf).setMaster("local[1]").setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
BASE + "/movie_lens_2f_users_libsvm/part-00000")
datasetUsers.show(3)
命令show(3)的输出如下所示:
+-----+--------------------+
|label| features|
+-----+--------------------+
| 1.0|(2,[0,1],[0.37140...|
| 2.0|(2,[0,1],[-0.2131...|
| 3.0|(2,[0,1],[0.28579...|
+-----+--------------------+
only showing top 3 rows
创建BisectingKMeans对象并设置参数:
val bKMeansUsers = new BisectingKMeans()
bKMeansUsers.setMaxIter(10)
bKMeansUsers.setMinDivisibleClusterSize(5)
- 训练数据:
val modelUsers = bKMeansUsers.fit(datasetUsers)
val movieDF = Util.getMovieDataDF(spark)
val predictedUserClusters =
modelUsers.transform(datasetUsers)
predictedUserClusters.show(5)
输出是:
+-----+--------------------+----------+
|label| features|prediction|
+-----+--------------------+----------+
| 1.0|(2,[0,1],[0.37140...| 3|
| 2.0|(2,[0,1],[-0.2131...| 3|
| 3.0|(2,[0,1],[0.28579...| 3|
| 4.0|(2,[0,1],[-0.6541...| 1|
| 5.0|(2,[0,1],[0.90333...| 2|
+-----+--------------------+----------+
only showing top 5 rows
- 按聚类显示电影:
val joinedMovieDFAndPredictedCluster =
movieDF.join(predictedUserClusters,predictedUserClusters
("label") === movieDF("id"))
print(joinedMovieDFAndPredictedCluster.first())
joinedMovieDFAndPredictedCluster.show(5)
输出是:
+--+---------------+-----------+-----+--------------------+----------+
|id| name| date|label| features|prediction|
+--+---------------+-----------+-----+--------------------+----------+
| 1| Toy Story (1995) |01-Jan-1995| 1.0|(2,[0,1],[0.37140...|3|
| 2| GoldenEye (1995) |01-Jan-1995| 2.0|(2,[0,1],[-0.2131...|3|
| 3|Four Rooms (1995) |01-Jan-1995| 3.0|(2,[0,1],[0.28579...|3|
| 4| Get Shorty (1995) |01-Jan-1995| 4.0|(2,[0,1],[-0.6541...|1|
| 5| Copycat (1995) |01-Jan-1995| 5.0|(2,[0,1],[0.90333...|2|
+--+----------------+-----------+-----+--------------------+----------+
only showing top 5 rows
让我们按照聚类编号打印电影:
for(i <- 0 until 5) {
val prediction0 =
joinedMovieDFAndPredictedCluster.filter("prediction == " + i)
println("Cluster : " + i)
println("--------------------------")
prediction0.select("name").show(10)
}
输出是:
Cluster : 0
+--------------------+
| name|
+--------------------+
|Antonia's Line (1...|
|Angels and Insect...|
|Rumble in the Bro...|
|Doom Generation, ...|
| Mad Love (1995)|
| Strange Days (1995)|
| Clerks (1994)|
| Hoop Dreams (1994)|
|Legends of the Fa...|
|Professional, The...|
+--------------------+
only showing top 10 rows
Cluster : 1
--------------------------
+--------------------+
| name|
+--------------------+
| Get Shorty (1995)|
|Dead Man Walking ...|
| Richard III (1995)|
|Seven (Se7en) (1995)|
|Usual Suspects, T...|
|Mighty Aphrodite ...|
|French Twist (Gaz...|
|Birdcage, The (1996)|
| Desperado (1995)|
|Free Willy 2: The...|
+--------------------+
only showing top 10 rows
Cluster : 2
--------------------------
+--------------------+
| name|
+--------------------+
| Copycat (1995)|
|Shanghai Triad (Y...|
| Postino, Il (1994)|
|From Dusk Till Da...|
| Braveheart (1995)|
|Batman Forever (1...|
| Crumb (1994)|
|To Wong Foo, Than...|
|Billy Madison (1995)|
|Dolores Claiborne...|
+--------------------+
only showing top 10 rows
Cluster : 3
--------------------------
+--------------------+
| name|
+--------------------+
| Toy Story (1995)|
| GoldenEye (1995)|
| Four Rooms (1995)|
|Twelve Monkeys (1...|
| Babe (1995)|
|Mr. Holland's Opu...|
|White Balloon, Th...|
|Muppet Treasure I...|
| Taxi Driver (1976)|
|Brothers McMullen...|
+--------------------+
only showing top 10 rows
让我们计算 WSSSE:
val WSSSEUsers = modelUsers.computeCost(datasetUsers)
println(s"Users : Within Set Sum of Squared Errors = $WSSSEUsers")
println("Users : Cluster Centers: ")
modelUsers.clusterCenters.foreach(println)
输出是:
Users : Within Set Sum of Squared Errors = 220.213984126387
Users : Cluster Centers:
[-0.5152650631965345,-0.17908608684257435]
[-0.7330009110582011,0.5699292831746033]
[0.4657482296168242,0.07541218866995708]
[0.07297392612510972,0.7292946749843259]
接下来我们对物品进行预测:
val datasetItems = spark.read.format("libsvm").load(
BASE + "/movie_lens_2f_items_libsvm/part-00000")
datasetItems.show(3)
val kmeansItems = new BisectingKMeans().setK(5).setSeed(1L)
val modelItems = kmeansItems.fit(datasetItems)
// Evaluate clustering by computing Within Set
// Sum of Squared Errors.
val WSSSEItems = modelItems.computeCost(datasetItems)
println(s"Items : Within Set Sum of Squared Errors =
$WSSSEItems")
// Shows the result.
println("Items - Cluster Centers: ")
modelUsers.clusterCenters.foreach(println)
Items: within Set Sum of Squared Errors = 538.4272487824393
Items - Cluster Centers:
[-0.5152650631965345,-0.17908608684257435]
[-0.7330009110582011,0.5699292831746033]
[0.4657482296168242,0.07541218866995708]
[0.07297392612510972,0.7292946749843259]
源代码:
- 绘制用户和物品聚类。
接下来,让我们选择两个特征,并绘制用户和物品聚类及其各自的聚类:
object BisectingKMeansPersist {
val PATH = "/home/ubuntu/work/spark-2.0.0-bin-hadoop2.7/"
val BASE = "./data/movie_lens_libsvm_2f"
val time = System.currentTimeMillis()
val formatter = new
SimpleDateFormat("dd_MM_yyyy_hh_mm_ss")
import java.util.Calendar
val calendar = Calendar.getInstance()
calendar.setTimeInMillis(time)
val date_time = formatter.format(calendar.getTime())
def main(args: Array[String]): Unit = {
val spConfig = (new
SparkConf).setMaster("local[1]")
.setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
BASE + "/movie_lens_2f_users_libsvm/part-00000")
val bKMeansUsers = new BisectingKMeans()
bKMeansUsers.setMaxIter(10)
bKMeansUsers.setMinDivisibleClusterSize(5)
val modelUsers = bKMeansUsers.fit(datasetUsers)
val predictedUserClusters =
modelUsers.transform(datasetUsers)
modelUsers.clusterCenters.foreach(println)
val predictedDataSetUsers =
modelUsers.transform(datasetUsers)
val predictionsUsers =
predictedDataSetUsers.select("prediction")
.rdd.map(x=> x(0))
predictionsUsers.saveAsTextFile(BASE +
"/prediction/" +
date_time + "/bkmeans_2f_users")
val datasetItems =
spark.read.format("libsvm").load(BASE +
"/movie_lens_2f_items_libsvm/part-00000")
val kmeansItems = new
BisectingKMeans().setK(5).setSeed(1L)
val modelItems = kmeansItems.fit(datasetItems)
val predictedDataSetItems =
modelItems.transform(datasetItems)
val predictionsItems =
predictedDataSetItems.select("prediction")
.rdd.map(x=> x(0))
predictionsItems.saveAsTextFile(BASE +
"/prediction/" +
date_time + "/bkmeans_2f_items")
spark.stop()
}
}
用聚类绘制 MovieLens 用户数据
上述图表显示了两个特征的用户聚类的样子。
用聚类绘制 MovieLens 物品(电影)数据
上述图表显示了两个特征的物品聚类的样子。
WSSSE 和迭代
在本节中,我们评估了对 K 均值算法进行二分时迭代次数对 WSSSE 的影响。
源代码是:
object BisectingKMeansMetrics {
case class RatingX(userId: Int, movieId: Int,
rating: Float, timestamp: Long)
val DATA_PATH= "../../../data/ml-100k"
val PATH_MOVIES = DATA_PATH + "/u.item"
val dataSetUsers = null
def main(args: Array[String]): Unit = {
val spConfig = (
new SparkConf).setMaster("local[1]").setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").load(
"./data/movie_lens_libsvm/movie_lens_users_libsvm/part-
00000")
datasetUsers.show(3)
val k = 5
val itr = Array(1,10,20,50,75,100)
val result = new ArrayString
for(i <- 0 until itr.length){
val w = calculateWSSSE(spark,datasetUsers,itr(i),5)
result(i) = itr(i) + "," + w
}
println("----------Users----------")
for(j <- 0 until itr.length) {
println(result(j))
}
println("-------------------------")
val datasetItems = spark.read.format("libsvm").load(
"./data/movie_lens_libsvm/movie_lens_items_libsvm/part-
00000")
val resultItems = new ArrayString
for(i <- 0 until itr.length){
val w = calculateWSSSE(spark,datasetItems,itr(i),5)
resultItems(i) = itr(i) + "," + w
}
println("----------Items----------")
for(j <- 0 until itr.length) {
println(resultItems(j))
}
println("-------------------------")
spark.stop()
}
import org.apache.spark.sql.DataFrame
def calculateWSSSE(spark : SparkSession, dataset : DataFrame,
iterations : Int, k : Int) : Double =
{
val x = dataset.columns
val bKMeans = new BisectingKMeans()
bKMeans.setMaxIter(iterations)
bKMeans.setMinDivisibleClusterSize(k)
val model = bKMeans.fit(dataset)
val WSSSE = model.computeCost(dataset)
return WSSSE
}
}
图:用户迭代的 WSSSE
图:在二分 K 均值情况下物品的 WSSSE 与迭代次数
很明显,该算法在 20 次迭代后对用户和物品都达到了最佳的 WSSSE。
高斯混合模型
混合模型是一个人口中子群体的概率模型。这些模型用于对子群体的统计推断,给定汇总人口的观察结果。
高斯混合模型(GMM)是一个以高斯分量密度的加权和表示的混合模型。它的模型系数是使用迭代的期望最大化(EM)算法或从训练模型的最大后验(MAP)估计的。
spark.ml的实现使用 EM 算法。
它具有以下参数:
-
k:期望的聚类数量
-
convergenceTol:在认为收敛达到的对数似然的最大变化
-
maxIterations:执行而不收敛的最大迭代次数
-
initialModel:可选的起始点,从这里开始 EM 算法
(如果省略此参数,将从数据中构造一个随机起始点)
使用 GMM 进行聚类
我们将为用户和物品(在这种情况下是电影)创建聚类,以更好地了解算法如何对用户和物品进行分组。
执行以下步骤:
-
加载用户的
libsvm文件。 -
创建一个高斯混合实例。该实例具有以下可配置的参数:
final val featuresCol: Param[String]
Param for features column name.
final val k: IntParam
Number of independent Gaussians in the mixture model.
final val
maxIter: IntParam
Param for maximum number of iterations (>= 0).
final val predictionCol: Param[String]
Param for prediction column name.
final val probabilityCol: Param[String]
Param for Column name for predicted class conditional
probabilities.
final val seed: LongParam
Param for random seed.
final val tol: DoubleParam
- 在我们的情况下,我们将只设置高斯分布的数量和种子数:
val gmmUsers = new GaussianMixture().setK(5).setSeed(1L)
- 创建一个用户模型:
Print Covariance and Mean
for (i <- 0 until modelUsers.gaussians.length) {
println("Users: weight=%f\ncov=%s\nmean=\n%s\n" format
(modelUsers.weights(i), modelUsers.gaussians(i).cov,
modelUsers.gaussians(i).mean))
}
完整的代码清单是:
object GMMClustering {
def main(args: Array[String]): Unit = {
val spConfig = (new SparkConf).setMaster("local[1]").
setAppName("SparkApp").
set("spark.driver.allowMultipleContexts", "true")
val spark = SparkSession
.builder()
.appName("Spark SQL Example")
.config(spConfig)
.getOrCreate()
val datasetUsers = spark.read.format("libsvm").
load("./data/movie_lens_libsvm/movie_lens_users_libsvm/"
+ "part-00000")
datasetUsers.show(3)
val gmmUsers = new GaussianMixture().setK(5).setSeed(1L)
val modelUsers = gmmUsers.fit(datasetUsers)
for (i <- 0 until modelUsers.gaussians.length) {
println("Users : weight=%f\ncov=%s\nmean=\n%s\n"
format (modelUsers.weights(i),
modelUsers.gaussians(i).cov,
modelUsers.gaussians(i).mean))
}
val dataSetItems = spark.read.format("libsvm").load(
"./data/movie_lens_libsvm/movie_lens_items_libsvm/" +
"part-00000")
val gmmItems = new
GaussianMixture().setK(5).setSeed(1L)
val modelItems = gmmItems.fit(dataSetItems)
for (i <- 0 until modelItems.gaussians.length) {
println("Items : weight=%f\ncov=%s\nmean=\n%s\n"
format (modelUsers.weights(i),
modelUsers.gaussians(i).cov,
modelUsers.gaussians(i).mean))
}
spark.stop()
}
用 GMM 聚类绘制用户和物品数据
在这一部分,我们将看一下基于 GMM 的聚类边界随着迭代次数的增加而移动:
MovieLens 用户数据通过 GMM 分配的聚类图
MovieLens 项目数据通过 GMM 分配的聚类图
GMM - 迭代次数对聚类边界的影响
让我们看一下随着 GMM 迭代次数的增加,聚类边界如何变化:
使用一次迭代的用户数据的 GMM 聚类图
上图显示了使用一次迭代的用户数据的 GMM 聚类。
使用 10 次迭代的用户数据的 GMM 聚类图
上图显示了使用 10 次迭代的用户数据的 GMM 聚类。
使用 20 次迭代的用户数据的 GMM 聚类图
上图显示了使用 20 次迭代的用户数据的 GMM 聚类。
总结
在本章中,我们探讨了一种从未标记数据中学习结构的新模型类别 -- 无监督学习。我们通过所需的输入数据和特征提取进行了工作,并看到如何使用一个模型的输出(在我们的例子中是推荐模型)作为另一个模型的输入(我们的 k-means 聚类模型)。最后,我们评估了聚类模型的性能,既使用了对聚类分配的手动解释,也使用了数学性能指标。
在下一章中,我们将介绍另一种无监督学习方法,用于将数据减少到其最重要的特征或组件 -- 降维模型。
第九章:使用 Spark 进行降维
在本章的过程中,我们将继续探索降维的无监督学习模型。
与迄今为止我们所涵盖的模型(如回归、分类和聚类)不同,降维并不专注于进行预测。相反,它试图对具有特征维度D(即我们的特征向量的长度)的输入数据进行处理,并提取维度k的数据表示,其中k通常明显小于D。因此,它是一种预处理或特征转换,而不是一种独立的预测模型。
重要的是,提取的表示仍应能够捕获原始数据的大部分变异性或结构。其背后的想法是,大多数数据源都会包含某种潜在结构。这种结构通常是未知的(通常称为潜在特征或潜在因素),但如果我们能够揭示部分结构,我们的模型就可以从中学习并进行预测,而不是直接从原始数据中进行预测,原始数据可能存在噪声或包含许多无关特征。换句话说,降维会丢弃数据中的一些噪声,并保留其中存在的隐藏结构。
在某些情况下,原始数据的维度远高于我们拥有的数据点数量,因此,如果没有降维,其他机器学习模型(如分类和回归)将很难学习任何东西,因为它们需要拟合的参数数量远大于训练样本的数量(在这种意义上,这些方法与我们在分类和回归中看到的正则化方法有些相似)。
降维技术的一些用例包括以下内容:
-
探索性数据分析
-
提取特征以训练其他机器学习模型
-
减少预测阶段非常大模型的存储和计算要求(例如,进行预测的生产系统)
-
将大量文本文档减少到一组隐藏的主题或概念
-
当我们的数据具有非常多的特征时(例如在处理文本、声音、图像或视频数据时,这些数据往往是高维的),使模型的学习和泛化变得更容易
在本章中,我们将进行以下操作:
-
介绍 MLlib 中可用的降维模型类型
-
处理人脸图像以提取适合降维的特征
-
使用 MLlib 训练降维模型
-
可视化和评估结果
-
为我们的降维模型执行参数选择
降维的类型
MLlib 提供了两种降维模型;这些模型彼此密切相关。这些模型是主成分分析(PCA)和奇异值分解(SVD)。
主成分分析
PCA 作用于数据矩阵X,并试图从X中提取一组k个主成分。这些主成分彼此不相关,并且计算它们的方式是,第一个主成分解释了输入数据中的最大变异性。然后,每个后续的主成分依次计算,以便它解释了最大的变异性,前提是它与迄今为止计算的主成分是独立的。
这样,返回的 k 个主成分保证能够解释输入数据中的最大变化量。实际上,每个主成分的特征维度与原始数据矩阵相同。因此,实际进行降维需要投影步骤,其中原始数据被投影到由主成分表示的 k 维空间中。
奇异值分解
SVD 旨在将维度为 m x n 的矩阵 X 分解为这三个组件矩阵:
-
U 的维度为 m x m
-
S,大小为 m x n 的对角矩阵;S 的条目被称为奇异值
-
VT 的维度为 n x n
X = U * S * V ^T
从前面的公式可以看出,我们实际上并没有降低问题的维度,因为通过乘以 U、S 和 V,我们重构了原始矩阵。实际上,通常计算截断奇异值分解。也就是说,只保留最高的 k 个奇异值,它们代表数据中的最大变化量,而其余的则被丢弃。然后基于组件矩阵重构 X 的公式是近似的,如下所示:
X ~ U[k] * S[k] * V[k T]
截断奇异值分解的示意图如下所示:
截断奇异值分解
保留前 k 个奇异值类似于在 PCA 中保留前 k 个主成分。实际上,SVD 和 PCA 直接相关,我们稍后会在本章中看到。
对 PCA 和 SVD 的详细数学处理超出了本书的范围。
在 Spark 文档中可以找到降维的概述:spark.apache.org/docs/latest/mllib-dimensionality-reduction.html。
以下链接分别包含 PCA 和 SVD 的更深入的数学概述:en.wikipedia.org/wiki/Principal_component_analysis 和 en.wikipedia.org/wiki/Singular_value_decomposition。
与矩阵分解的关系
PCA 和 SVD 都是矩阵分解技术,它们将数据矩阵分解为具有比原始矩阵更低维度(或秩)的子组件矩阵。许多其他降维技术都是基于矩阵分解的。
您可能还记得另一个矩阵分解的例子,即协同过滤,我们在第六章中已经看到了,使用 Spark 构建分类模型。协同过滤的矩阵分解方法通过将评分矩阵分解为两个组件来工作:用户因子矩阵和物品因子矩阵。每个矩阵的维度都低于原始数据,因此这些方法也充当降维模型。
许多最佳的协同过滤方法都包括基于 SVD 的模型。Simon Funk 对 Netflix 奖的方法就是一个著名的例子。您可以在sifter.org/~simon/journal/20061211.html上查看。
聚类作为降维
我们在上一章中介绍的聚类模型也可以用于一种形式的降维。工作方式如下:
-
假设我们使用 K 均值聚类模型对高维特征向量进行聚类,得到 k 个聚类中心。
-
我们可以表示原始数据点中的每一个数据点与每个聚类中心的距离。也就是说,我们可以计算数据点到每个聚类中心的距离。结果是每个数据点的一组 k 个距离。
-
这些k距离可以形成一个新的k维向量。现在,我们可以将我们的原始数据表示为相对于原始特征维度的较低维度的新向量。
根据使用的距离度量,这可能导致数据的降维和一种非线性转换形式,使我们能够学习一个更复杂的模型,同时仍然受益于线性模型的速度和可扩展性。例如,使用高斯或指数距离函数可以近似一个非常复杂的非线性特征转换。
从数据中提取正确的特征
与迄今为止我们所探索的所有机器学习模型一样,降维模型也是在我们数据的特征向量表示上操作的。
在本章中,我们将深入探讨图像处理领域,使用野外标记人脸(LFW)数据集的面部图像。该数据集包含来自互联网的超过 13,000 张面部图像,并属于知名公众人物。这些面部带有人名标签。
从 LFW 数据集中提取特征
为了避免下载和处理非常庞大的数据集,我们将使用一部分图像,使用以 A 开头的人名。该数据集可以从vis-www.cs.umass.edu/lfw/lfw-a.tgz下载。
有关更多详细信息和数据的其他变体,请访问vis-www.cs.umass.edu/lfw/。
原始研究论文的引用是:
Gary B. Huang,Manu Ramesh,Tamara Berg和Erik Learned-Miller。野外标记人脸:用于研究非受限环境中人脸识别的数据库。马萨诸塞大学阿默斯特分校,技术报告 07-49,2007 年 10 月。
它可以从vis-www.cs.umass.edu/lfw/lfw.pdf下载。
使用以下命令解压数据:
>tar xfvz lfw-a.tgz
这将创建一个名为lfw的文件夹,其中包含许多子文件夹,每个人一个。
探索面部数据
我们将使用 Spark 应用程序来分析数据。确保数据解压缩到data文件夹中,如下所示:
Chapter_09
|-- 2.0.x
| |-- python
| |-- scala
|-- data
实际的代码在scala文件夹中,除了一些图表在python文件夹中:
scala
|-- src
| |-- main
| | |-- java
| | |-- resources
| | |-- scala
| | | |-- org
| | | |-- sparksamples
| | | |-- ImageProcessing.scala
| | | |-- Util.scala
| | |-- scala-2.11
| |-- test
现在我们已经解压了数据,我们面临一个小挑战。Spark 为我们提供了一种读取文本文件和自定义 Hadoop 输入数据源的方法。但是,没有内置功能允许我们读取图像。
Spark 提供了一个名为wholeTextFiles的方法,允许我们一次操作整个文件,与我们迄今为止一直使用的textFile方法相比,后者操作文本文件(或多个文件)中的各行。
我们将使用wholeTextFiles方法来访问每个文件的位置。使用这些文件路径,我们将编写自定义代码来加载和处理图像。在下面的示例代码中,我们将使用 PATH 来引用您提取lfw子目录的目录。
我们可以使用通配符路径规范(在下面的代码片段中突出显示*字符)告诉 Spark 在lfw目录下的每个目录中查找文件:
val spConfig = (new SparkConf).setMaster("local[1]")
.setAppName("SparkApp")
.set("spark.driver.allowMultipleContexts", "true")
val sc = new SparkContext(spConfig)
val path = PATH + "/lfw/*"
val rdd = sc.wholeTextFiles(path)
val first = rdd.first
println(first)
运行first命令可能需要一些时间,因为 Spark 首先会扫描指定的目录结构以查找所有可用的文件。完成后,您应该看到类似于此处显示的输出:
first: (String, String) = (file:/PATH/lfw/Aaron_Eckhart /Aaron_Eckhart_0001.jpg,??JFIF????? ...
您将看到wholeTextFiles返回一个包含键值对的 RDD,其中键是文件位置,而值是整个文本文件的内容。对于我们的目的,我们只关心文件路径,因为我们不能直接将图像数据作为字符串处理(请注意,在 shell 输出中显示为“二进制无意义”)。
让我们从 RDD 中提取文件路径。请注意,之前文件路径以file:文本开头。这是 Spark 在读取文件时使用的,以区分不同的文件系统(例如,本地文件系统的file://,HDFS 的hdfs://,Amazon S3 的s3n://等)。
在我们的情况下,我们将使用自定义代码来读取图像,因此我们不需要路径的这一部分。因此,我们将使用以下map函数将其删除:
val files = rdd.map { case (fileName, content) =>
fileName.replace("file:", "") }
上述函数将显示去除了file:前缀的文件位置:
/PATH/lfw/Aaron_Eckhart/Aaron_Eckhart_0001.jpg
接下来,我们将看到我们要处理多少个文件:
println(files.count)
运行这些命令会在 Spark 中创建大量嘈杂的输出,因为它会将所有读取到的文件路径输出到控制台。忽略这部分,但在命令完成后,输出应该看起来像这样:
..., /PATH/lfw/Azra_Akin/Azra_Akin_0003.jpg:0+19927,
/PATH/lfw/Azra_Akin/Azra_Akin_0004.jpg:0+16030
...
14/09/18 20:36:25 INFO SparkContext: Job finished:
count at <console>:19, took 1.151955 s
1055
因此,我们可以看到我们有1055张图像可以使用。
可视化面部数据
尽管 Scala 或 Java 中有一些工具可用于显示图像,但这是 Python 和matplotlib库发光的一个领域。我们将使用 Scala 来处理和提取图像并运行我们的模型,使用 IPython 来显示实际的图像。
您可以通过打开新的终端窗口并启动新的笔记本来运行单独的 IPython 笔记本,如下所示:
>ipython notebook
如果使用 Python Notebook,您应该首先执行以下代码片段,以确保在每个笔记本单元格之后内联显示图像(包括%字符):%pylab inline
或者,您可以启动一个普通的 IPython 控制台,而不是 Web 笔记本,使用以下命令启用pylab绘图功能:
>ipython --pylab
在撰写本书时,MLlib 中的降维技术仅在 Scala 或 Java 中可用,因此我们将继续使用 Scala Spark shell 来运行模型。因此,您不需要运行 PySpark 控制台。
我们已经提供了本章的完整 Python 代码,既作为 Python 脚本,也作为 IPython 笔记本格式。有关安装 IPython 的说明,请参阅代码包。
让我们显示通过之前提取的第一个路径给出的图像,使用 PIL 的图像库:
from PIL import Image, ImageFilter
path = PATH + "/lfw/Aaron_Eckhart/Aaron_Eckhart_0001.jpg"
im = Image.open(path)
im.show()
您应该看到截图显示如下:
提取面部图像作为向量
虽然本书不涵盖图像处理的全部内容,但您需要了解一些基础知识才能继续。每个彩色图像可以表示为一个像素的三维数组或矩阵。前两个维度,即x和y轴,表示每个像素的位置,而第三个维度表示每个像素的红、蓝和绿(RGB)颜色值。
灰度图像每个像素只需要一个值(没有 RGB 值),因此它可以表示为一个普通的二维矩阵。对于许多与图像相关的图像处理和机器学习任务,通常会对灰度图像进行操作。我们将通过首先将彩色图像转换为灰度图像来实现这一点。
在机器学习任务中,将图像表示为向量而不是矩阵也是一种常见做法。我们通过将矩阵的每一行(或者每一列)连接起来形成一个长向量来实现这一点(这被称为“重塑”)。这样,每个原始的灰度图像矩阵被转换成一个特征向量,可用作机器学习模型的输入。
幸运的是,内置的 Java 抽象窗口工具包(AWT)包含各种基本的图像处理功能。我们将定义一些实用函数来使用java.awt类执行此处理。
加载图像
第一个是从文件中读取图像的函数。
import java.awt.image.BufferedImage
def loadImageFromFile(path: String): BufferedImage = {
ImageIO.read(new File(path))
}
上述代码在Util.scala中可用。
这将返回一个java.awt.image.BufferedImage类的实例,它存储图像数据,并提供许多有用的方法。让我们通过将第一张图像加载到我们的 Spark shell 中来测试一下:
val aePath = "/PATH/lfw/Aaron_Eckhart/Aaron_Eckhart_0001.jpg"
val aeImage = loadImageFromFile(aePath)
您应该在 shell 中看到显示的图像细节。
aeImage: java.awt.image.BufferedImage = BufferedImage@f41266e:
type = 5 ColorModel: #pixelBits = 24 numComponents = 3 color space = java.awt.color.ICC_ColorSpace@7e420794 transparency = 1 has
alpha = false isAlphaPre = false ByteInterleavedRaster:
width = 250 height = 250 #numDataElements 3 dataOff[0] = 2
这里有很多信息。我们特别感兴趣的是图像的宽度和高度是250像素,正如我们所看到的,有三个组件(即 RGB 值)在前面的输出中被突出显示。
将图像转换为灰度并调整大小
我们将定义的下一个函数将采用我们用前述函数加载的图像,将图像从彩色转换为灰度,并调整图像的宽度和高度。
这些步骤并不是严格必要的,但在许多情况下都会为了效率而执行。使用 RGB 彩色图像而不是灰度图像会使要处理的数据量增加三倍。同样,较大的图像会显著增加处理和存储开销。我们的原始 250 x 250 图像代表每个图像使用三个颜色组件的 187,500 个数据点。对于 1055 个图像集,这是 197,812,500 个数据点。即使存储为整数值,每个存储的值占用 4 字节的内存,因此仅 1055 个图像就代表大约 800 MB 的内存!正如您所看到的,图像处理任务很快就会变得极其占用内存。
如果我们将图像转换为灰度并将其调整为 50 x 50 像素,我们只需要每个图像 2500 个数据点。对于我们的 1055 个图像,这相当于 10 MB 的内存,这对于说明目的来说更容易管理。
让我们定义我们的处理函数。我们将在一步中执行灰度转换和调整大小,使用java.awt.image包:
def processImage(image: BufferedImage, width: Int, height: Int):
BufferedImage = {
val bwImage = new BufferedImage(width, height,
BufferedImage.TYPE_BYTE_GRAY)
val g = bwImage.getGraphics()
g.drawImage(image, 0, 0, width, height, null)
g.dispose()
bwImage
}
函数的第一行创建了一个所需宽度和高度的新图像,并指定了灰度颜色模型。第三行将原始图像绘制到这个新创建的图像上。drawImage方法会为我们处理颜色转换和调整大小!最后,我们返回新处理过的图像。
让我们在样本图像上测试一下。我们将把它转换为灰度,并将其调整为 100 x 100 像素:
val grayImage = processImage(aeImage, 100, 100)
您应该在控制台上看到以下输出:
grayImage: java.awt.image.BufferedImage = BufferedImage@21f8ea3b:
type = 10 ColorModel: #pixelBits = 8 numComponents = 1 color space = java.awt.color.ICC_ColorSpace@5cd9d8e9 transparency = 1 has
alpha = false isAlphaPre = false ByteInterleavedRaster:
width = 100 height = 100 #numDataElements 1 dataOff[0] = 0
从突出显示的输出中可以看出,图像的宽度和高度确实是100,颜色组件的数量是1。
接下来,我们将把处理过的图像保存到临时位置,以便我们可以读取它并使用 Python 应用程序显示它。
import javax.imageio.ImageIO
import java.io.File
ImageIO.write(grayImage, "jpg", new File("/tmp/aeGray.jpg"))
您应该在控制台上看到true的结果,表示您已成功将图像保存到/tmp目录中的aeGray.jpg文件中。
最后,我们将在 Python 中读取图像,并使用 matplotlib 显示图像。将以下代码键入到您的 IPython Notebook 或 shell 中(请记住这应该在一个新的终端窗口中打开):
tmp_path = PATH + "/aeGray.jpg"
ae_gary = Image.open(tmp_path)
ae_gary.show()
这应该显示图像(再次注意,我们这里没有显示图像)。您会看到它是灰度的,与原始图像相比质量稍差。此外,您会注意到轴的比例不同,表示新的 100 x 100 尺寸,而不是原始的 250 x 250 尺寸。
提取特征向量
处理管道中的最后一步是提取实际的特征向量,这些向量将成为我们降维模型的输入。正如我们之前提到的,原始灰度像素数据将成为我们的特征。我们将通过展平二维像素矩阵来形成这些向量。BufferedImage类提供了一个实用方法来执行此操作,我们将在我们的函数中使用它,如下所示:
def getPixelsFromImage(image: BufferedImage): Array[Double] = {
val width = image.getWidth
val height = image.getHeight
val pixels = Array.ofDimDouble
image.getData.getPixels(0, 0, width, height, pixels)
}
然后,我们可以将这三个函数合并成一个实用函数,该函数接受文件位置以及所需图像的宽度和高度,并返回包含像素数据的原始Array[Double]值。
def extractPixels(path: String, width: Int, height: Int):
Array[Double] = {
val raw = loadImageFromFile(path)
val processed = processImage(raw, width, height)
getPixelsFromImage(processed)
}
将这个前述函数应用于包含所有图像文件路径的 RDD 的每个元素,将为我们提供一个包含每个图像的像素数据的新 RDD。让我们这样做,并检查前几个元素,如下所示:
val pixels = files.map(f => extractPixels(f, 50, 50))
println(pixels.take(10).map(_.take(10).mkString ("", ",", ",
...")).mkString("n"))
您应该看到类似于以下的输出:
0.0,0.0,0.0,0.0,0.0,0.0,1.0,1.0,0.0,0.0, ...
241.0,243.0,245.0,244.0,231.0,205.0,177.0,160.0,150.0,147.0, ...
253.0,253.0,253.0,253.0,253.0,253.0,254.0,254.0,253.0,253.0, ...
244.0,244.0,243.0,242.0,241.0,240.0,239.0,239.0,237.0,236.0, ...
44.0,47.0,47.0,49.0,62.0,116.0,173.0,223.0,232.0,233.0, ...
0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0, ...
1.0,1.0,1.0,1.0,1.0,1.0,1.0,1.0,0.0,0.0, ...
26.0,26.0,27.0,26.0,24.0,24.0,25.0,26.0,27.0,27.0, ...
240.0,240.0,240.0,240.0,240.0,240.0,240.0,240.0,240.0,240.0, ...
0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0,0.0, ...
最后一步是为每个图像创建一个 MLlibvector实例。我们将缓存 RDD 以加快后续的计算速度:
import org.apache.spark.mllib.linalg.Vectors
val vectors = pixels.map(p => Vectors.dense(p))
// the setName method create a human-readable name that is
// displayed in the Spark Web UI
vectors.setName("image-vectors")
// remember to cache the vectors to speed up computation
vectors.cache
我们之前使用setName函数为 RDD 分配了一个名称。在这种情况下,我们称之为image-vectors。这样我们在查看 Spark 网络界面时可以更容易地识别它。
标准化
在运行降维模型之前,特别是对于 PCA,将输入数据标准化是一种常见做法。就像我们在第六章中所做的那样,使用 Spark 构建分类模型,我们将使用 MLlib 的feature包提供的内置StandardScaler来进行这个操作。在这种情况下,我们只会从数据中减去平均值。
import org.apache.spark.mllib.linalg.Matrix
import org.apache.spark.mllib.linalg.distributed.RowMatrix
import org.apache.spark.mllib.feature.StandardScaler
val scaler = new StandardScaler(withMean = true, withStd = false)
.fit(vectors)
标准缩放器:通过使用训练集中样本的列摘要统计信息,通过去除均值并缩放到单位标准差来标准化特征。
@param``withMean:默认为False。这会在缩放之前使用均值对数据进行居中。它构建了一个密集输出,因此在稀疏输入上不起作用,并引发异常。
@param withStd:默认为True。这会将数据缩放到单位标准差。
class StandardScaler @Since("1.1.0") (withMean: Boolean,
withStd: Boolean) extends Logging
调用fit会触发对我们的RDD[Vector]的计算。你应该会看到类似于下面显示的输出:
...
14/09/21 11:46:58 INFO SparkContext: Job finished: reduce at
RDDFunctions.scala:111, took 0.495859 s
scaler: org.apache.spark.mllib.feature.StandardScalerModel = org.apache.spark.mllib.feature.StandardScalerModel@6bb1a1a1
请注意,减去均值适用于密集输入数据。在图像处理中,我们总是有密集的输入数据,因为每个像素都有一个值。然而,对于稀疏向量,从每个输入中减去均值向量将会将稀疏数据转换为密集数据。对于非常高维的输入,这可能会耗尽可用的内存资源,因此不建议这样做。
最后,我们将使用返回的scaler将原始图像向量转换为减去列均值的向量。
val scaledVectors = vectors.map(v => scaler.transform(v))
我们之前提到,调整大小的灰度图像将占用大约 10MB 的内存。确实,你可以通过在网页浏览器中输入http://localhost:4040/storage/来查看 Spark 应用程序监视器存储页面上的内存使用情况。
由于我们给我们的图像向量 RDD 取了一个友好的名字image-vectors,你应该会看到类似以下的屏幕截图(请注意,由于我们使用的是Vector[Double],每个元素占用 8 个字节而不是 4 个字节;因此,我们实际上使用了 20MB 的内存):
内存中图像向量的大小
训练降维模型
MLlib 中的降维模型需要向量作为输入。然而,与操作RDD[Vector]的聚类不同,PCA 和 SVD 计算是作为分布式RowMatrix的方法提供的(这种差异主要是语法上的,因为RowMatrix只是RDD[Vector]的一个包装器)。
在 LFW 数据集上运行 PCA
现在我们已经将图像像素数据提取到向量中,我们可以实例化一个新的RowMatrix。
def computePrincipalComponents(k: Int): 矩阵
计算前k个主成分。行对应于观测值,列对应于变量。主成分存储为大小为 n-by-k的本地矩阵。每列对应一个主成分,列按组件方差的降序排列。行数据不需要首先“居中”;每列的均值为0是不必要的。
请注意,这不能在具有超过65535列的矩阵上计算。
K是前几个主成分的数量。
它返回一个大小为 n-by-k 的矩阵,其列是主成分
注解
@Since( "1.0.0" )
调用computePrincipalComponents方法来计算我们分布式矩阵的前K个主成分:
import org.apache.spark.mllib.linalg.Matrix
import org.apache.spark.mllib.linalg.distributed.RowMatrix
val matrix = new RowMatrix(scaledVectors)
val K = 10
val pc = matrix.computePrincipalComponents(K)
在模型运行时,你可能会在控制台上看到大量的输出。
如果你看到警告,比如 WARN LAPACK: Failed to load implementation from: com.github.fommil.netlib.NativeSystemLAPACK 或 WARN LAPACK: Failed to load implementation from: com.github.fommil.netlib.NativeRefLAPACK,你可以安全地忽略这些警告。
这意味着 MLlib 使用的基础线性代数库无法加载本机例程。在这种情况下,将使用基于 Java 的回退,速度较慢,但就本例而言,没有什么可担心的。
一旦模型训练完成,您应该在控制台上看到类似以下显示的结果:
pc: org.apache.spark.mllib.linalg.Matrix =
-0.023183157256614906 -0.010622723054037303 ... (10 total)
-0.023960537953442107 -0.011495966728461177 ...
-0.024397470862198022 -0.013512219690177352 ...
-0.02463158818330343 -0.014758658113862178 ...
-0.024941633606137027 -0.014878858729655142 ...
-0.02525998879466241 -0.014602750644394844 ...
-0.025494722450369593 -0.014678013626511024 ...
-0.02604194423255582 -0.01439561589951032 ...
-0.025942214214865228 -0.013907665261197633 ...
-0.026151551334429365 -0.014707035797934148 ...
-0.026106572186134578 -0.016701471378568943 ...
-0.026242986173995755 -0.016254664123732318 ...
-0.02573628754284022 -0.017185663918352894 ...
-0.02545319635905169 -0.01653357295561698 ...
-0.025325893980995124 -0.0157082218373399...
可视化特征脸
现在我们已经训练好了 PCA 模型,结果是什么?让我们检查一下结果矩阵的维度:
val rows = pc.numRows
val cols = pc.numCols
println(rows, cols)
正如您从控制台输出中看到的那样,主成分的矩阵有2500行和10列。
(2500,10)
回想一下,每个图像的维度是 50 x 50,所以这里我们有前 10 个主成分,每个主成分的维度与输入图像相同。这些主成分可以被视为捕获原始数据中最大变化的一组潜在(或隐藏)特征。
在面部识别和图像处理中,这些主成分通常被称为特征脸,因为 PCA 与原始数据的协方差矩阵的特征值分解密切相关。
更多细节请参见en.wikipedia.org/wiki/Eigenface。
由于每个主成分的维度与原始图像相同,因此每个成分本身可以被视为图像,并且可以将其表示为图像,从而可以像输入图像一样可视化特征脸。
与本书中经常做的一样,我们将使用 Breeze 线性代数库的功能以及 Python 的 numpy 和 matplotlib 来可视化特征脸。
首先,我们将把 pc 变量(一个 MLlib 矩阵)提取到 Breeze 的DenseMatrix中,如下所示:
import breeze.linalg.DenseMatrix
val pcBreeze = new DenseMatrix(rows, cols, pc.toArray)
Breeze 在linalg包中提供了一个有用的函数,用于将矩阵写入 CSV 文件。我们将使用这个函数将主成分保存到临时 CSV 文件中。
import breeze.linalg.csvwrite
csvwrite(new File("/tmp/pc.csv"), pcBreeze)
接下来,我们将在 IPython 中加载矩阵,并将主成分可视化为图像。幸运的是,numpy 提供了一个从我们创建的 CSV 文件中读取矩阵的实用函数。
pcs = np.loadtxt(PATH + "/pc.csv", delimiter=",")
print(pcs.shape)
您应该看到以下输出,确认我们读取的矩阵与我们保存的矩阵具有相同的维度:
(2500, 10)
我们需要一个实用函数来显示图像,我们在这里定义:
def plot_gallery(images, h, w, n_row=2, n_col=5):
"""Helper function to plot a gallery of portraits"""
plt.figure(figsize=(1.8 * n_col, 2.4 * n_row))
plt.subplots_adjust(bottom=0, left=.01, right=.99, top=.90,
hspace=.35)
for i in range(n_row * n_col):
plt.subplot(n_row, n_col, i + 1)
plt.imshow(images[:, i].reshape((h, w)),
cmap=plt.cm.gray)
plt.title("Eigenface %d" % (i + 1), size=12)
plt.xticks(())
plt.yticks(())
plt.show()
这个前面的函数是从scikit-learn文档中的 LFW 数据集示例代码中改编的,可在scikit-learn.org/stable/auto_examples/applications/face_recognition.html找到。
现在我们将使用这个函数来绘制前 10 个特征脸,如下所示:
plot_gallery(pcs, 50, 50)
这个最后的命令应该显示以下图表:
前 10 个特征脸
解释特征脸
从前面的图像中,我们可以看到 PCA 模型有效地提取了重复变化模式,这些模式代表了面部图像的各种特征。每个主成分可以像聚类模型一样被解释。与聚类一样,准确解释每个主成分代表的内容并不总是直接的。
从这些图像中,我们可以看到有些图像似乎捕捉到了方向因素(例如图像 6 和 9),有些则聚焦在头发图案上(例如图像 4、5、7 和 10),而其他一些似乎与面部特征如眼睛、鼻子和嘴相关(图像 1、7 和 9)。
使用降维模型
能够以这种方式可视化模型的结果是很有趣的;然而,使用降维的整体目的是创建数据的更紧凑表示,同时仍然捕获原始数据集中的重要特征和变异性。为此,我们需要使用训练好的模型将原始数据投影到由主成分表示的新的低维空间中。
在 LFW 数据集上使用 PCA 投影数据
我们将通过将每个 LFW 图像投影到一个十维向量中来说明这个概念。这是通过图像矩阵与主成分矩阵的矩阵乘法来实现的。由于图像矩阵是一个分布式 MLlibRowMatrix,Spark 会通过multiply函数来为我们分布计算。
val projected = matrix.multiply(pc)
println(projected.numRows, projected.numCols)
上述函数将给出以下输出:
(1055,10)
注意,每个维度为 2500 的图像已经被转换为大小为 10 的向量。让我们来看一下前几个向量:
println(projected.rows.take(5).mkString("n"))
以下是输出:
[2648.9455749636277,1340.3713412351376,443.67380716760965, -353.0021423043161,52.53102289832631,423.39861446944354, 413.8429065865399,-484.18122999722294,87.98862070273545, -104.62720604921965]
[172.67735747311974,663.9154866829355,261.0575622447282, -711.4857925259682,462.7663154755333,167.3082231097332, -71.44832640530836,624.4911488194524,892.3209964031695, -528.0056327351435]
[-1063.4562028554978,388.3510869550539,1508.2535609357597, 361.2485590837186,282.08588829583596,-554.3804376922453, 604.6680021092125,-224.16600191143075,-228.0771984153961, -110.21539201855907]
[-4690.549692385103,241.83448841252638,-153.58903325799685, -28.26215061165965,521.8908276360171,-442.0430200747375, -490.1602309367725,-456.78026845649435,-78.79837478503592, 70.62925170688868]
[-2766.7960144161225,612.8408888724891,-405.76374113178616, -468.56458995613974,863.1136863614743,-925.0935452709143, 69.24586949009642,-777.3348492244131,504.54033662376435, 257.0263568009851]
由于投影数据是向量形式,我们可以将投影作为另一个机器学习模型的输入。例如,我们可以将这些投影输入与从各种没有人脸的图像生成的输入数据一起使用,来训练一个人脸识别模型。或者,我们可以训练一个多类分类器,其中每个人是一个类,从而创建一个学习识别特定人脸所属的模型。
PCA 和 SVD 之间的关系
我们之前提到 PCA 和 SVD 之间存在着密切的关系。事实上,我们可以恢复相同的主成分,并且也可以使用 SVD 将投影应用到主成分空间中。
在我们的例子中,通过计算 SVD 得到的右奇异向量将等同于我们计算得到的主成分。我们可以通过首先在图像矩阵上计算 SVD,然后将右奇异向量与 PCA 的结果进行比较来验证这一点。与 PCA 一样,SVD 计算作为分布式RowMatrix上的函数提供:
val svd = matrix.computeSVD(10, computeU = true)
println(s"U dimension: (${svd.U.numRows}, ${svd.U.numCols})")
println(s"S dimension: (${svd.s.size}, )")
println(s"V dimension: (${svd.V.numRows}, ${svd.V.numCols})")
我们可以看到 SVD 返回一个维度为 1055 x 10 的矩阵U,一个长度为10的奇异值向量S,以及一个维度为 2500 x 10 的右奇异向量矩阵V。
U dimension: (1055, 10)
S dimension: (10, )
V dimension: (2500, 10)
矩阵 V 与 PCA 的结果完全相等(忽略数值的符号和浮点数容差)。我们可以使用下一个实用程序函数来验证这一点,通过大致比较每个矩阵的数据数组来比较它们:
def approxEqual(array1: Array[Double], array2: Array[Double],
tolerance: Double = 1e-6): Boolean = {
// note we ignore sign of the principal component /
// singular vector elements
val bools = array1.zip(array2).map { case (v1, v2) => if
(math.abs(math.abs(v1) - math.abs(v2)) > 1e-6) false else true }
bools.fold(true)(_ & _)
}
我们将在一些测试数据上测试该函数,如下所示:
println(approxEqual(Array(1.0, 2.0, 3.0), Array(1.0, 2.0, 3.0)))
这将给出以下输出:
true
让我们尝试另一组测试数据:
println(approxEqual(Array(1.0, 2.0, 3.0), Array(3.0, 2.0, 1.0)))
这将给出以下输出:
false
最后,我们可以应用我们的相等函数如下:
println(approxEqual(svd.V.toArray, pc.toArray))
以下是输出:
true
PCA 和 SVD 都可以用来计算主成分和相应的特征值/奇异值;计算协方差矩阵的额外步骤可能会导致在计算特征向量时出现数值舍入误差。SVD 总结了数据偏离零的方式,而 PCA 总结了数据偏离平均数据样本的方式。
另一个保持的关系是矩阵U和向量S(或者严格来说,对角矩阵S)的乘积等同于将我们原始图像数据投影到前 10 个主成分空间中的 PCA 投影。
我们现在将展示这确实是这样。我们首先使用 Breeze 将U中的每个向量与S进行逐元素乘法。然后我们将比较 PCA 投影向量中的每个向量与我们 SVD 投影中的等价向量,并统计相等情况的数量,如下所示:
val breezeS = breeze.linalg.DenseVector(svd.s.toArray)
val projectedSVD = svd.U.rows.map { v =>
val breezeV = breeze.linalg.DenseVector(v.toArray)
val multV = breezeV :* breezeS
Vectors.dense(multV.data)
}
projected.rows.zip(projectedSVD).map { case (v1, v2) =>
approxEqual(v1.toArray, v2.toArray) }.filter(b => true).count
上述代码应该显示一个结果为 1055,这是我们所期望的,确认了 PCA 的每一行投影等于projectedSVD的每一行。
请注意,上述代码中突出显示的**:***运算符表示向量的逐元素乘法。
评估降维模型
PCA 和 SVD 都是确定性模型。也就是说,给定某个特定的输入数据集,它们总是会产生相同的结果。这与我们迄今为止看到的许多模型形成对比,这些模型依赖于某种随机因素(最常见的是模型权重向量的初始化等)。
这两种模型都保证返回前几个主成分或奇异值,因此唯一的参数是k。与聚类模型一样,增加k总是会提高模型性能(对于聚类来说是相关的错误函数,而对于 PCA 和 SVD 来说是k个成分解释的总变异量)。因此,选择k的值是在尽可能捕捉数据结构的同时保持投影数据的维度低之间的权衡。
评估 LFW 数据集上 SVD 的k
我们将检查通过对图像数据进行 SVD 计算得到的奇异值。我们可以验证每次运行时奇异值是相同的,并且它们以递减顺序返回,如下所示:
val sValues = (1 to 5).map {
i => matrix.computeSVD(i, computeU = false).s
}
sValues.foreach(println)
这段代码应该生成类似于以下内容的输出:
[54091.00997110354]
[54091.00997110358,33757.702867982436]
[54091.00997110357,33757.70286798241,24541.193694775946]
[54091.00997110358,33757.70286798242,24541.19369477593, 23309.58418888302]
[54091.00997110358,33757.70286798242,24541.19369477593, 23309.584188882982,21803.09841158358]
奇异值
奇异值让我们理解降维的空间和时间的权衡。
与评估聚类的k值一样,在 SVD(和 PCA)的情况下,通常有必要绘制更大范围的k的奇异值,并查看图表上的点,看看每个额外奇异值所解释的额外方差量在哪个点开始明显变平。
我们将首先计算前 300 个奇异值,如下所示:
val svd300 = matrix.computeSVD(300, computeU = false)
val sMatrix = new DenseMatrix(1, 300, svd300.s.toArray)
println(sMatrix)
csvwrite(new File("/home/ubuntu/work/ml-resources/
spark-ml/Chapter_09/data/s.csv"), sMatrix)
我们将把奇异值向量 S 写入临时 CSV 文件(就像我们之前对 Eigenfaces 矩阵所做的那样),然后在 IPython 控制台中读取它,绘制每个k的奇异值。
file_name = '/home/ubuntu/work/ml-resources/spark-ml/Chapter_09/data/s.csv'
data = np.genfromtxt(file_name, delimiter=',')
plt.plot(data)
plt.suptitle('Variation 300 Singular Values ')
plt.xlabel('Singular Value No')
plt.ylabel('Variation')
plt.show()
您应该看到类似于这里显示的图像:
前 300 个奇异值
在前 300 个奇异值累积变化中也出现了类似的模式(我们将在y轴上绘制对数刻度)。
plt.plot(cumsum(data))
plt.yscale('log')
plt.suptitle('Cumulative Variation 300 Singular Values ')
plt.xlabel('Singular Value No')
plt.ylabel('Cumulative Variation')
plt.show()
Python 绘图的完整源代码可以在以下链接找到:github.com/ml-resources/spark-ml/tree/branch-ed2/Chapter_09/data/python
前 300 个奇异值的累积和
我们可以看到,在k的某个数值范围之后(在这种情况下大约为 100),图形明显变平。这表明与k值相当的奇异值(或主成分)可能足够解释原始数据的变化。
当然,如果我们正在使用降维来帮助提高另一个模型的性能,我们可以使用与该模型相同的评估方法来帮助我们选择k的值。
例如,我们可以使用 AUC 指标,结合交叉验证,来选择分类模型的模型参数以及降维模型的k值。然而,这会增加计算成本,因为我们需要重新计算完整的模型训练和测试流程。
摘要
在本章中,我们探索了两种新的无监督学习方法,PCA 和 SVD,用于降维。我们看到如何提取特征,并训练这些模型使用面部图像数据。我们可视化了模型的结果,以 Eigenfaces 的形式展现,看到如何将模型应用于将原始数据转换为降维表示,并调查了 PCA 和 SVD 之间的密切联系。
在下一章中,我们将更深入地探讨使用 Spark 进行文本处理和分析的技术。
第十章:使用 Spark 进行高级文本处理
在第四章中,使用 Spark 获取、处理和准备数据,我们涵盖了与特征提取和数据处理相关的各种主题,包括从文本数据中提取特征的基础知识。在本章中,我们将介绍 Spark ML 中可用的更高级的文本处理技术,以处理大规模文本数据集。
在本章中,我们将:
-
通过详细示例,说明数据处理、特征提取和建模流程,以及它们与文本数据的关系
-
基于文档中的单词评估两个文档之间的相似性
-
使用提取的文本特征作为分类模型的输入
-
介绍自然语言处理的最新发展,将单词本身建模为向量,并演示使用 Spark 的 Word2Vec 模型评估两个单词之间的相似性,基于它们的含义
我们将研究如何使用 Spark 的 MLlib 以及 Spark ML 进行文本处理示例,以及文档的聚类。
文本数据有何特殊之处?
处理文本数据可能会很复杂,主要有两个原因。首先,文本和语言具有固有的结构,不容易使用原始单词来捕捉(例如,含义、上下文、不同类型的单词、句子结构和不同语言等)。因此,天真的特征提取通常相对无效。
其次,文本数据的有效维度非常大,潜在无限。想想仅英语单词的数量,再加上各种特殊单词、字符、俚语等等。然后,再加入其他语言以及互联网上可能找到的各种文本类型。文本数据的维度很容易超过数千万甚至数亿个单词,即使是相对较小的数据集。例如,数十亿个网站的 Common Crawl 数据集包含超过 8400 亿个单词。
为了解决这些问题,我们需要提取更结构化的特征的方法,以及处理文本数据的巨大维度的方法。
从数据中提取正确的特征
自然语言处理(NLP)领域涵盖了处理文本的各种技术,从文本处理和特征提取到建模和机器学习。在本章中,我们将重点关注 Spark MLlib 和 Spark ML 中可用的两种特征提取技术:词频-逆文档频率(tf-idf)术语加权方案和特征哈希。
通过 tf-idf 的示例,我们还将探讨在特征提取过程中的处理、标记化和过滤如何帮助减少输入数据的维度,以及改善我们提取的特征的信息内容和有用性。
术语加权方案
在第四章中,使用 Spark 获取、处理和准备数据,我们研究了向量表示,其中文本特征被映射到一个简单的二进制向量,称为词袋模型。实践中常用的另一种表示称为词频-逆文档频率。
tf-idf 根据文本(称为文档)中术语的频率对每个术语进行加权。然后,基于该术语在所有文档中的频率(数据集中的文档集通常称为语料库),应用全局归一化,称为逆文档频率。tf-idf 的标准定义如下:
tf-idf(t,d) = tf(t,d) x idf(t)
这里,tf(t,d)是文档d中术语t的频率(出现次数),idf(t)是语料库中术语t的逆文档频率;定义如下:
idf(t) = log(N / d)
在这里,N是文档的总数,d是术语t出现的文档数。
tf-idf 公式意味着在文档中多次出现的术语在向量表示中会获得更高的权重,相对于在文档中出现少次的术语。然而,IDF 归一化会减少在所有文档中非常常见的术语的权重。最终结果是真正罕见或重要的术语应该被分配更高的权重,而更常见的术语(假定具有较低重要性)在权重方面应该影响较小。
关于词袋模型(或向量空间模型)的更多学习资源是《信息检索导论》,作者是克里斯托弗·D·曼宁、普拉巴卡尔·拉加万和亨里希·舒兹,剑桥大学出版社(在nlp.stanford.edu/IR-book/html/htmledition/irbook.html以 HTML 形式提供)。
它包含有关文本处理技术的部分,包括标记化、停用词去除、词干提取和向量空间模型,以及诸如 tf-idf 之类的加权方案。
也可以在en.wikipedia.org/wiki/Tf%E2%80%93idf找到概述。
特征哈希
特征哈希是一种处理高维数据的技术,通常与文本和分类数据集一起使用,其中特征可以具有许多唯一值(通常有数百万个值)。在先前的章节中,我们经常对分类特征(包括文本)使用1-of-K编码方法。虽然这种方法简单而有效,但在面对极高维数据时可能会失效。
构建和使用1-of-K特征编码需要我们保留每个可能特征值到向量中的索引的映射。此外,创建映射本身的过程至少需要对数据集进行一次额外的遍历,并且在并行场景中可能会很棘手。到目前为止,我们经常使用简单的方法来收集不同的特征值,并将此集合与一组索引进行压缩,以创建特征值到索引的映射。然后将此映射广播(无论是在我们的代码中明确地还是由 Spark 隐式地)到每个工作节点。
然而,在处理文本时常见的数千万维甚至更高维的特征时,这种方法可能会很慢,并且可能需要大量的内存和网络资源,无论是在 Spark 主节点(收集唯一值)还是工作节点(广播生成的映射到每个工作节点,以便它可以将特征编码应用于其本地的输入数据)。
特征哈希通过使用哈希函数将特征的值哈希为一个数字(通常是整数值),并基于此值为特征分配向量索引。例如,假设“美国”地理位置的分类特征的哈希值为342。我们将使用哈希值作为向量索引,该索引处的值将为1.0,以表示“美国”特征的存在。所使用的哈希函数必须是一致的(即对于给定的输入,每次返回相同的输出)。
这种编码方式与基于映射的编码方式相同,只是我们需要提前为我们的特征向量选择一个大小。由于大多数常见的哈希函数返回整数范围内的值,我们将使用模运算将索引值限制为我们向量的大小,这通常要小得多(根据我们的要求,通常是几万到几百万)。
特征哈希的优点在于我们不需要构建映射并将其保存在内存中。它也很容易实现,非常快速,可以在线和实时完成,因此不需要先通过我们的数据集。最后,因为我们选择了一个明显小于数据集原始维度的特征向量维度,我们限制了模型在训练和生产中的内存使用;因此,内存使用量不随数据的大小和维度而扩展。
然而,存在两个重要的缺点,如下所示:
-
由于我们不创建特征到索引值的映射,因此也无法进行特征索引到值的反向映射。例如,这使得在我们的模型中确定哪些特征最具信息量变得更加困难。
-
由于我们限制了特征向量的大小,我们可能会遇到哈希冲突。当两个不同的特征被哈希到特征向量中的相同索引时,就会发生这种情况。令人惊讶的是,只要我们选择一个相对于输入数据维度合理的特征向量维度,这似乎并不会严重影响模型性能。如果哈希向量很大,冲突的影响就很小,但收益仍然很大。有关更多细节,请参阅此论文:
www.cs.jhu.edu/~mdredze/publications/mobile_nlp_feature_mixing.pdf
有关哈希的更多信息可以在en.wikipedia.org/wiki/Hash_function找到。
引入哈希用于特征提取和机器学习的关键论文是:
Kilian Weinberger,Anirban Dasgupta,John Langford,Alex Smola和Josh Attenberg。大规模多任务学习的特征哈希。ICML 2009 年会议论文,网址为alex.smola.org/papers/2009/Weinbergeretal09.pdf。
从 20 个新闻组数据集中提取 tf-idf 特征
为了说明本章中的概念,我们将使用一个名为20 Newsgroups的著名文本数据集;这个数据集通常用于文本分类任务。这是一个包含 20 个不同主题的新闻组消息的集合。有各种形式的可用数据。为了我们的目的,我们将使用数据集的bydate版本,该版本可在qwone.com/~jason/20Newsgroups上找到。
该数据集将可用数据分为训练集和测试集,分别占原始数据的 60%和 40%。在这里,测试集中的消息出现在训练集中的消息之后。该数据集还排除了一些标识实际新闻组的消息头;因此,这是一个适合测试分类模型实际性能的数据集。
有关原始数据集的更多信息可以在UCI 机器学习库页面上找到,网址为kdd.ics.uci.edu/databases/20newsgroups/20newsgroups.data.html。
要开始,请下载数据并使用以下命令解压文件:
>tar xfvz 20news-bydate.tar.gz
这将创建两个文件夹:一个名为20news-bydate-train,另一个名为20news-bydate-test。让我们来看看训练数据集文件夹下的目录结构:
>cd 20news-bydate-train/ >ls
您将看到它包含许多子文件夹,每个子文件夹对应一个新闻组:
alt.atheism comp.windows.x rec.sport.hockey
soc.religion.christian
comp.graphics misc.forsale sci.crypt
talk.politics.guns comp.os.ms-windows.misc rec.autos sci.electronics
talk.politics.mideast
comp.sys.ibm.pc.hardware rec.motorcycles sci.med
talk.politics.misc
comp.sys.mac.hardware rec.sport.baseball sci.space
talk.religion.misc
在每个新闻组文件夹下有许多文件;每个文件包含一个单独的消息帖子:
> ls rec.sport.hockey
52550 52580 52610 52640 53468 53550 53580 53610 53640 53670 53700
53731 53761 53791
...
我们可以查看其中一条消息的一部分以查看格式:
> head -20 rec.sport.hockey/52550
From: dchhabra@stpl.ists.ca (Deepak Chhabra)
Subject: Superstars and attendance (was Teemu Selanne, was +/-
leaders)
Nntp-Posting-Host: stpl.ists.ca
Organization: Solar Terresterial Physics Laboratory, ISTS
Distribution: na
Lines: 115
Dean J. Falcione (posting from jrmst+8@pitt.edu) writes:
[I wrote:]
>>When the Pens got Mario, granted there was big publicity,etc, etc,
>>and interest was immediately generated. Gretzky did the same thing for
>>LA.
>>However, imnsho, neither team would have seen a marked improvement in
>>attendance if the team record did not improve. In the year before Lemieux
>>came, Pittsburgh finished with 38 points. Following his arrival, the Pens
>>finished with 53, 76, 72, 81, 87, 72, 88, and 87 points, with a couple of
^^
>>Stanley Cups thrown in.
...
正如我们所看到的,每条消息都包含一些包含发件人、主题和其他元数据的标题字段,然后是消息的原始内容。
探索 20 个新闻组数据
我们将使用一个 Spark 程序来加载和分析数据集。
object TFIDFExtraction {
def main(args: Array[String]) {
}
}
查看目录结构时,您可能会认出,我们再次有数据包含在单独的文本文件中(每个消息一个文本文件)。因此,我们将再次使用 Spark 的wholeTextFiles方法将每个文件的内容读入 RDD 中的记录。
在接下来的代码中,PATH指的是您提取20news-bydate ZIP 文件的目录:
val sc = new SparkContext("local[2]", "First Spark App")
val path = "../data/20news-bydate-train/*"
val rdd = sc.wholeTextFiles(path)
// count the number of records in the dataset
println(rdd.count)
如果您设置断点,您将看到以下行显示,指示 Spark 检测到的文件总数:
...
INFO FileInputFormat: Total input paths to process : 11314
...
命令运行完毕后,您将看到总记录数,应该与前面的要处理的总输入路径屏幕输出相同:
11314
现在让我们打印rdd的第一个元素,其中已加载数据:
16/12/30 20:42:02 INFO DAGScheduler: Job 1 finished: first at
TFIDFExtraction.scala:27, took 0.067414 s
(file:/home/ubuntu/work/ml-resources/spark-
ml/Chapter_10/data/20news- bydate-train/alt.atheism/53186,From:
ednclark@kraken.itc.gu.edu.au (Jeffrey Clark)
Subject: Re: some thoughts.
Keywords: Dan Bissell
Nntp-Posting-Host: kraken.itc.gu.edu.au
Organization: ITC, Griffith University, Brisbane, Australia
Lines: 70
....
接下来,我们将查看可用的新闻组主题:
val newsgroups = rdd.map { case (file, text) =>
file.split("/").takeRight(2).head }
println(newsgroups.first())
val countByGroup = newsgroups.map(n => (n, 1)).reduceByKey(_ +
_).collect.sortBy(-_._2).mkString("n")
println(countByGroup)
这将显示以下结果:
(rec.sport.hockey,600)
(soc.religion.christian,599)
(rec.motorcycles,598)
(rec.sport.baseball,597)
(sci.crypt,595)
(rec.autos,594)
(sci.med,594)
(comp.windows.x,593)
(sci.space,593)
(sci.electronics,591)
(comp.os.ms-windows.misc,591)
(comp.sys.ibm.pc.hardware,590)
(misc.forsale,585)
(comp.graphics,584)
(comp.sys.mac.hardware,578)
(talk.politics.mideast,564)
(talk.politics.guns,546)
(alt.atheism,480)
(talk.politics.misc,465)
(talk.religion.misc,377)
我们可以看到消息数量在主题之间大致相等。
应用基本标记化
我们文本处理管道的第一步是将每个文档中的原始文本内容拆分为一组术语(也称为标记)。这就是标记化。我们将首先应用简单的空格标记化,同时将每个文档的每个标记转换为小写:
val text = rdd.map { case (file, text) => text }
val whiteSpaceSplit = text.flatMap(t => t.split("
").map(_.toLowerCase))
println(whiteSpaceSplit.distinct.count)
在前面的代码中,我们使用了flatMap函数而不是map,因为现在我们想要一起检查所有标记以进行探索性分析。在本章的后面,我们将在每个文档的基础上应用我们的标记方案,因此我们将使用map函数。
运行此代码片段后,您将看到应用我们的标记化后的唯一标记总数:
402978
如您所见,即使对于相对较少的文本,原始标记的数量(因此,我们的特征向量的维度)也可能非常高。
让我们看一下随机选择的文档。我们将使用 RDD 的 sample 方法:
def sample(
withReplacement: Boolean,
fraction: Double,
seed: Long = Utils.random.nextLong): RDD[T]
Return a sampled subset of this RDD.
@param withReplacement can elements be sampled multiple times
(replaced when sampled out)
@param fraction expected size of the sample as a fraction of this
RDD's size without replacement: probability that each element is
chosen; fraction must be [0, 1] with replacement: expected number
of times each element is chosen; fraction must be >= 0
@param seed seed for the random number generator
println(nonWordSplit.distinct.sample(
true, 0.3, 42).take(100).mkString(","))
请注意,我们将sample函数的第三个参数设置为随机种子。我们将此函数设置为42,以便每次调用sample时都获得相同的结果,以便您的结果与本章中的结果相匹配。
这将显示以下结果:
atheist,resources
summary:,addresses,,to,atheism
keywords:,music,,thu,,11:57:19,11:57:19,gmt
distribution:,cambridge.,290
archive-name:,atheism/resources
alt-atheism-archive-
name:,december,,,,,,,,,,,,,,,,,,,,,,addresses,addresses,,,,,,,
religion,to:,to:,,p.o.,53701.
telephone:,sell,the,,fish,on,their,cars,,with,and,written
inside.,3d,plastic,plastic,,evolution,evolution,7119,,,,,san,san,
san,mailing,net,who,to,atheist,press
aap,various,bible,,and,on.,,,one,book,is:
"the,w.p.,american,pp.,,1986.,bible,contains,ball,,based,based,
james,of
改进我们的标记化
前面的简单方法会产生大量的标记,并且不会过滤掉许多非单词字符(如标点符号)。大多数标记方案都会去除这些字符。我们可以通过使用正则表达式模式在非单词字符上拆分每个原始文档来实现这一点:
val nonWordSplit = text.flatMap(t =>
t.split("""W+""").map(_.toLowerCase))
println(nonWordSplit.distinct.count)
这显著减少了唯一标记的数量:
130126
如果我们检查前几个标记,我们会发现我们已经消除了文本中大部分不太有用的字符:
println(
nonWordSplit.distinct.sample(true, 0.3,
50).take(100).mkString(","))
您将看到以下结果显示:
jejones,ml5,w1w3s1,k29p,nothin,42b,beleive,robin,believiing,749,
steaminess,tohc4,fzbv1u,ao,
instantaneous,nonmeasurable,3465,tiems,tiems,tiems,eur,3050,pgva4,
animating,10011100b,413,randall_clark,
mswin,cannibal,cannibal,congresswoman,congresswoman,theoreticians,
34ij,logically,kxo,contoler,
contoler,13963,13963,ets,sask,sask,sask,uninjured,930420,pws,vfj,
jesuit,kocharian,6192,1tbs,octopi,
012537,012537,yc0,dmitriev,icbz,cj1v,bowdoin,computational,
jkis_ltd,
caramate,cfsmo,springer,springer,
005117,shutdown,makewindow,nowadays,mtearle,discernible,
discernible,qnh1,hindenburg,hindenburg,umaxc,
njn2e5,njn2e5,njn2e5,x4_i,x4_i,monger,rjs002c,rjs002c,rjs002c,
warms,ndallen,g45,herod,6w8rg,mqh0,suspects,
floor,flq1r,io21087,phoniest,funded,ncmh,c4uzus
虽然我们用于拆分文本的非单词模式效果相当不错,但我们仍然留下了数字和包含数字字符的标记。在某些情况下,数字可能是语料库的重要部分。对于我们的目的,管道中的下一步将是过滤掉数字和包含数字的标记。
我们可以通过应用另一个正则表达式模式来实现这一点,并使用它来过滤不匹配模式的标记,val regex = """[⁰-9]*""".r。
val regex = """[⁰-9]*""".r
val filterNumbers = nonWordSplit.filter(token =>
regex.pattern.matcher(token).matches)
println(filterNumbers.distinct.count)
这进一步减少了标记集的大小:
84912
println(filterNumbers.distinct.sample(true, 0.3,
50).take(100).mkString(","))
让我们再看一下过滤后的标记的另一个随机样本。
您将看到以下输出:
jejones,silikian,reunion,schwabam,nothin,singen,husky,tenex,
eventuality,beleive,goofed,robin,upsets,aces,nondiscriminatory,
underscored,bxl,believiing,believiing,believiing,historians,
nauseam,kielbasa,collins,noport,wargame,isv,bellevue,seetex,seetex,
negotiable,negotiable,viewed,rolled,unforeseen,dlr,museum,museum,
wakaluk,wakaluk,dcbq,beekeeper,beekeeper,beekeeper,wales,mop,win,
ja_jp,relatifs,dolphin,strut,worshippers,wertheimer,jaze,jaze,
logically,kxo,nonnemacher,sunprops,sask,bbzx,jesuit,logos,aichi,
remailing,remailing,winsor,dtn,astonished,butterfield,miserable,
icbz,icbz,poking,sml,sml,makeing,deterministic,deterministic,
deterministic,rockefeller,rockefeller,explorers,bombardments,
bombardments,bombardments,ray_bourque,hour,cfsmo,mishandles,
scramblers,alchoholic,shutdown,almanac_,bruncati,karmann,hfd,
makewindow,perptration,mtearle
我们可以看到我们已经删除了所有数字字符。这仍然给我们留下了一些奇怪的单词,但我们在这里不会太担心这些。
删除停用词
停用词是指在语料库中(以及大多数语料库中)几乎所有文档中都出现多次的常见词。典型的英语停用词包括 and、but、the、of 等。在文本特征提取中,通常会排除停用词。
在使用 tf-idf 加权时,加权方案实际上会为我们处理这个问题。由于停用词的 idf 得分非常低,它们往往具有非常低的 tf-idf 权重,因此重要性较低。然而,在某些情况下,对于信息检索和搜索任务,可能希望包括停用词。然而,在特征提取过程中排除停用词仍然是有益的,因为它减少了最终特征向量的维度以及训练数据的大小。
我们可以查看我们语料库中出现次数最多的一些标记,以了解其他需要排除的停用词:
val tokenCounts = filterNumbers.map(t => (t, 1)).reduceByKey(_ +
_)
val oreringDesc = Ordering.by(String, Int), Int
println(tokenCounts.top(20)(oreringDesc).mkString("n"))
在上述代码中,我们在过滤掉数字字符后获取了标记,并生成了每个标记在整个语料库中出现次数的计数。现在我们可以使用 Spark 的 top 函数来检索按计数排名的前 20 个标记。请注意,我们需要为 top 函数提供一个排序方式,告诉 Spark 如何对我们的 RDD 元素进行排序。在这种情况下,我们希望按计数排序,因此我们将指定键值对的第二个元素。
运行上述代码片段将产生以下前几个标记:
(the,146532)
(to,75064)
(of,69034)
(a,64195)
(ax,62406)
(and,57957)
(i,53036)
(in,49402)
(is,43480)
(that,39264)
(it,33638)
(for,28600)
(you,26682)
(from,22670)
(s,22337)
(edu,21321)
(on,20493)
(this,20121)
(be,19285)
(t,18728)
正如我们所预期的,这个列表中有很多常见词,我们可能会将其标记为停用词。让我们创建一个包含其中一些常见词的停用词集
以及其他常见词。然后我们将在过滤掉这些停用词后查看标记:
val stopwords = Set(
"the","a","an","of","or","in","for","by","on","but", "is",
"not", "with", "as", "was", "if",
"they", "are", "this", "and", "it", "have", "from", "at", "my",
"be", "that", "to"
val tokenCountsFilteredStopwords = tokenCounts.filter {
case (k, v) => !stopwords.contains(k)
}
println(tokenCountsFilteredStopwords.top(20)
(oreringDesc).mkString("n"))
您将看到以下输出:
(ax,62406)
(i,53036)
(you,26682)
(s,22337)
(edu,21321)
(t,18728)
(m,12756)
(subject,12264)
(com,12133)
(lines,11835)
(can,11355)
(organization,11233)
(re,10534)
(what,9861)
(there,9689)
(x,9332)
(all,9310)
(will,9279)
(we,9227)
(one,9008)
您可能会注意到在这个前面的列表中仍然有相当多的常见词。在实践中,我们可能会有一个更大的停用词集。然而,我们将保留一些(部分是为了稍后使用 tf-idf 加权时常见词的影响)。
您可以在这里找到常见停用词列表:xpo6.com/list-of-english-stop-words/
我们将使用的另一个过滤步骤是删除长度为一个字符的任何标记。这背后的原因类似于删除停用词-这些单字符标记不太可能在我们的文本模型中提供信息,并且可以进一步减少特征维度和模型大小。我们将通过另一个过滤步骤来实现这一点:
val tokenCountsFilteredSize =
tokenCountsFilteredStopwords.filter {
case (k, v) => k.size >= 2
}
println(tokenCountsFilteredSize.top(20)
(oreringDesc).mkString("n"))
同样,我们将在此过滤步骤之后检查剩下的标记:
(ax,62406)
(you,26682)
(edu,21321)
(subject,12264)
(com,12133)
(lines,11835)
(can,11355)
(organization,11233)
(re,10534)
(what,9861)
(there,9689)
(all,9310)
(will,9279)
(we,9227)
(one,9008)
(would,8905)
(do,8674)
(he,8441)
(about,8336)
(writes,7844)
除了我们没有排除的一些常见词之外,我们看到一些潜在更具信息量的词开始出现。
根据频率排除术语
在标记化过程中,通常会排除语料库中整体出现非常少的术语。例如,让我们来检查语料库中出现次数最少的术语(注意我们在这里使用不同的排序方式来返回按升序排序的结果):
val oreringAsc = Ordering.by(String, Int), Int
println(tokenCountsFilteredSize.top(20)(oreringAsc)
.mkString("n"))
您将得到以下结果:
(lennips,1)
(bluffing,1)
(preload,1)
(altina,1)
(dan_jacobson,1)
(vno,1)
(actu,1)
(donnalyn,1)
(ydag,1)
(mirosoft,1)
(xiconfiywindow,1)
(harger,1)
(feh,1)
(bankruptcies,1)
(uncompression,1)
(d_nibby,1)
(bunuel,1)
(odf,1)
(swith,1)
(lantastic,1)
正如我们所看到的,有许多术语在整个语料库中只出现一次。通常情况下,我们希望将我们提取的特征用于其他任务,如文档相似性或机器学习模型,只出现一次的标记对于学习来说是没有用的,因为相对于这些标记,我们将没有足够的训练数据。我们可以应用另一个过滤器来排除这些罕见的标记:
val rareTokens = tokenCounts.filter{ case (k, v) => v < 2 }.map {
case (k, v) => k }.collect.toSet
val tokenCountsFilteredAll = tokenCountsFilteredSize.filter {
case (k, v) => !rareTokens.contains(k) }
println(tokenCountsFilteredAll.top(20)
(oreringAsc).mkString("n"))
我们可以看到,我们剩下的标记至少在语料库中出现了两次:
(sina,2)
(akachhy,2)
(mvd,2)
(hizbolah,2)
(wendel_clark,2)
(sarkis,2)
(purposeful,2)
(feagans,2)
(wout,2)
(uneven,2)
(senna,2)
(multimeters,2)
(bushy,2)
(subdivided,2)
(coretest,2)
(oww,2)
(historicity,2)
(mmg,2)
(margitan,2)
(defiance,2)
现在,让我们统计一下唯一标记的数量:
println(tokenCountsFilteredAll.count)
您将看到以下输出:
51801
正如我们所看到的,通过在我们的标记化流程中应用所有过滤步骤,我们已将特征维度从402,978减少到51,801。
现在,我们可以将所有过滤逻辑组合成一个函数,然后将其应用到我们 RDD 中的每个文档:
def tokenize(line: String): Seq[String] = {
line.split("""W+""")
.map(_.toLowerCase)
.filter(token => regex.pattern.matcher(token).matches)
.filterNot(token => stopwords.contains(token))
.filterNot(token => rareTokens.contains(token))
.filter(token => token.size >= 2)
.toSeq
}
我们可以检查这个函数是否给我们相同的结果,使用以下代码片段:
println(text.flatMap(doc => tokenize(doc)).distinct.count)
这将输出51801,给我们与逐步流程相同的唯一标记计数。
我们可以按如下方式对 RDD 中的每个文档进行标记化:
val tokens = text.map(doc => tokenize(doc))
println(tokens.first.take(20))
您将看到类似以下的输出,显示我们第一个文档的标记化版本的前部分:
WrappedArray(mathew, mantis, co, uk, subject, alt, atheism,
faq, atheist, resources, summary, books, addresses, music,
anything, related, atheism, keywords, faq)
关于词干的一点说明
文本处理和标记化中的一个常见步骤是词干提取。这是将整个单词转换为基本形式(称为词干)的过程。例如,复数可能会转换为单数(dogs变成dog),而walking和walker这样的形式可能会变成walk。词干提取可能会变得非常复杂,通常需要专门的 NLP 或搜索引擎软件(例如 NLTK、OpenNLP 和 Lucene 等)来处理。在这个例子中,我们将忽略词干提取。
对词干提取的全面处理超出了本书的范围。您可以在en.wikipedia.org/wiki/Stemming找到更多细节。
特征哈希
首先,我们解释什么是特征哈希,以便更容易理解下一节中的 tf-idf 模型。
特征哈希将字符串或单词转换为固定长度的向量,这样可以更容易地处理文本。
Spark 目前使用 Austin Appleby 的 MurmurHash 3 算法(MurmurHash3_x86_32)将文本哈希为数字。
您可以在这里找到实现
private[spark] def murmur3Hash(term: Any): Int = {
term match {
case null => seed
case b: Boolean => hashInt(if (b) 1 else 0, seed)
case b: Byte => hashInt(b, seed)
case s: Short => hashInt(s, seed)
case i: Int => hashInt(i, seed)
case l: Long => hashLong(l, seed)
case f: Float => hashInt(java.lang.Float
.floatToIntBits(f), seed)
case d: Double => hashLong(java.lang.Double.
doubleToLongBits(d), seed)
case s: String => val utf8 = UTF8String.fromString(s)
hashUnsafeBytes(utf8.getBaseObject, utf8.getBaseOffset,
utf8.numBytes(), seed)
case _ => throw new SparkException(
"HashingTF with murmur3 algorithm does not " +
s"support type ${term.getClass.getCanonicalName} of input
data.")
}
}
请注意,函数hashInt、hasLong等是从Util.scala中调用的
构建 tf-idf 模型
现在,我们将使用 Spark ML 将每个文档(以处理后的标记形式)转换为向量表示。第一步将是使用HashingTF实现,它利用特征哈希将输入文本中的每个标记映射到术语频率向量中的索引。然后,我们将计算全局 IDF,并使用它将术语频率向量转换为 tf-idf 向量。
对于每个标记,索引将是标记的哈希值(依次映射到特征向量的维度)。每个标记的值将是该标记的 tf-idf 加权值(即,术语频率乘以逆文档频率)。
首先,我们将导入我们需要的类并创建我们的HashingTF实例,传入一个dim维度参数。虽然默认的特征维度是 2²⁰(大约 100 万),我们将选择 2¹⁸(大约 26 万),因为大约有 5 万个标记,我们不应该遇到显著数量的哈希碰撞,而较小的维度对于说明目的来说更加节省内存和处理资源:
import org.apache.spark.mllib.linalg.{ SparseVector => SV }
import org.apache.spark.mllib.feature.HashingTF
import org.apache.spark.mllib.feature.IDF
val dim = math.pow(2, 18).toInt
val hashingTF = new HashingTF(dim)
val tf = hashingTF.transform(tokens)
tf.cache
请注意,我们使用SV的别名导入了 MLlib 的SparseVector。这是因为稍后,我们将使用 Breeze 的linalg模块,它本身也导入SparseVector。这样,我们将避免命名空间冲突。
HashingTF的transform函数将每个输入文档(即标记序列)映射到 MLlib 的Vector。我们还将调用cache将数据固定在内存中,以加速后续操作。
让我们检查转换后数据集的第一个元素:
请注意,HashingTF.transform返回一个RDD[Vector],因此我们将返回的结果转换为 MLlibSparseVector的实例。
transform方法也可以通过接受一个Iterable参数(例如,作为Seq[String]的文档)来处理单个文档。这将返回一个单一的向量。
val v = tf.first.asInstanceOf[SV]
println(v.size)
println(v.values.size)
println(v.values.take(10).toSeq)
println(v.indices.take(10).toSeq)
您将看到以下输出显示:
262144
706
WrappedArray(1.0, 1.0, 1.0, 1.0, 2.0, 1.0, 1.0, 2.0, 1.0, 1.0)
WrappedArray(313, 713, 871, 1202, 1203, 1209, 1795, 1862, 3115,
3166)
我们可以看到每个稀疏向量的特征频率的维度为 262,144(或者我们指定的 2¹⁸)。然而,向量中非零条目的数量只有 706。输出的最后两行显示了向量中前几个条目的频率计数和索引。
现在,我们将通过创建一个新的IDF实例并调用fit方法来计算语料库中每个术语的逆文档频率。然后,我们将通过IDF的transform函数将我们的术语频率向量转换为 tf-idf 向量:
val idf = new IDF().fit(tf)
val tfidf = idf.transform(tf)
val v2 = tfidf.first.asInstanceOf[SV]
println(v2.values.size)
println(v2.values.take(10).toSeq)
println(v2.indices.take(10).toSeq)
当您检查 tf-idf 转换后向量的 RDD 中的第一个元素时,您将看到类似于这里显示的输出:
706
WrappedArray(2.3869085659322193, 4.670445463955571,
6.561295835827856, 4.597686109673142, ...
WrappedArray(313, 713, 871, 1202, 1203, 1209, 1795, 1862, 3115,
3166)
我们可以看到非零条目的数量没有改变(为706),术语的向量索引也没有改变。改变的是每个术语的值。早些时候,这些值代表了文档中每个术语的频率,但现在,新值代表了由 IDF 加权的频率。
当我们执行以下两行时,IDF 加权就出现了
val idf = new IDF().fit(tf)
val tfidf = idf.transform(tf)
分析 tf-idf 加权
接下来,让我们调查一些术语的 tf-idf 加权,以说明术语的普遍性或稀有性的影响。
首先,我们可以计算整个语料库中的最小和最大 tf-idf 权重:
val minMaxVals = tfidf.map { v =>
val sv = v.asInstanceOf[SV]
(sv.values.min, sv.values.max)
}
val globalMinMax = minMaxVals.reduce { case ((min1, max1),
(min2, max2)) =>
(math.min(min1, min2), math.max(max1, max2))
}
println(globalMinMax)
正如我们所看到的,最小的 tf-idf 是零,而最大的 tf-idf 显着更大:
(0.0,66155.39470409753)
我们现在将探讨附加到各种术语的 tf-idf 权重。在停用词的上一节中,我们过滤掉了许多经常出现的常见术语。请记住,我们没有删除所有这些潜在的停用词。相反,我们在语料库中保留了一些术语,以便我们可以说明应用 tf-idf 加权方案对这些术语的影响。
Tf-idf 加权将倾向于为常见术语分配较低的权重。为了证明这一点,我们可以计算我们先前计算的顶部出现列表中的一些术语的 tf-idf 表示,例如you,do和we:
val common = sc.parallelize(Seq(Seq("you", "do", "we")))
val tfCommon = hashingTF.transform(common)
val tfidfCommon = idf.transform(tfCommon)
val commonVector = tfidfCommon.first.asInstanceOf[SV]
println(commonVector.values.toSeq)
如果我们形成这篇文章的 tf-idf 向量表示,我们会看到每个术语分配的以下值。请注意,由于特征散列,我们不确定哪个术语代表什么。但是,这些值说明了对这些术语应用的加权相对较低:
WrappedArray(0.9965359935704624, 1.3348773448236835,
0.5457486182039175)
现在,让我们将相同的转换应用于一些我们可能直观地认为与特定主题或概念更相关的不太常见的术语:
val uncommon = sc.parallelize(Seq(Seq("telescope",
"legislation", "investment")))
val tfUncommon = hashingTF.transform(uncommon)
val tfidfUncommon = idf.transform(tfUncommon)
val uncommonVector = tfidfUncommon.first.asInstanceOf[SV]
println(uncommonVector.values.toSeq)
从以下结果中我们可以看到,tf-idf 加权确实比更常见的术语要高得多:
WrappedArray(5.3265513728351666, 5.308532867332488,
5.483736956357579)
使用 tf-idf 模型
尽管我们经常提到训练 tf-idf 模型,但实际上它是一个特征提取过程或转换,而不是一个机器学习模型。Tf-idf 加权通常用作其他模型的预处理步骤,例如降维、分类或回归。
为了说明 tf-idf 加权的潜在用途,我们将探讨两个例子。第一个是使用 tf-idf 向量计算文档相似性,而第二个涉及使用 tf-idf 向量作为输入特征训练多标签分类模型。
20 个新闻组数据集和 tf-idf 特征的文档相似性
您可能还记得第五章中的使用 Spark 构建推荐引擎,两个向量之间的相似度可以使用距离度量来计算。两个向量越接近(即距离度量越小),它们就越相似。我们用于计算电影之间相似度的一种度量是余弦相似度。
就像我们为电影所做的那样,我们也可以计算两个文档之间的相似性。使用 tf-idf,我们已将每个文档转换为向量表示。因此,我们可以使用与我们用于比较两个文档的电影向量相同的技术。
直觉上,如果两个文档共享许多术语,我们可能期望这两个文档彼此更相似。相反,如果它们各自包含许多彼此不同的术语,我们可能期望这两个文档更不相似。由于我们通过计算两个向量的点积来计算余弦相似度,而每个向量由每个文档中的术语组成,我们可以看到具有高重叠术语的文档将倾向于具有更高的余弦相似度。
现在,我们可以看到 tf-idf 在起作用。我们可能合理地期望,即使非常不同的文档也可能包含许多重叠的相对常见的术语(例如,我们的停用词)。然而,由于 tf-idf 加权较低,这些术语对点积的影响不大,因此对计算的相似度也没有太大影响。
例如,我们可能期望从冰球新闻组中随机选择的两条消息之间相对相似。让我们看看是否是这种情况:
val hockeyText = rdd.filter { case (file, text) =>
file.contains("hockey") }
val hockeyTF = hockeyText.mapValues(doc =>
hashingTF.transform(tokenize(doc)))
val hockeyTfIdf = idf.transform(hockeyTF.map(_._2))
在前面的代码中,我们首先过滤了原始输入 RDD,只保留了冰球主题内的消息。然后应用了我们的标记化和词项频率转换函数。请注意,使用的transform方法是适用于单个文档(以Seq[String]形式)的版本,而不是适用于 RDD 文档的版本。
最后,我们应用了IDF转换(请注意,我们使用的是已经在整个语料库上计算过的相同 IDF)。
一旦我们有了我们的冰球文档向量,我们可以随机选择其中的两个向量,并计算它们之间的余弦相似度(就像之前一样,我们将使用 Breeze 进行线性代数功能,特别是首先将我们的 MLlib 向量转换为 BreezeSparseVector实例):
import breeze.linalg._
val hockey1 = hockeyTfIdf.sample(
true, 0.1, 42).first.asInstanceOf[SV]
val breeze1 = new SparseVector(hockey1.indices,
hockey1.values, hockey1.size)
val hockey2 = hockeyTfIdf.sample(true, 0.1,
43).first.asInstanceOf[SV]
val breeze2 = new SparseVector(hockey2.indices,
hockey2.values, hockey2.size)
val cosineSim = breeze1.dot(breeze2) /
(norm(breeze1) * norm(breeze2))
println(cosineSim)
我们可以看到文档之间的余弦相似度大约为 0.06:
0.06700095047242809
虽然这可能看起来相当低,但要记住,由于处理文本数据时通常会出现大量唯一术语,因此我们特征的有效维度很高。因此,我们可以期望,即使两个文档是关于相同主题的,它们之间的术语重叠也可能相对较低,因此绝对相似度得分也会较低。
相比之下,我们可以将此相似度得分与使用相同方法在计算机图形新闻组中随机选择的另一个文档与我们的冰球文档之间计算的相似度进行比较:
val graphicsText = rdd.filter { case (file, text) =>
file.contains("comp.graphics") }
val graphicsTF = graphicsText.mapValues(doc =>
hashingTF.transform(tokenize(doc)))
val graphicsTfIdf = idf.transform(graphicsTF.map(_._2))
val graphics = graphicsTfIdf.sample(true, 0.1,
42).first.asInstanceOf[SV]
val breezeGraphics = new SparseVector(graphics.indices,
graphics.values, graphics.size)
val cosineSim2 = breeze1.dot(breezeGraphics) / (norm(breeze1) *
norm(breezeGraphics))
println(cosineSim2)
余弦相似度显著较低,为0.0047:
0.001950124251275256
最后,很可能来自另一个与体育相关的主题的文档与我们的冰球文档更相似,而不像来自与计算机相关的主题的文档。但是,我们可能预期棒球文档与我们的冰球文档不太相似。让我们通过计算棒球新闻组中的随机消息与我们的冰球文档之间的相似度来看看是否如此:
// compare to sport.baseball topic
val baseballText = rdd.filter { case (file, text) =>
file.contains("baseball") }
val baseballTF = baseballText.mapValues(doc =>
hashingTF.transform(tokenize(doc)))
val baseballTfIdf = idf.transform(baseballTF.map(_._2))
val baseball = baseballTfIdf.sample(true, 0.1,
42).first.asInstanceOf[SV]
val breezeBaseball = new SparseVector(baseball.indices,
baseball.values, baseball.size)
val cosineSim3 = breeze1.dot(breezeBaseball) / (norm(breeze1) *
norm(breezeBaseball))
println(cosineSim3)
事实上,正如我们预期的那样,我们发现棒球和冰球文档的余弦相似度为0.05,这显著高于计算机图形文档,但也略低于另一个冰球文档:
0.05047395039466008
源代码:
使用 tf-idf 在 20 个新闻组数据集上训练文本分类器
使用 tf-idf 向量时,我们预期余弦相似度度量将捕捉文档之间的相似性,基于它们之间的术语重叠。类似地,我们预期机器学习模型,如分类器,将能够学习每个术语的加权;这将使其能够区分不同类别的文档。也就是说,应该可以学习到存在(和加权)某些术语与特定主题之间的映射。
在 20 个新闻组的例子中,每个新闻组主题都是一个类别,我们可以使用我们的 tf-idf 转换后的向量来训练分类器。
由于我们正在处理一个多类分类问题,我们将在 MLlib 中使用朴素贝叶斯模型,该模型支持多个类别。作为第一步,我们将导入我们将使用的 Spark 类:
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.classification.NaiveBayes
import org.apache.spark.mllib.evaluation.MulticlassMetrics.
我们将保留我们的聚类代码在一个名为文档聚类的对象中
object DocumentClassification {
def main(args: Array[String]) {
val sc = new SparkContext("local[2]", "")
...
}
接下来,我们需要提取 20 个主题并将它们转换为类映射。我们可以像对1-of-K特征编码一样做,为每个类分配一个数字索引:
val newsgroupsMap =
newsgroups.distinct.collect().zipWithIndex.toMap
val zipped = newsgroups.zip(tfidf)
val train = zipped.map { case (topic, vector) =>
LabeledPoint(newsgroupsMap(topic), vector) }
train.cache
在前面的代码片段中,我们取了newsgroups RDD,其中每个元素都是主题,并使用zip函数将其与我们的 tf-idf 向量 RDD 中的每个元素组合在一起。然后,我们在我们的新压缩 RDD 中的每个键值元素上进行映射,并创建一个LabeledPoint实例,其中label是类索引,features是 tf-idf 向量。
请注意,zip操作符假定每个 RDD 具有相同数量的分区以及每个分区中相同数量的元素。如果不是这种情况,它将失败。我们可以做出这种假设,因为我们实际上已经通过对相同原始 RDD 进行一系列map转换来创建了tfidf RDD 和newsgroups RDD,并保留了分区结构。
现在我们有了正确形式的输入 RDD,我们可以简单地将其传递给朴素贝叶斯的train函数:
val model = NaiveBayes.train(train, lambda = 0.1)
让我们评估模型在测试数据集上的性能。我们将从20news-bydate-test目录加载原始测试数据,再次使用wholeTextFiles将每条消息读入 RDD 元素。然后,我们将从文件路径中提取类标签,方式与我们对newsgroups RDD 所做的方式相同。
val testPath = "/PATH/20news-bydate-test/*"
val testRDD = sc.wholeTextFiles(testPath)
val testLabels = testRDD.map { case (file, text) =>
val topic = file.split("/").takeRight(2).head
newsgroupsMap(topic)
}
对测试数据集中的文本进行转换的过程与训练数据相同-我们将应用我们的tokenize函数,然后进行词项频率转换,然后再次使用从训练数据中计算的相同 IDF 来将 TF 向量转换为 tf-idf 向量。最后,我们将测试类标签与 tf-idf 向量进行压缩,并创建我们的测试RDD[LabeledPoint]:
val testTf = testRDD.map { case (file, text) =>
hashingTF.transform(tokenize(text)) }
val testTfIdf = idf.transform(testTf)
val zippedTest = testLabels.zip(testTfIdf)
val test = zippedTest.map { case (topic, vector) =>
LabeledPoint(topic, vector) }
请注意,重要的是我们使用训练集的 IDF 来转换测试数据,因为这样可以更真实地估计模型在新数据上的性能,新数据可能包含模型尚未训练过的术语。如果基于测试数据集重新计算 IDF 向量,这将是“作弊”,更重要的是,可能会导致通过交叉验证选择的最佳模型参数的不正确估计。
现在,我们准备计算模型的预测和真实类标签。我们将使用此 RDD 来计算模型的准确性和多类加权 F-度量:
val predictionAndLabel = test.map(p =>
(model.predict(p.features), p.label))
val accuracy = 1.0 * predictionAndLabel.filter
(x => x._1 == x._2).count() / test.count()
val metrics = new MulticlassMetrics(predictionAndLabel)
println(accuracy)
println(metrics.weightedFMeasure)
加权 F-度量是精确度和召回率性能的综合度量(类似于 ROC 曲线下面积,值越接近 1.0 表示性能越好),然后通过在类别之间进行加权平均来组合。
我们可以看到,我们简单的多类朴素贝叶斯模型的准确性和 F-度量都接近 80%:
0.7928836962294211
0.7822644376431702
评估文本处理的影响
文本处理和 tf-idf 加权是旨在减少原始文本数据的维度并提取一些结构的特征提取技术的例子。通过比较在原始文本数据上训练的模型与在处理和 tf-idf 加权文本数据上训练的模型的性能,我们可以看到应用这些处理技术的影响。
比较 20 个新闻组数据集上的原始特征和处理后的 tf-idf 特征
在这个例子中,我们将简单的哈希词项频率转换应用于使用文档文本的简单空格拆分获得的原始文本标记。我们将在这些数据上训练一个模型,并评估在测试集上的性能,就像我们对使用 tf-idf 特征训练的模型一样:
val rawTokens = rdd.map { case (file, text) => text.split(" ") }
val rawTF = texrawTokenst.map(doc => hashingTF.transform(doc))
val rawTrain = newsgroups.zip(rawTF).map { case (topic, vector)
=> LabeledPoint(newsgroupsMap(topic), vector) }
val rawModel = NaiveBayes.train(rawTrain, lambda = 0.1)
val rawTestTF = testRDD.map { case (file, text) =>
hashingTF.transform(text.split(" ")) }
val rawZippedTest = testLabels.zip(rawTestTF)
val rawTest = rawZippedTest.map { case (topic, vector) =>
LabeledPoint(topic, vector) }
val rawPredictionAndLabel = rawTest.map(p =>
(rawModel.predict(p.features), p.label))
val rawAccuracy = 1.0 * rawPredictionAndLabel.filter(x => x._1
== x._2).count() / rawTest.count()
println(rawAccuracy)
val rawMetrics = new MulticlassMetrics(rawPredictionAndLabel)
println(rawMetrics.weightedFMeasure)
也许令人惊讶的是,原始模型表现得相当不错,尽管准确性和 F-度量都比 tf-idf 模型低几个百分点。这在一定程度上也反映了朴素贝叶斯模型适合以原始频率计数形式的数据。
0.7661975570897503
0.7653320418573546
使用 Spark 2.0 进行文本分类
在本节中,我们将使用 libsvm 版本的20newsgroup数据,使用 Spark DataFrame-based API 对文本文档进行分类。在当前版本的 Spark 中,支持 libsvm 版本 3.22 (www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/)
从以下链接下载 libsvm 格式的数据并将输出文件夹复制到 Spark-2.0.x 下。
访问以下链接以获取20newsgroup libsvm数据:1drv.ms/f/s!Av6fk5nQi2j-iF84quUlDnJc6G6D
从org.apache.spark.ml中导入适当的包并创建 Wrapper Scala:
package org.apache.spark.examples.ml
import org.apache.spark.SparkConf
import org.apache.spark.ml.classification.NaiveBayes
import
org.apache.spark.ml.evaluation.MulticlassClassificationEvaluator
import org.apache.spark.sql.SparkSession
object DocumentClassificationLibSVM {
def main(args: Array[String]): Unit = {
}
}
接下来,我们将将libsvm数据加载到 Spark DataFrame 中:
val spConfig = (new SparkConf).setMaster("local")
.setAppName("SparkApp")
val spark = SparkSession
.builder()
.appName("SparkRatingData").config(spConfig)
.getOrCreate()
val data = spark.read.format("libsvm").load("./output/20news-by-
date-train-libsvm/part-combined")
val Array(trainingData, testData) = data.randomSplit(Array(0.7,
0.3), seed = 1L)
从org.apache.spark.ml.classification.NaiveBayes类中实例化NaiveBayes模型并训练模型:
val model = new NaiveBayes().fit(trainingData)
val predictions = model.transform(testData)
predictions.show()
以下表格是预测 DataFrame 的输出.show()命令:
+----+-------------------+--------------------+-----------------+----------+
|label| features | rawPrediction | probability |prediction|
+-----+------------------+--------------------+-----------------+----------+
|0.0|(262141,[14,63,64...|[-8972.9535882773...|[1.0,0.0,1.009147...| 0.0|
|0.0|(262141,[14,329,6...|[-5078.5468878602...|[1.0,0.0,0.0,0.0,...| 0.0|
|0.0|(262141,[14,448,5...|[-3376.8302696656...|[1.0,0.0,2.138643...| 0.0|
|0.0|(262141,[14,448,5...|[-3574.2782864683...|[1.0,2.8958758424...| 0.0|
|0.0|(262141,[14,535,3...|[-5001.8808481928...|[8.85311976855360...| 12.0|
|0.0|(262141,[14,573,8...|[-5950.1635030844...|[1.0,0.0,1.757049...| 0.0|
|0.0|(262141,[14,836,5...|[-8795.2012408412...|[1.0,0.0,0.0,0.0,...| 0.0|
|0.0|(262141,[14,991,2...|[-1892.8829282793...|[0.99999999999999...| 0.0|
|0.0|(262141,[14,1176,...|[-4746.2275710890...|[1.0,5.8201E-319,...| 0.0|
|0.0|(262141,[14,1379,...|[-7104.8373572933...|[1.0,8.9577444139...| 0.0|
|0.0|(262141,[14,1582,...|[-5473.6206675848...|[1.0,5.3185120345...| 0.0|
|0.0|(262141,[14,1836,...|[-11289.582479676...|[1.0,0.0,0.0,0.0,...| 0.0|
|0.0|(262141,[14,2325,...|[-3957.9187837274...|[1.0,2.1880375223...| 0.0|
|0.0|(262141,[14,2325,...|[-7131.2028421844...|[1.0,2.6110663778...| 0.0|
|0.0|(262141,[14,3033,...|[-3014.6430319605...|[1.0,2.6341580467...| 0.0|
|0.0|(262141,[14,4335,...|[-8283.7207917560...|[1.0,8.9559011053...| 0.0|
|0.0|(262141,[14,5173,...|[-6811.3466537480...|[1.0,7.2593916980...| 0.0|
|0.0|(262141,[14,5232,...|[-2752.8846541292...|[1.0,1.8619374091...| 0.0|
|0.0|(262141,[15,5173,...|[-8741.7756643949...|[1.0,0.0,2.606005...| 0.0|
|0.0|(262141,[168,170,...|[-41636.025208445...|[1.0,0.0,0.0,0.0,...| 0.0|
+----+--------------------+-------------------+-------------------+--------+
测试模型的准确性:
val accuracy = evaluator.evaluate(predictions)
println("Test set accuracy = " + accuracy)
spark.stop()
如下输出所示,该模型的准确性高于0.8:
Test set accuracy = 0.8768458357944477
Accuracy is better as the Naive Bayes implementation has improved
from Spark 1.6 to Spark 2.0
Word2Vec 模型
到目前为止,我们已经使用了词袋向量,可选地使用一些加权方案,如 tf-idf 来表示文档中的文本。另一个最近流行的模型类别与将单个单词表示为向量有关。
这些模型通常在某种程度上基于语料库中单词之间的共现统计。一旦计算出向量表示,我们可以以类似于使用 tf-idf 向量的方式使用这些向量(例如,将它们用作其他机器学习模型的特征)。这样一个常见的用例是根据它们的向量表示计算两个单词之间的相似性。
Word2Vec 是指这些模型中的一个特定实现,通常被称为分布式向量表示。MLlib 模型使用skip-gram模型,该模型旨在学习考虑单词出现上下文的向量表示。
虽然对 Word2Vec 的详细处理超出了本书的范围,但 Spark 的文档spark.apache.org/docs/latest/mllib-feature-extraction.html#word2vec中包含有关算法的更多详细信息以及参考实现的链接。
Word2Vec 的主要学术论文之一是Tomas Mikolov,Kai Chen,Greg Corrado和Jeffrey Dean。Efficient Estimation of Word Representations in Vector Space。在 2013 年 ICLR 研讨会论文集中。
它可以在arxiv.org/pdf/1301.3781.pdf上找到。
在词向量表示领域的另一个最近的模型是 GloVe,网址为www-nlp.stanford.edu/projects/glove/。
您还可以利用第三方库进行词性标注。例如,Stanford NLP 库可以连接到 scala 代码中。有关如何执行此操作的更多详细信息,请参阅此讨论线程(stackoverflow.com/questions/18416561/pos-tagging-in-scala)。
在 20 Newsgroups 数据集上使用 Spark MLlib 的 Word2Vec
在 Spark 中训练 Word2Vec 模型相对简单。我们将传入一个 RDD,其中每个元素都是一个术语序列。我们可以使用我们已经创建的标记化文档的 RDD 作为模型的输入。
object Word2VecMllib {
def main(args: Array[String]) {
val sc = new SparkContext("local[2]", "Word2Vector App")
val path = "./data/20news-bydate-train/alt.atheism/*"
val rdd = sc.wholeTextFiles(path)
val text = rdd.map { case (file, text) => text }
val newsgroups = rdd.map { case (file, text) =>
file.split("/").takeRight(2).head }
val newsgroupsMap =
newsgroups.distinct.collect().zipWithIndex.toMap
val dim = math.pow(2, 18).toInt
var tokens = text.map(doc => TFIDFExtraction.tokenize(doc))
import org.apache.spark.mllib.feature.Word2Vec
val word2vec = new Word2Vec()
val word2vecModel = word2vec.fit(tokens)
word2vecModel.findSynonyms("philosophers", 5).foreach(println)
sc.stop()
}
}
我们的代码在 Scala 对象Word2VecMllib中:
import org.apache.spark.SparkContext
import org.apache.spark.mllib.linalg.{SparseVector => SV}
object Word2VecMllib {
def main(args: Array[String]) {
}
}
让我们从加载文本文件开始:
val sc = new SparkContext("local[2]", "Word2Vector App")
val path = "./data/20news-bydate-train/alt.atheism/*"
val rdd = sc.wholeTextFiles(path)
val text = rdd.map { case (file, text) => text }
val newsgroups = rdd.map { case (file, text) =>
file.split("/").takeRight(2).head }
val newsgroupsMap =
newsgroups.distinct.collect().zipWithIndex.toMap
val dim = math.pow(2, 18).toInt
var tokens = text.map(doc => TFIDFExtraction.tokenize(doc))
我们使用 tf-idf 创建的标记作为 Word2Vec 的起点。让我们首先初始化对象并设置一个种子:
import org.apache.spark.mllib.feature.Word2Vec
val word2vec = new Word2Vec()
现在,让我们通过在 tf-idf 标记上调用word2vec.fit()来创建模型:
val word2vecModel = word2vec.fit(tokens)
在训练模型时,您将看到一些输出。
训练完成后,我们可以轻松地找到给定术语的前 20 个同义词(即,与输入术语最相似的术语,由单词向量之间的余弦相似性计算得出)。例如,要找到与philosopher最相似的 20 个术语,请使用以下代码行:
word2vecModel.findSynonyms(philosophers", 5).foreach(println)
sc.stop()
从以下输出中可以看出,大多数术语与曲棍球或其他相关:
(year,0.8417112940969042) (motivations,0.833017707021745) (solution,0.8284719617235932) (whereas,0.8242997325042509) (formed,0.8042383351975712)
在 20 个新闻组数据集上使用 Spark ML 的 Word2Vec
在本节中,我们将看看如何使用 Spark ML DataFrame 和 Spark 2.0.X 中的新实现来创建 Word2Vector 模型。
我们将从数据集创建一个 DataFrame:
val spConfig = (new SparkConf).setMaster("local").setAppName("SparkApp")
val spark = SparkSession
.builder
.appName("Word2Vec Sample").config(spConfig)
.getOrCreate()
import spark.implicits._
val rawDF = spark.sparkContext
.wholeTextFiles("./data/20news-bydate-train/alt.atheism/*")
val temp = rawDF.map( x => {
(x._2.filter(_ >= ' ').filter(! _.toString.startsWith("(")) )
})
val textDF = temp.map(x => x.split(" ")).map(Tuple1.apply)
.toDF("text")
接下来将创建Word2Vec类,并在上面创建的 DataFrame textDF上训练模型:
val word2Vec = new Word2Vec()
.setInputCol("text")
.setOutputCol("result")
.setVectorSize(3)
.setMinCount(0)
val model = word2Vec.fit(textDF)
val result = model.transform(textDF)
result.select("result").take(3).foreach(println)
)
现在让我们尝试找一些hockey的同义词:
以下
val ds = model.findSynonyms("philosophers", 5).select("word")
ds.rdd.saveAsTextFile("./output/philiosphers-synonyms" + System.nanoTime())
ds.show(
将生成以下输出:
+--------------+ | word | +--------------+ | Fess | | guide | |validinference| | problems. | | paperback | +--------------+
正如您所看到的,结果与我们使用 RDD 得到的结果非常不同。这是因为 Spark 1.6 和 Spark 2.0/2.1 中的 Word2Vector 转换两种实现不同。
总结
在本章中,我们深入研究了更复杂的文本处理,并探索了 MLlib 的文本特征提取能力,特别是 tf-idf 术语加权方案。我们介绍了使用生成的 tf-idf 特征向量来计算文档相似性和训练新闻组主题分类模型的示例。最后,您学会了如何使用 MLlib 的尖端 Word2Vec 模型来计算文本语料库中单词的向量表示,并使用训练好的模型找到具有类似给定单词的上下文含义的单词。我们还研究了如何在 Spark ML 中使用 Word2Vec
在下一章中,我们将看一看在线学习,您将学习 Spark Streaming 与在线学习模型的关系。