我想知道Spark Cosine Similarity是否可以使用Sparse输入数据?我见过一些例子,其中输入由以下形式的空格分隔的特征线组成:
id feat1 feat2 feat3 ...
但我有一个固有的稀疏,隐式反馈设置,并希望在表单中输入:
id1 feat1:1 feat5:1 feat10:1
id2 feat3:1 feat5:1 ..
...
我想利用稀疏性来改进计算.最后,我希望使用DIMSUM算法计算最近并入Spark的所有对相似度.有人会建议一个稀疏输入格式,可以在火花上使用DIMSUM吗?我检查了示例代码,并在注释中说“输入必须是一个密集的矩阵”,但这个代码是在示例中,所以我不知道它是仅仅指一个特定的情况.
spark/examples/src/main/scala/org/apache/spark/examples/mllib/CosineSimilarity.scala
这就是我所指的示例代码的路径.
表示稀疏输入格式应该看起来的几行(从推荐系统的角度来看,user_id feat1:1 feat2:1 …),以处理余弦相似性,将非常有用.
如果我将user_ids保留为字符串也可以吗?
我知道libsvm格式是类似的,但在这种情况下没有用户ID的概念,只有具有功能的输入实例,所以我想知道libsvm格式将如何转换为推荐系统域?
我为非常简单的问题道歉,我对Spark非常新,我只是弄湿了脚.
任何帮助将非常感激.提前致谢!
最佳答案 为什么不?天真的解决方案可能看起来或多或少像这样:
// Parse input line
def parseLine(line: String) = {
def parseFeature(feature: String) = {
feature.split(":") match {
case Array(k, v) => (k, v.toDouble)
}
}
val bits = line.split(" ")
val id = bits.head
val features = bits.tail.map(parseFeature).toMap
(id, features)
}
// Compute dot product between to dicts
def dotProduct(x: Map[String, Double], y: Map[String, Double]): Double = ???
// Compute norm of dict
def norm(x: Map[String, Double]): Double = ???
// Compute cosine similarity
def sparseCosine(x: Map[String, Double], y: Map[String, Double]): Double = {
dotProduct(x, y) / (norm(x) * norm(y))
}
// Parse input lines
val parsed = sc.textFile("features.txt").map(parseLine)
// Find unique pairs
val pairs = parsed.cartesian(parsed).filter(x => x._1._1 != x._2._1)
// Compute cosine similarity between pairs
pairs.map { case ((k1, m1), (k2, m2)) => ((k1, k2), sparseCosine(m1, m2)) }