王子兴优秀作者
原创内容 来源:小居数码网 时间:2024-07-28 14:34:01 阅读() 收藏:51 分享:78 爆
导读:您正在阅读的是关于【数码知识】的问题,本文由科普作家协会,生活小能手,著名生活达人等整理监督编写。本文有1339个文字,大小约为5KB,预计阅读时间4分钟。
项目采用ALS作为协同过滤算法,根据MongoDB中的用户评分表计算离线的用户商品推荐列表以及商品相似度矩阵。
通过ALS训练出来的Model来计算所有当前用户商品的推荐列表,主要思路如下:
1. userId和productId做笛卡尔积,产生(userId,productId)的元组
2. 通过模型预测(userId,productId)对应的评分。
3. 将预测结果通过预测分值进行排序。
4. 返回分值最大的K个商品,作为当前用户的推荐列表。
最后生成的数据结构如下:将数据保存到MongoDB的UserRecs表中
新建recommender的子项目OfflineRecommender,引入spark、scala、mongo和jblas的依赖:
<dependencies> <dependency> <groupId>org.scalanlp</groupId> <artifactId>jblas</artifactId> <version>${jblas.version}</version> </dependency> <!-- Spark的依赖引入 --> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-mllib_2.11</artifactId> </dependency> <!-- 引入Scala --> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> </dependency> <!-- 加入MongoDB的驱动 --> <!-- 用于代码方式连接MongoDB --> <dependency> <groupId>org.mongodb</groupId> <artifactId>casbah-core_2.11</artifactId> <version>${casbah.version}</version> </dependency> <!-- 用于Spark和MongoDB的对接 --> <dependency> <groupId>org.mongodb.spark</groupId> <artifactId>mongo-spark-connector_2.11</artifactId> <version>${mongodb-spark.version}</version> </dependency></dependencies>
同样经过前期的构建样例类、声明配置、创建SparkSession等步骤,可以加载数据开始计算模型了。
核心代码如下:
case class ProductRating(userId: Int, productId: Int, score: Double, timestamp: Int)case class MongoConfig(uri:String, db:String)// 标准推荐对象,productId,scorecase class Recommendation(productId: Int, score:Double)// 用户推荐列表case class UserRecs(userId: Int, recs: Seq[Recommendation])// 商品相似度(商品推荐)case class ProductRecs(productId: Int, recs: Seq[Recommendation])object OfflineRecommmeder { // 定义常量 val MONGODB_RATING_COLLECTION = "Rating" // 推荐表的名称 val USER_RECS = "UserRecs" val PRODUCT_RECS = "ProductRecs" val USER_MAX_RECOMMENDATION = 20 def main(args: Array[String]): Unit = { // 定义配置 val config = Map( "spark.cores" -> "local[*]", "mongo.uri" -> "mongodb://localhost:27017/recommender", "mongo.db" -> "recommender" ) // 创建spark session val sparkConf = new SparkConf().setMaster(config("spark.cores")).setAppName("OfflineRecommender") val spark = SparkSession.builder().config(sparkConf).getOrCreate() implicit val mongoConfig = MongoConfig(config("mongo.uri"),config("mongo.db")) import spark.implicits._//读取mongoDB中的业务数据val ratingRDD = spark.read.option("uri",mongoConfig.uri).option("collection",MONGODB_RATING_COLLECTION).format("com.mongodb.spark.sql").load().as[ProductRating].rdd.map(rating=> (rating.userId, rating.productId, rating.score)).cache()//用户的数据集 RDD[Int]val userRDD = ratingRDD.map(_._1).distinct()val prodcutRDD = ratingRDD.map(_._2).distinct() //创建训练数据集val trainData = ratingRDD.map(x => Rating(x._1,x._2,x._3))// rank 是模型中隐语义因子的个数, iterations 是迭代的次数, lambda 是ALS的正则化参val (rank,iterations,lambda) = (50, 5, 0.01)//调用ALS算法训练隐语义模型val model = ALS.train(trainData,rank,iterations,lambda)//计算用户推荐矩阵val userProducts = userRDD.cartesian(productRDD)// model已训练好,把id传进去就可以得到预测评分列表RDD[Rating] (userId,productId,rating)val preRatings = model.predict(userProducts)val userRecs = preRatings.filter(_.rating > 0).map(rating => (rating.user,(rating.product, rating.rating))).groupByKey() .map{case (userId,recs) => UserRecs(userId,recs.toList.sortWith(_._2 >_._2).take(USER_MAX_RECOMMENDATION).map(x => Recommendation(x._1,x._2)))}.toDF()userRecs.write.option("uri",mongoConfig.uri).option("collection",USER_RECS).mode("overwrite").format("com.mongodb.spark.sql").save() //TODO:计算商品相似度矩阵 // 关闭sparkspark.stop()}}
上面就是小居数码小编今天给大家介绍的关于(基于用户的协同过滤推荐算法代码)的全部内容,希望可以帮助到你,想了解更多关于数码知识的问题,欢迎关注我们,并收藏,转发,分享。
94%的朋友还想知道的:
(368)个朋友认为回复得到帮助。
部分文章信息来源于以及网友投稿,转载请说明出处。
本文标题:隐语义模型推荐系统(基于用户的协同过滤推荐算法代码):http://sjzlt.cn/shuma/152277.html