神经网络框架使用的是tensorflow,版本是1.14.0。
推荐系统的核心是根据用户的兴趣需求,给用户推荐喜欢的内容。常用的推荐算法有启发式推荐算法,可分为基于用户的协同过滤,基于物品的协同过滤。
主要考虑的是用户和用户之间的相似度,只要找出相似用户喜欢的物品,并预测目标用户对对应物品的评分,就可以找到评分最高的若干个物品推荐给用户。
举例:--------+--------+--------+--------+--------+|X|Y|Z|R|--------+--------+--------+--------+--------+a|5|4|1|5|--------+--------+--------+--------+--------+b|4|3|1||--------+--------+--------+--------+--------+c|2|2|5|1|--------+--------+--------+--------+--------+a用户给X物品打了5分,给Y打了4分,给Z打了1分b用户给X物品打了4分,给Y打了3分,给Z打了1分c用户给X物品打了2分,给Y打了2分,给Z打了5分那么很容易看到a用户和b用户非常相似,但是b用户没有看过R物品,那么我们就可以把和b用户很相似的a用户打分很高的R物品推荐给b用户,这就是基于用户的协同过滤。2、基于物品的协同过滤(ICF)主要考虑的是物品和物品之间的相似度,只有找到了目标用户对某些物品的评分,那么就可以对相似度高的类似物品进行预测,将评分最高的若干个相似物品推荐给用户。
举例:--------+--------+--------+--------+--------+|X|Y|Z|R|--------+--------+--------+--------+--------+a|5|5|1|5|--------+--------+--------+--------+--------+b|5|5|1|2|--------+--------+--------+--------+--------+c|5|5|5|1|--------+--------+--------+--------+--------+d|5||||--------+--------+--------+--------+--------+a用户给X物品打了5分,给Y打了5分,给Z打了1分,给R打了5分b用户给X物品打了5分,给Y打了5分,给Z打了1分,给R打了2分c用户给X物品打了5分,给Y打了5分,给Z打了5分,给R打了1分那么很容易看到a用户、b用户、c用户都喜欢图书X,Y,那么当用户d也喜欢图书X时,就会把图书Y推荐给用户d因为基于用户a、b、c的评分,系统会认为喜欢X书籍的人在很大程度上会喜欢Y书籍。这就是基于物品的协同过滤。3、启发式推荐算法优缺点优点:易于实现,并且推荐结果的可解释性强。
缺点:
难以处理冷启动问题:当一个用户或一个物品没有足够的评分数据时,启发式协同过滤算法无法对其进行有效的预测,因为它需要依赖于已有的评分数据。
对数据稀疏性敏感:如果数据集中存在大量的缺失值,启发式协同过滤算法的预测准确率会受到影响,因为它需要依赖于完整的评分数据来进行预测。
推荐类型单一化:推荐结果容易陷入一个小范围的困境,如果某个用户特别喜欢小说类的图书,那么这种系统就会不断地推荐小说类图书,实际上这个用户很有可能也喜欢历史、文学、传记类的图书,但是囿于冷启动问题,无法进行推荐。
为了解决启发式推荐算法的问题,基于神经网络的协同过滤算法诞生了,神经网络的协同过滤算法可以通过将用户和物品的特征向量作为输入,来预测用户对新物品的评分,从而解决冷启动问题。
对数据稀疏性的鲁棒性:神经网络的协同过滤算法可以自动学习用户和物品的特征向量,并能够通过这些向量来预测评分,因此对于数据稀疏的情况也能进行有效的预测。
更好的预测准确率:神经网络的协同过滤算法可以通过多层非线性变换来学习用户和物品之间的复杂关系,从而能够提高预测准确率。
可解释性和灵活性:神经网络的协同过滤算法可以通过调整网络结构和参数来优化预测准确率,并且可以通过可视化方法来解释预测结果。
所以基于神经网络协同过滤模型是目前推荐系统的主流形态。
安装库:
pipinstallnumpypipinstallpandaspipinstalltensorflow1、构造数据矩阵从用户评分表中加载所有用户的评分数据。
User125710...1610913710468105461054810550013.0NaNNaNNaNNaN...NaNNaN3.05.0NaNNaN125.05.0NaNNaNNaN...5.0NaNNaN3.0NaNNaN235.0NaNNaNNaNNaN...NaN4.05.04.0NaNNaN34NaNNaN2.04.05.0...NaNNaNNaNNaN5.03.0467NaNNaNNaNNaNNaN...NaNNaNNaNNaNNaNNaN59NaNNaNNaNNaNNaN...NaNNaN4.05.0NaNNaN[6rowsx25columns]有数据的列代表用户评分过,1-5代表评分高低,如果没评过分就是NAN,现在我们的目的就是“猜”出来这些没评分过的图书评分是多少?从而根据评分数据完成图书推荐系统。
使用神经网络计算,必须将数据进行向量化操作。
defget_data_vector(data):'''对矩阵进行向量化,便于神经网络学习'''user_index=data[data.columns[0]]data=data.reset_index(drop=True)data[data.columns[0]]=data.index.astype('int')scaler=5#评分最高为5,把用户的评分归一化到0-1df_vector=pd.melt(data,id_vars=[data.columns[0]],ignore_index=True,var_name='book_id',value_name='rate').dropna()df_vector.columns=['user_id','book_id','rating']df_vector['rating']=df_vector['rating']/scalerdf_vector['user_id']=df_vector['user_id'].apply(lambdax:user_index[x])print(df_vector)returndf_vector输出:
user_idbook_idrating0110.61211.02311.07221.015450.421470.8274101.0301150.6...3、数据进行训练具体流程为:
1、对数据进行打标签操作2、定义64个维度针对向量进行处理(神经网络是非线性多维度)3、创建NCF模型4、合并embeddings向量5、添加全连接层6、编译模型7、模型评估8、模型保存代码:
全部用户预测结果book_1book_2book_5...book_10546book_10548book_10550user_13.1104374.3246922.444845...4.4622384.3998631.958362user_24.5816444.8192674.083292...4.8273014.8413833.094142user_34.7287464.8845804.376239...4.8922474.8998433.552579user_44.5259984.8032954.025316...4.8198804.8325023.011951user_54.7805894.9103664.502923...4.9165624.9228593.671103user_94.5512424.8203214.107899...4.8335544.8457063.052876[6rowsx24columns]模型评估:
神经网络协同推荐(NCF):准确率是0.778,精准度是0.611,召回率是0.778,F1值是0.683可以看到,机器通过神经网络的“学习”,直接“猜出来”所有用户给未评分的书籍可能会评的分数。那么,我们只需要给这些用户推荐他未评分的,但是机器“猜”他评分高的图书即可。
代码:
defget_ncf_recommend(user_id,n=10):'''#获取推荐user_id:用户idn:只取前十个推荐结果'''scaler=5#特征标准化:最高分为5,需要归一化到0~1model=load_model('ncf.dat')#加载模型#加载标签user_encoder=joblib.load('user_encoder.pkl')book_encoder=joblib.load('book_encoder.pkl')result_df={}book_rates=RateBook.objects.all().values('book_id').distinct()forbookinbook_rates:book_id=book['book_id']user=f'user_{user_id}'book=f"book_{book_id}"pred_user_id=user_encoder.transform([user])pred_book_id=book_encoder.transform([book])result=model.predict(x=[pred_user_id,pred_book_id],verbose=0)ifnotRateBook.objects.filter(user_id=user_id,book_id=book_id):#过滤掉用户已评分过的result_df[book_id]=result[0][0]*scalerresult_df_sort=sorted(result_df.items(),key=lambdax:x[1],reverse=True)#推荐结果按照评分降序排列print('预测结果',result_df_sort)recommend_ids=[]forrdsinresult_df_sort[:n]:recommend_ids.append(rds[0])print(f'前{n}个推荐结果',recommend_ids)returnrecommend_ids输出:
预测结果[(10,4.443216919898987),(10548,4.3998634815216064),(1610,4.373263120651245),(2,4.324692189693451),(9137,2.871088683605194),(5,2.4448448419570923),(7,2.353670746088028),(683,2.274640202522278),(51,2.2518157958984375),(24,2.241026908159256),(86,2.1394330263137817),(10550,1.9583618640899658)]前10个推荐结果[10,10548,1610,2,9137,5,7,683,51,24]5、总结我们可以看到,整个流程,深度学习框架Tensorflow帮我们做了大部分的工作,我们其实只是简单的提供了基础数据而已。
首先定义一个embedding(多维空间)用来理解需要学习的原始数据:
一个用户对象(含一个属性userId)
一个图书对象(含三个属性:bookId,userId,rating(用户评分))
这里需要进行学习的具体就是让机器理解那个“评分:rating”的含义)这里定义的embedding维度为64,本质就是让机器把评分rating的值当作成一个64维度的空间来进行理解(其实就是从这个rating值当中提取出64个特征来重新定义这个rating)
随后对embedding进行降维处理:
具体的操作与使用的降维函数曲线有关,这里采用的是先降为32维再降为1维的两道操作方式,原来的代表rating的embedding空间从64维降低到了1维。而此时的输出output对象就是机器对rating完播向量所做出来的“自己的理解”。
最后通过对学习完的输出项output进行mask(遮罩)测试,通过变换不同的mask(遮罩)来测试结果是否与原始数据相近,或一致,从而来证实机器学习的效果,也就是上文提到的反向传播方式的逆运算。