Python程序设计与实践大作业实验报告陆阳孙勇裘升明_第1页
Python程序设计与实践大作业实验报告陆阳孙勇裘升明_第2页
Python程序设计与实践大作业实验报告陆阳孙勇裘升明_第3页
Python程序设计与实践大作业实验报告陆阳孙勇裘升明_第4页
Python程序设计与实践大作业实验报告陆阳孙勇裘升明_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、浙江工商大学计算机与信息工程学院 Python程序设计与实践大作业报告专 业:计科班级: 1404学号:二姓名: 陆阳,孙勇,裘昇明指导教师:蒲32015年6 月28日题目介绍:在真实的业务场景下,我们往往需要对所有商品的一个子集构建个性化推荐模型。在完成这件任务的过程中,我们不仅需要利用用户在这个商品子集上的行为数据, 往往还需 要利用更丰富的用户行为数据。定义如下的符号:u用户集合I 冏品全集p商品子集,p?iD用户对商品全集的行为数据集合那么我们的目标是利用D来构造U中用户对P中商品的推荐模型。数据说明:竞赛数据包含两个部分。第一部分是用户在商品全集上的移动端行为数据( D),表名为ti

2、anchi_mobile_recommend_train_user ,包含如下字段:字段字段说明提取说明?user_id?用户标识?抽样&字段脱敏?item_id?商品标识?字段脱敏?behavior_type?用户对商品的行为类型?包括浏览、收藏、加购物车、购买,对应取值分别是 1、2、3、4。?user_geohash?用户位置的空间标识,可以为空?由经纬度通过保密的算法生成item_category商品分类标识字段脱敏time行为时间精确到小时级别第二个部分是商品子集(P),表名为tianchi_mobile_recommend_train_item ,包含如下字段:字段字段说明

3、提取说明?item_id?商品标识?抽样&字段脱敏?item_ geohash?商品位置的空间标识,可以为空?由经纬度通过保密的算法生成?item_category?商品分类标识?字段脱敏训练数据包含了抽样出来的一定量用户在一个月时间()之内的移动端行为数据(D),评分数据是这些用户在这个一个月之后的一天()对商品子集(P)的购买数据。参赛者要使用训练数据建立推荐模型,并输出用户在接下来一天对商品子集购买行为的预测结 果。?大作业报告内容包括以下几个部分1、数据分组统计:可统计有多少用户、商品、商品类别等信息,甚至每天各种行为的统计数。如图:还有,在给出的用户行为数据中,有些用户在整个

4、11-18日至12-18日对商品有浏览 行为记录,但是从未产生过购买行为,这些用户会否在12月19号购买商品实难预测,因 此,我们去除这些无购买行为的用户信息,认为这些用户在12月19号还是不会购买任何商品。贴关键代码import timeimport pandas as pdstart=()df_items=("")df_items2=("")df_items3=()df_items4=()df_items5=()df_items3=df_items"item_id".drop_duplicates()df_items4=df_it

5、ems"item_category".drop_duplicates()df_items5=df_items"item_id".drop_duplicates()df_items6=df_items2"user_id".drop_duplicates()df_items7=df_items2"item_id".drop_duplicates()df_items8=df_items2"item_category".drop_duplicates()total_behavior_num=len(df

6、_items2)df_items9=df_items2=4df_items10=df_items2!=4positive_num=len(df_items9)negative_num=len(df_items10)item_num=len(df_items3)item_categories_num=len(df_items4)item_geohash_num=len(df_items5)user_num=len(df_items6)item_full_num=len(df_items7)item_categories_full_num=len(df_items8)end=()print 

7、9; 商品子集中商品个数为: ',item_numprint ' 商品子集中商品类型数为: ',item_categories_numprint ' 商品子集中带 geohash 信息的商品个数为: ',item_geohash_numprint ' 用户数一共有: ',user_numprint ' 商品全集中商品个数为: ',item_full_numprint '商品全集中商品种类数数为:',item_categories_full_numprint '商品全集中共有d条行为记录(total_

8、behavior_num)print '消费行为记录中负正样本比为%d:1' %(negative_num/positive_num)print ' 一共耗时 %f 秒' %(end-start)2、数据预处理 重新整理时间重新整理数据的时间,也就是 Time字段,在数据统计分组中也提到过,因为原始数据的用户行为时间记录是从11 月 18 日 0 时到 12月 18 日 23 时,精确到小时级,为了方便数据集的划分,需要将用户行为时间数据整理为 0-30 天,以天为单位,即 11 月 18 日的time 为 0、 11 月 19 日的 time 为 1,以此类推

9、。贴关键代码import pandas as pdfrom datetime import *import timet0=()begin_time=datetime(2014,11,18,0,0)def trans_time(str_time):entry_time=(str_time,"%Y-%m-%d %H")datatime_delta=(entry_time-begin_time).daysreturn int(datatime_delta)df_train_user=("")print "=n"print " 时间

10、转换进行中.n"("",index=False)t1=()print " 时间转换结束!n"print " 转换时间共耗时f秒"(t1-t0) 划分训练集和测试集在分类问题中, 模型需要经过训练集的学习, 才能用于测试集, 而训练集和测试集在形式上的区别在于前者有类别标签, 后者则需要模型输出相应的类别标签。 这里的问题是依据 31 天的用户操作记录预测第 32 天的购买情况, 所以通常来说, 训练集的构建需要利用 31 天的数据,而其相应的类别标签如何标注在训练集中?这个与你如何划分训练集和测试集有关;而测试集的构建则可用

11、到 31 天的完整数据。下面举个例子,用于解释训练集和测试集的具体表现形式。训练集样本示例测试集样本示例训练集样本示例中的 user_id, brand_id ( item_id )用于表示唯一的样本id ,而特征 feature_1, feature_2 则用 31 天的数据构建而来。本次比赛中, 我们划分训练集和测试集所用的分割日期是每 10 天。 第 0-9 天为一个训练集, 用第 10 天的数据给第 0-9 天数据添加类别标签。第 1-10 天为一个训练集,用第 11 天的数据给第 1-10 天数据添加类别标签,依次类推,最后是第20-29天为一个训练集,用第30天的数据给第20-29

12、天数据添加类别标签。测试集为第 21-30 天的数据。贴关键代码import pandas as pdfrom datetime import *import timenum=22start=()df_train_user=("")df_items=("")df_items="item_id"=df_items=afor i in range(num):print " 划分训练集:"+str(i)j=i+10if j!=31:df_set=df_train_user>=i) & <j)(&quo

13、t;data/"+str(j)+".csv",index=False)df_test=df_train_user=j) & =4)"user_id","item_id"df_test=()df_test=(left=df_test,right=df_items,how="inner").drop_duplicates()("data/"+"result"+str(j)+".csv",index=False)else:df_set=df_t

14、rain_user>=i)&<j)("data/"+"",index=False)end=()print ' 训练集划分耗时 %f 秒' %(end-start) 平衡正负样本正负样本比例需从1:100 降为 1:101:20 之间。贴关键代码import pandas as pdimport randomimport timefrom get_features import *start=()df_feature2=()j=10for k in range(20):i=j+kdf_feature=("dat

15、a_features/train"+str(i)+".csv")df_feature_p= df_feature=1df_feature_n = df_feature=0lp = len(df_feature_p)ln = len(df_feature_n)if float(ln)/lp > 14:a = range(0,ln)slice = (a,lp*14) # lp*15df_feature_n = slicedf_feature = (df_feature_p,df_feature_n,ignore_index=True)df_feature2=(d

16、f_feature,df_feature2)("features/",index=False)end=()print ' 对训练集抽样耗时 f秒'(end-start)3、特征提取特征提取在数据挖掘中很重要, 那么为什么它们那么重要呢?之前提到过, 要想输出测试集的类别标签,需要模型在训练集经过学习,那么模型在训练集上学习的是什么?我们知道,在给模型输入数据的时候,实际上模型用到的都是特征(及其对应的类别标签) , 而特征就是用于描述为什么该样本的类别标签就是如此, 在本赛题中即用于描述某用户为什么购买/ 不购买某商品。比如, 用户购买某商品的原因, 是因为

17、以前经常买,信得过,那么这里可以用 “用户购买该商品的天数/ 用户访问该商品的天数” 来刻画用户对该品牌的忠诚度。当然,并不是单一的特征就能描述所有情况,通常来说,需要针对所有可能的情形进行考虑,从而深刻而全面地刻画用户购买 / 不购买商品的原因。这样,模型才能真正学到其中的规律,从而在测试集表现优异。而这一过程,就称之为 特征工程显然,要做好特征工程,需要我们自身对 “用户会否购买商品” 这一业务具有较深刻的理解,即领域知识,并将其用模型可理解的方式表现出来,如何抽取特征?1、统计用户在31 天中的购买量、点击量、收藏量、加购物车次数、有操作记录的天数、发生购买的天数、点击转购买率等等,并以

18、点击转购买率做升序 / 降序排序进行观察,可以发现点击量越高的, 点击转购买率也往往越低, 尤其点击量极高的用户, 往往购买量为0。由此可以考虑将用户购买量、点击转购买率等一系列特征用于描述用户是否会在未来一天发生购买。2、统计用户从初次访问商品到最终购买商品的时间,可以发现绝大多数购买都是当天接触当天完成, 越往后用户购买的可能性越低。 由此可以推测用户对商品的购买意愿是随着距离上次访问的时间拉长而衰减的,进而可以使用衰减函数来模拟该购买意愿。一方面,利用领域知识对数据进行分析、实验验证。另一方面,从分析的结果、实验的反馈来更新领域知识。这是一个不断迭代的过程,需要成体系、且不断地完善。以下

19、仅供参考:( 1)、基本统计类特征A. 销量(分割日期前1、 2、 3、 4、 5、 10 天)B.成交订单数(以同一天同一个用户为一个订单)C. 购买人数D.以上3类特征分别再针对点击、收藏、加购物车等进行统计( 2)、转化率类特征A. 销量 / 点击数B.成交订单数/点击订单数C. 购买人数 / 点击人数D.上述3个特征分别在针对收藏、购物车等操作进行统计( 3)、比值类特征A.返客率(某周期内多次购买的用户数/总购买用户数)B.老客户率(3天【或其他周期7、15、30】前曾购买过且在前3天内再次购买的用户数/3 天内总购买用户数)C.人均点击数、人均购买量、人均收藏量、人均加购物车量等我

20、们的做法:1. 用户所有行为总量提取用户所有行为总量作为第一个特征,它是指每个用户对每个商品所有行为的总量,其中的所有行为包括点击行为、收藏行为、购物车行为、购买行为。用户所有行为总量定义为前10 天的用户行为数据中用户对商品全集的所有行为总量, 包括点击量、 收藏量、购物车量、购买量。从用户所有行为总量中,可以得到用户对某商品产生的行为次数,从而推测出该用户对阿里巴巴移动电商平台的操作频率和忠诚度, 以此做出合理的个性化推荐。 之所以选择前10 天作为时间节点,是由于划分之后的每个训练集和测试集都以 10 天为单位。2. 点击量定义数据集的每个用户对商品全集中的商品的点击行为的总和为点击量。

21、 从点击量中,可以知道用户浏览了几次某商品, 从而推测该用户对该商品的兴趣程度, 为之后的模型训练以及最后的个性化推荐奠定一个良好基础。其中,对点击量按10 天、 5 天、 3 天、 1 天的时间来划分。也就是关于点击量,按时间的不同提取的特征( U_click_sum10-U_click_sum1 )有 4个,分别是前10天的用户点击量、前5天的用户点击量、前3 天的用户点击量、前1 天的用户点击量。之所以这样提取特征是由于之前划分的训练集是以10 天为单位划分的, 这样可以更清楚地分析用户在10 天中点击量的分布情况,对后面的模型训练有很重要的作用。3. 收藏量定义数据集的每个用户对商品全

22、集中的商品的收藏行为的总和为收藏量。这里可以从收藏行为推测用户对某商品的感兴趣程度,虽然收藏量不会大于点击量,但是收藏行为必定大于点击行为反映的用户感兴趣程度。4. 购物车量定义数据集的每个用户对商品全集中的商品加入购物车行为的总数为购物车量。这里可以从加入购物车行为直接推断用户对某商品感兴趣,虽然购物车量必定大幅度小于点击量和收藏量,但是加入购物车行为反映用户对某个商品感兴趣程度必定大于点击和收藏行为反映的感兴趣程度。5. 购买量定义数据集的每个用户对商品全集中商品的购买行为的总数为购买量,或者说用户购买商品子集的商品数量为购买量。这里可以从用户的购买行为直接推断为用户对某商品感兴趣,对个性

23、化推荐有重要的意义。为了更清楚地看到购买量与点击量、收藏量、加购物车量的关系,对用户前10 天的行为数据用散点图表示,以用户前10 天的购买量为横坐标,其他三类行为是纵坐标,如图,可以看出用户点击量与其他的行为量相比明显大很多,而点击量越多的用户购买量就越少。点点击用户前 10 天的行为数据对比6. 点击 / 购买 率点击 / 购买率的计算公式就是点击量除以购买量, 即发生多少次点击行为会有一次购买行为, 也就是电子商务平台常说的转化率的倒数。这个特征可以挖掘点击量和购买量之间的关系,可以预测出用户在点击后,何时会发生购买行为,更准确地为用户提供一个合理的个性化推荐。这里还是按时间的不同提取4

24、 个特征( U_click/buy10-U_click/buy1 ),分别是前10 天的点击 / 购买率、前 5 天的点击 / 购买率、前3 天的点击 / 购买率、前1 天的点击 / 购买率。7. 收藏 / 购买 率收藏 / 购买率的计算公式就是收藏量除以购买量, 即发生多少次收藏行为会有一次购买行为。 这个特征可以挖掘收藏量和购买量之间的关系,可以预测出用户在收藏后,何时会发生购买行为,更准确地为用户提供一个合理的个性化推荐。这里还是按时间的不同提取4 个特征( U_collection/buy10-U_collection/buy1 ),分别是前10 天的收藏/ 购买率、前5 天的收藏 /

25、 购买率、前3 天的收藏 / 购买率、前1 天的收藏 / 购买率。与点击/ 购买率不同,该特征的取值范围可能在0,1 之间, 因为购买行为不一定要先收藏该商品, 所以取值范围应该是大于等于0。8. 购物车 / 购买 率购物车 / 购买率的计算公式就是购物车量除以购买量, 即发生多少次加入购物车行为会有一次购买行为。 这个特征可以挖掘购物车量和购买量之间的关系,可以预测出用户在加入购物车后,何时会发生购买行为,更准确地为用户提供一个合理的个性化推荐。还是按时间的不同提取4 个特征( U_car/buy10- U_car/buy1 ),分别是前10 天的购物车/购买率、前5 天的购物车 / 购买率

26、、前3 天的购物车/ 购买率、前1 天的购物车/ 购买率。该特征的取值范围与收藏 / 购买率相同,购买行为不一定要先加入购物车,所以它也应该是大于等于0。9. 商品销量商品销量是指每个商品的销售量,与用户的购买行为有关,由购买了该商品的所有用户总量决定。该特征直观地反映了某个商品基于销量上受喜爱程度,为训练模型以及个性化推荐提供了很好的参考。还是按时间的不同提取4个特征 ( Item_sale10-Item_sale1 ) , 分别是前 10 天的商品销量、 前 5 天的商品销量、前 3 天的商品销量、前1 天的商品销量。该特征的取值范围一定大于等于零。10. 成交订单量成交订单量是指包含该商

27、品的总成交订单的数量,与商品销量类似,不同的是同一笔订单中可能购买了多件该商品,那么此时商品销量大于1,而成交订单量却等于1 。该特征反映了用户对某个商品的购买次数,排除同一笔订单购买多件而使商品销量看起来较高的情况。比如,用户购买牙刷时,一笔订单并不会只购买一个,通常会一起购买多个,那么牙刷的销量相比一般只购买一件的商品销量高很多。通过成交订单量可以反映商品基于订单量受喜爱程度,提高了训练模型以及个性化推荐的准确性。还是按时间的不同提取 4 个特征( I_order10-I_order1 ),分别是前10 天的成交订单量、前5 天的成交订单量、前3 天的成交订单量、前1 天的成交订单量。该特

28、征的取值范围一定大于等于零。11. 购买人数购买人数是指购买该商品的用户总人数,与商品销量与成交订单相类似,不同的是同一个用户可能对该商品多次下单,也可能购买了多件该商品,那么此时成交订单量大于1,商品销量大于1 ,而购买人数却等于 1。该特征反映了某个商品的购买人数,排除同一个用户购买多次该商品的情况。比如,用户购买生活用品就会出现多次下单和购买多件的情况。通过购买人数可以真正反映商品基于用户受喜爱程度,很大程度地提高了训练模型以及个性化推荐的准确性。还是按时间的不同提取 4 个特征( I_buyer10-I_buyer1 ),分别是前10 天的购买人数、前5 天的购买人数、前 3 天的购买

29、人数、前1 天的购买人数。该特征的取值范围一定大于等于零。12. 是否加购物车加入购物车的行为已经在前面做了一个详细地介绍和分析,其实在用户行为数据中,是否加入购物车也可以作为一个特征提取出来。将是否加购物车的特征,定义为数据集的每个用户对商品全集中的商品是否发生加入购物车的行为。这里还是按时间的不同提取5 个特征( car5-car1 ),分别是倒数第5 天是否加购物车、倒数第 4 天是否加购物车、倒数第3 天是否加购物车、倒数第2 天是否加购物车、倒数第1 天是否加购物车。之所以这样提取特征, 是因为从用户在10 天的倒数 5 天内是否会将某商品加入购物车, 可以预测该用户在测试集中倒数5

30、 天内是否会发生加入购物车的行为。该特征的取值范围一定为 1 或者 0, 其中 1 代表加购物车, 0 代表不加购物车。13. 是否购买用户购买行为已经和加购物车行为一样在前面做了详细地介绍和分析,其实在用户行为数据中,是否购买也可以作为特征提取出来。在本文中,将是否购买的特征,定义为数据集的每个用户对商品全集中的商品是否会发生购买行为。这里还是按时间的不同提取5 个特征( buy5-buy1 ),分别是倒数第5 天是否购买、倒数第4 天是否购买、倒数第 3 天是否购买、倒数第2 天是否购买、倒数第1 天是否购买。之所以这样提取特征,是因为从用户在10天的倒数 5 天内是否会购买某商品,可以预

31、测该用户在测试集中倒数5 天内是否会发生购买行为。该特征的取值范围一定为 1 或者 0, 其中 1 代表购买, 0 代表不购买。14. 累计的用户行为累计的用户行为, 也属于用户行为数据的一种表现形式, 用户行为数据在前面已经做了详细地介绍和分析,它可以直观地反映出用户的各种关键信息。累计的用户行为定义为前10 天的用户行为数据中用户累计对商品子集的各行为总量,包括点击量、收藏量、购物车量、购买量。与用户所有行为总量特征不同之处在于,累计的用户行为是基于商品子集的,而且是按照用户行为提取特征。提取4 个特征( behav1- behav4),分别是前10天的用户点击量、前10天的用户收藏量、前

32、10天的用户加购物车量、前 10 天的用户购买量。该特征的取值范围一定为大于等于 0。15. 访问时间差访问时间差是指用户在两次访问时间的间隔,它可以反映用户对网站的访问频率等信息。 本文中, 提取特征访问时间差, 将其定义为用户最后一次访问商品子集中的某个商品到第 10 天的天数间隔。这与倒数5 天的加购物车量、购买量相关联,可以得到用户访问时间与购买之间的关系。该特征的取值范围为 0,10 之间的整数。贴关键代码import pandas as pdimport randomfrom get_features import *import timet1=()j=10df_items=(&q

33、uot;")df_items= = ()a"item_id" =df_items = afor k in range(21):i=j+kprint "add features to trains "+str(i)df_tag=("data/"+"result"+str(i)+".csv")df_tag"tag"=1df_feature=("data/"+str(i)+".csv")df_feature_item=(left=d

34、f_feature,right=df_items,how="inner")df_ui = df_feature"user_id","item_id".drop_duplicates()df_ui = (left=df_ui,right=df_items,how="inner")df_ui_tag = (left=df_ui,right=df_tag,how="left")(0,inplace=True)U1 = buy_sum10(df_feature,i)U2 = click_sum10(df

35、_feature,i)df_train = (left=df_train,right=U2,how="left")U3 = collection_sum10(df_feature,i)df_train = (left=df_train,right=U3,how="left")U4 = car_sum10(df_feature,i)df_train = (left=df_train,right=U4,how="left")df_train"U_click/buy10" =df_train"U_click/b

36、uy5" =df_train"U_click/buy3" =df_train"U_click/buy1" =df_train"U_click/buy10"=df_train"U_click/buy10".map(lambda x:fillinfinity(x)df_train"U_click/buy5"=df_train"U_click/buy5".map(lambda x:fillinfinity(x)df_train"U_click/buy3"

37、;=df_train"U_click/buy3".map(lambda x:fillinfinity(x)df_train"U_click/buy1"=df_train"U_click/buy1".map(lambda x:fillinfinity(x)df_train"U_collection/buy10" =df_train"U_collection/buy5" =df_train"U_collection/buy3" =df_train"U_collectio

38、n/buy1" =df_train"U_collection/buy10"=df_train"U_collection/buy10".map(lambda x: fillinfinity(x)df_train"U_collection/buy5"=df_train"U_collection/buy5".map(lambda x: fillinfinity(x)df_train"U_collection/buy3"=df_train"U_collection/buy3"

39、;.map(lambda x: fillinfinity(x)df_train"U_collection/buy1"=df_train"U_collection/buy1".map(lambda x: fillinfinity(x)df_train"U_car/buy10" =df_train"U_car/buy5" =df_train"U_car/buy3" =df_train"U_car/buy1" =df_train"U_car/buy10"=df_

40、train"U_car/buy10".map(lambda x: fillinfinity(x)df_train"U_car/buy5"=df_train"U_car/buy5".map(lambda x:fillinfinity(x)df_train"U_car/buy3"=df_train"U_car/buy3".map(lambda x:fillinfinity(x)df_train"U_car/buy1"=df_train"U_car/buy1".

41、map(lambda x:fillinfinity(x)df_behavior_sum10 = behavior_sum10(df_feature)df_train = (left=df_train,right=df_behavior_sum10,how="left")df_I_buyers = I_buyers(df_feature_item,i)df_train = (left=df_train,right=df_I_buyers,how="left")df_item1 = Item_sale(df_feature,i)df_train = (lef

42、t=df_train,right=df_item1,how="left")df_car = car(df_feature,i)df_train = (left=df_train,right=df_car,how="left")df_buy = buy(df_feature,i)df_train = (left=df_train,right=df_buy,how="left")df_orders = I_Orders(df_feature_item,i)df_train = (left=df_train,right=df_orders,

43、how="left")df_ui_sum = UI_Sum(df_feature_item,i)df_train = (left=df_train,right=df_ui_sum,how="left")df_ui_last_time = last_time(df_feature_item,i)df_train = (left=df_train,right=df_ui_last_time,how="left")(0,inplace=True)("data_features/train"+str(i)+".c

44、sv",index=False)t2=()print "给训练集打上标签耗时 f秒"(t2-t1)4、选择分类模型可以用决策树模型、随机森林模型、Logistic回归、GBRTf型等,具体可以上网站:查看各个模型的使用方法。决策树模型:首先从包含了特征的训练集中选择所需特征,调用 DecisionTreeClassifier 函数对该训练集训练模型, 再使用 predict 函数预测测试集的分类, 再将分类结果是购买( tag=1 )的商品作为推荐结果, 将其与测试集的真实分类结果比对, 最后评估该模型对本实证研究数据的准确率,以 F1 值为准。决策树分类模型的

45、DecisionTreeClassifier 函数,包含了很多参数设置,着重研究criterion参数, criterion表示衡量一个分类的质量, 支持的标准可选择gini 和 entropy这两个值,其中 gini 是基尼指标, entropy 是信息增益。由于用十折交叉验证的方法, 所以每次改变一个变量都需要对该模型重新抽样, 对其运行 10 次,得出第1 次到第 10 次的验证结果,对十次准确率F1 值求平均作为该模型最终的 F1 值。贴关键代码df_predict = ("model/")inner = (left=df_result,right=df_predi

46、ct,how="inner")predict_num = len(df_predict)print "DecisionTree predict_num is: ",predict_numhit_num = len(inner)print "DecisionTree hit_num is: ",hit_numresult_num = len(df_result)print "DecisionTree total result num is: ",result_numif predict_num!=0:precisio

47、n = float(hit_num)/predict_numcallrate = float(hit_num)/result_num print "DecisionTree Precision is : ",precisionprint "DecisionTree Call rate is: ",callrate if precision+callrate != 0:print "决策树F1 值为 : ",2*precision*callrate/(precision+callrate),'n'else:print &

48、quot;决策树F1 值为 : 0"基于随机森林的分类模型随机森林是在决策树的基础上提出的分类模型, 它属于集成学习模型。 他的核心思想就是通过训练和组合多个不同的决策树, 使其形成森林, 然后由多棵树进行投票来决定其 分类结果。首先从包含了特征的训练集中选择所需特征,调用 RandomForestClassifier 函数对该训练集训练模型,再使用 predict 函数预测测试集的分类,再将分类结果是购买( tag=1) 的商品作为推荐结果, 将其与测试集的真实分类结果比对, 最后评估该模型对本实证研究 数据的准确率,以 F1 值为准。随机森林分类模型的RandomForestCl

49、assfier函数,包含了很多参数设置,其中着重 研究n_estimators和criterion参数。n_estimators表示森林里树的个数,整数形式;criterion 表示衡量一个分类的质量,支持的标准可选择 gini 和 entropy 这两个值,其中 gini 是基尼 指标, entropy 是信息增益。贴关键代码df_predict = ("model/")inner = (left=df_result,right=df_predict,how="inner")predict_num = len(df_predict)print &quo

50、t;RandomForest predict_num is: ",predict_num hit_num = len(inner)print "RandomForest hit_num is: ",hit_num result_num = len(df_result)print "RandomForest total result num is: ",result_numif predict_num!=0:precision = float(hit_num)/predict_numif result_num!=0:callrate = floa

51、t(hit_num)/result_numprint "RandomForest Precision is : ",precisionprint "RandomForest Call rate is: ",callrateif precision+callrate != 0:print "随机森林F1 值为 : ",2*precision*callrate/(precision+callrate),'n'else:print "随机森林F1 值为 : 0"基于回归树的分类模型回归树 GBDT 是一种

52、迭代决策树算法,由多个决策树组成,在本节中要具体使用的分类模型是GBRT ,即梯度迭代回归树,或者梯度提升回归树,它侧重于梯度迭代GB 和回归树 RT 。首先从包含了特征的训练集中选择所需特征,再调用 GradientBoostingClassifier 函数对该训练集训练模型,再使用 predict 函数预测测试集的分类,再将分类结果是购买(tag=1)的商品作为推荐结果,将其与测试集的真实分类结果比对,最后评估该模型对本实证研究数据的准确率,以 F1 值为准。回归树分类模型的 GradientBoostingClassifier 函数,包含了很多参数设置,其中着重研究参数learning_

53、rate。learning_rate就是学习率,是指每棵树都对学习率的缩小有贡献。它的默认值是,可以和的取值为例进行分析。贴关键代码df_predict = ("model/")inner = (left=df_result,right=df_predict,how="inner")predict_num = len(df_predict)print "ensemble_GBRT_LR predict_num is: ",predict_numhit_num = len(inner)print "ensemble_GBRT_

54、LR hit_num is: ",hit_numresult_num = len(df_result)print "ensemble_GBRT_LR total result num is: ",result_numif predict_num!=0:precision = float(hit_num)/predict_numif result_num!=0:print "ensemble_GBRT_LR Precision is : ",precisionprint "ensemble_GBRT_LR Call rate is: &

55、quot;,callrateif precision+callrate != 0:print "ensemble_GBRT_LR F1 值为 :",2*precision*callrate/(precision+callrate),'n' else:print "ensemble_GBRT_LR F1 值为 : 0"基于 Logistic 回归的分类模型Logistic 回归, 是指通过连续型或者属性型的自变量, 预测属性型因变量的分析方法,主要研究因变量各种可能发生的概率与自变量之间的关系。 本文中, 主要研究 Logistic 回 归的二分类非线性模型,用来解决分类问题,比如该用户是否会购买该商品。首先从包含了特征的训练集中选择所需特征,再调用 LogisticRegression 函数对该训练集训练模型,再使用predict函数预测测试集的分类,再将分类结果是购买(tag=1)的商品作为推荐结果, 将其与测试集的真实分类结果比对, 最后评估该模型对本实证研究数据的准确率,以 F1 值为准。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论