Python与机器学习(第2版)(微课版) 课件 5-04-多层感知机分类任务实施_第1页
Python与机器学习(第2版)(微课版) 课件 5-04-多层感知机分类任务实施_第2页
Python与机器学习(第2版)(微课版) 课件 5-04-多层感知机分类任务实施_第3页
Python与机器学习(第2版)(微课版) 课件 5-04-多层感知机分类任务实施_第4页
Python与机器学习(第2版)(微课版) 课件 5-04-多层感知机分类任务实施_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

主讲人:陈清华多层感知机分类分析任务实施【数据挖掘应用】课程鸢尾花分类分析熟练使用sklearn第三方包实现神经网络应用;会应用多层感知机实现分类分析;会使用MLPClassifier()对鸢尾花进行分类分析与预测应用;会调整MLPClassifier()参数实现模型的优化。能力目标主要内容任务工单引导问题任务评价标准任务解决方案代码解析使用多层感知机实现鸢尾花分类iris.csv教学难点任务工单基于前续任务得到的数据,及分类结果,使用多层感知器实现鸢尾花种类判定,并区分不同算法的异同。任务概述

基于花萼长度、花萼宽度、花瓣长度、花瓣宽度和鸢尾花类别数据,使用多层感知机实现分类分析。010010011001101010100100110110100101110101000100001011011101001010101101010011010010

任务描述:数据源iris.csv显示结果

任务要求任务概述多层感知机模型评估自定义神经网络K近邻算法随机森林(1)多层感知机与神经网络存在什么样的关联?说明多层感知机的区别与联系。(2)多层感知机在sklearn中是如何实现分类的?其关键参数有哪些?(3)多层感知机参数应该如何配置?有无规律可循?(4)比较多层感知机分类算法与前述不同分类算法的优劣,其优势体现在哪里?”

问题引导:任务概述

任务评价:任务概述评价内容评价要点分值分数评定自我评价1.任务实施模型初始化4分导入正确得1分,模型选用正确得1分,模型构建正确得1分,模型参数会修改得1分

模型训练2分模型型训练顺利执行得1分,会正确调整参数得1分

模型评估报告展现2分能准确解释各个指标的含义得1分,模型准确率92%以上得1分

2.效果评估依据任务实施情况总结结论2分总结内容切中本任务的重点要点得1分,能有效比较不同方法的异同得1分

合计10分

任务解决方案核心部分代码:fromsklearn.neural_networkimport

MLPClassifier#神经网络分类预测mlp=MLPClassifier(solver='sgd',activation='relu',alpha=1e-4,hidden_layer_sizes=(10,10),random_state=1,max_iter=500,verbose=10,learning_rate_init=.005)#训练模型mlp.fit(x_train,y_train[['Cluster']].values.ravel())#评估模型y_pred=mlp.predict(x_test)print("预测精确率:{:.2f}".format(mlp.score(x_test,y_test[['Cluster']])))print(pd.crosstab(y_test['Cluster'],y_pred,rownames=['ActualValues'],colnames=['Prediction']))任务解决方案运行结果示例:小结1.如何使用sklearn第三方包实现多分类分析?2.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论