好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

数据分析实验.docx

9页
  • 卖家[上传人]:鲁**
  • 文档编号:509058600
  • 上传时间:2023-09-09
  • 文档格式:DOCX
  • 文档大小:50.84KB
  • / 9 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 西安电子科技大学集成分类实验姓名:拓 晶 学号: 1400030010 数据分析与实验本次实验面向集成分类实验,使用protool集成学习工具包,共使 用了五类数据,分别为zoo数据、wine数据、soybean数据、iris数 据和glass数据这些数据均来自UCI网站,下面我将分别加以叙述实验一 ZOO 数据集合的实验1、 单一分类器的效果本实验的数据对象是zoo数据集,总共7类仃个属性,实验结 果如下:◊线性分类器的Ide分类器的错误率为0.1472 ;◊ bp算法分类的错误是0.1175 ;◊ SVM算法分类的错误率是0.0442 ;结论:反复运行程序后发现,线性分类器的分类错误最大,bp算 法次之, SVM 算法的分类错误率最小因此,对于单一分类器而 言, SVM 算法最优2、 集成分类器的效果◊用Ide、qdc、parzenc、bpxnc集成后,发现分类错误率约为 0.1617;◊ ldc、 qdc、 parzenc、 bpxnc 和 SVM 集成后,分类错误率降低 至0.1323;结论:用上述算法和SVM结合后,分类错误率有一定的降低3、 实验结果分析Idcbpsvm4类集成5类集成0.14720.11750.04420.16170.1323结论SVM算法分类的错误率是0.0442最小 用ldc、qdc、parzenc、 bpxnc 集成后,分类错误率约为 0.1617,最大。

      实验二 wine 数据集和的分类实验1、 单一分类器的效果本实验的数据对象是 zoo 数据集,总共 3 类 12 个属性,实验结 果如下:◊线性分类器的ldc分类器的错误率为0.0244 ;◊ bp算法分类的错误是0.0244 ;◊ SVM 算法分类的错误率是 0.0407;结论:反复运行程序后发现,线性分类器的分类错误和bp算法接 近, SVM 算法的分类错误率最大与前一个实验对比发现,对于 单一分类器而言,分类错误率可能和数据的属性个数和类别数有 关,当他们减小时,分类错误率也相应减小而且,针对这一实 验,发现 SVM 的分类错误反而最大,效果最不好,与前一个实验 结果恰好相反2、 集成分类器的效果◊ 用 ldc、 qdc、 parzenc、 bpxnc 集成后,发现分类错误率约为 0.1462;◊ ldc、 qdc、 parzenc、 bpxnc 和 SVM 集成后,分类错误率降低 至 0.0244;结论:用上述算法和 SVM 结合后,分类错误率有一定的降低3、实验结果分析Idcbpsvm4类集成5类集成0.02440.02440.04070.14620.0244结论:用 ldc、qdc、parzenc、bpxnc 四类集成后,分类错误率约为0.1462,最大。

      而Ide、bp、SVM、以及最后的五类集成的错误率相 当,远远小于四类集成因为数据的类型和属性存在很大的差异,所 以集成分类器的效果并不一定优于单一分类器但是通四类和五类的集成分类发现,分类越细小效果越好实验三 soybean 数据集合的实验1、单一分类器的效果本实验的数据对象是zoo数据集,总共4类34个属性,实验结 果如下:◊线性分类器的Ide分类器的错误率为0.0937 ;◊ bp算法分类的错误是0.1562;◊ SVM 算法分类的错误率是0;结论:反复运行程序后发现,线性分类器的分类错误为 0.0937 和 bp算法比较接近,但SVM算法的分类错误率为零,即不存在分 类错误与前两个实验对比发现,对于单一分类器而言,分类错 误率和数据的属性个数和类别数有关,但具体关系还不明显而 且,针对这一实验,发现SVM的分类错误为零,效果最好,说明 soybean 数据特别适合用 SVM 分类算法进行分类2、集成分类器的效果◊用Ide、qdc、parzenc、bpxnc集成后,发现分类错误率约为 0.1250;◊ Ide、qdc、parzenc、bpxnc和SVM集成后,分类错误率降低 至 0.0313 ;结论:用上述算法和 SVM 结合后,分类错误率有一定的降低。

      3、实验结果分析ldcbpsvm4类集成5类集成0.09370.156200.12500.0313结论:用 Idc、 qdc、 parzenc、 bpxnc 四类集成后,分类错误率约为 0.1462,最大而Ide、bp、SVM、以及最后的五类集成的错误率相 当,远远小于四类集成因为数据的类型和属性存在很大的差异,所以集成分类器的效果并不一定优于单一分类器但是通四类和五类的集成分类发现,分类越细小效果越好实验四面向iris数据集合的分类实验1、单一分类器的效果本实验的数据对象是zoo数据集,总共3类3个属性,实验结果 如下:◊线性分类器的ldc分类器的错误率为0.0285 ;◊ bp 算法分类的错误是0.0382;◊ SVM算法分类的错误率是0.0382;结论:反复运行程序后发现,线性分类器的分类错误最小,bp算 法接近和 SVM 算法的分类错误率相等与前三个实验对比发现, 对于单一分类器而言,分类错误率可能和数据的属性个数和类别 数有关,当他们减小时,分类错误率也可能增大而且,针对这 一实验,发现线性分类错误反而最小,效果最好,与前三个实验 结果明显不同2、 集成分类器的效果◊ 用 ldc、qdc、parzenc、bpxnc 集成后,发现分类错误率约为 0.0190;◊ ldc、qdc、parzenc、bpxnc 和 SVM 集成后,分类错误率降低 至 0.0190;结论:用上述算法和SVM结合后,分类错误率有一定的降低。

      3、 实验结果分析Idebpsvm4类集成5类集成0.02440.02440.04070.01900.0190结论:用 ldc、qdc、parzenc、bpxnc 四类集成的分类错误率和 ldc、 bp、SVM 五类集成的错误率相当,可见分类错误并没有因分类数增 大而减小原因可能是数据的类型和属性存在一定的相似性,所以集 成分类器的分类数增加并不会带来明显的效果而且不一定优于单一 分类器实验五 针对 glass 数据集合的分类实验1、单一分类器的效果本实验的数据对象是zoo数据集,总共6类8个属性,实验结果 如下:◊线性分类器的Ide分类器的错误率为0.3730 ;◊ bp算法分类的错误是0.4127 ;◊ SVM算法分类的错误率是0.4603 ;结论:反复运行程序后发现,线性分类器的分类错误最小, bp 算 法接近和 SVM 算法的分类错误率接近与前四个实验对比发现, 对于单一分类器而言,分类错误率可能和数据的属性个数和类别 数有关,具体关系并不明确,应该和所使用的数据类型有关而 且,针对这一实验,发现线性分类错误也是最小,效果最好,与 第四个实验结果接近2、 集成分类器的效果◊ 用 Ide、qde、parzene、bpxne 集成后,发现分类错误率约为 0.3651;◊ Ide、qde、parzene、bpxne 和 SVM 集成后,分类错误率降低 至 0.3571 ;结论:用上述算法和SVM结合后,分类错误率有一定的降低。

      3、 实验结果分析Idcbpsvm4类集成5类集成0.37300.41270.46030.36510.3571结论:用 ldc、qdc、parzenc、bpxnc 四类集成的分类错误率比 ldc、 bp、SVM 五类集成的错误率略大,可见分类错误因分类数增大而减 小原因可能是数据的类型和属性存在一定的差异,所以集成分类器 的分类数增加会带来明显的效果而且一般情况下,对于glass数据 而言,多类分类器优于单一分类器所以, glass 数据比较适合多类 分类器进行分类处理总结与心得针对上述五个实验,由于使用的数据集类型不同,数据的属性和 类别数也明显不同,所以实验结果并未呈现出明显的规律但是通过 比较发现或者说大致可以得出这样的结论:如果数据的属性数和类别 数都较大时,选择多类分类器会比较好,至少分类错误率不会增加 尤其是soybean数据特别适合使用SVM算法进行分类,而且是单一 分类器就可以将分类错误降低至 0单一分类器和多类分类器的效果 取决于所使用的数据通过反复的学习实验,我觉得大数据也没有想 象中的那么可怕,加油拓晶!未来属于那些懂得从海量数据中提取有 用信息的人。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.