各种分类算法的R语言实现

   2023-02-09 学习力0
核心提示:####该程序包括了KNN、SVM、朴素贝叶斯分类、人工神经网络、决策树、C5.0、随机森林、adaboost、bagging8种算法的实现###Knn分类算法实现setwd('H:\\object\\R\\data17_8_02')library(xlsx)library(MASS)library(kknn)library(class)#归一化处理normalize - f
##
##该程序包括了KNN、SVM、朴素贝叶斯分类、人工神经网络、决策树、C5.0、随机森林、adaboost、bagging8种算法的实现
##

#Knn分类算法实现
setwd('H:\\object\\R\\data17_8_02')
library(xlsx)
library(MASS)
library(kknn)
library(class)

#归一化处理
normalize <- function(x){
  num <- x - min(x)
  denom <- max(x) - min(x)
  return(num/denom)
}
#读取数据
data<-read.xlsx("index_relieff_pearson_two.xlsx",1,header=TRUE,as.data.frame=TRUE)
#对数据进行归一化处理
iris_norm <-as.data.frame(lapply(data[,1:7], normalize))
summary(iris_norm)
dim(iris_norm)
data<-cbind(iris_norm,data[,8])
dim(data)
names(data)[8]='degree'

##支持向量机
library(e1071)
set.seed(5)
n=nrow(data)
idx<-sample(1:n,size=round(n/3),replace=F,prob=rep(1/n,n))
traindata=data[-idx,]
testdata=data[idx,]
mymodel<-svm(traindata$degree~.,data=traindata,method="C-classification",kernel="radial",cost=10,gamma=0.1)
#plot(mymodel,data,Petal.Width~Petal.Length,slice=list(Sepal.Width=3,Sepal.Length=4))
pre=predict(mymodel,testdata,type='class')
z0<-table(testdata$degree,pre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#朴素贝叶斯分类
library(e1071) #导入包e1071
mybeyes=naiveBayes(traindata$degree~.,traindata) #用训练集naiveBayes进行建模
pre.forest<-predict(mybeyes,testdata)
z0<-table(testdata$degree,pre.forest)#用测试集进行精度验证
#table(data$degree,predict(mybeyes,data))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

#人工神经网络
library(nnet) #导入包nnet
#用nnet进行建模,其中linout线性输出单元开关,decay表明权值是递减的,最大迭代次数是1000
mynnet=nnet(traindata$degree~.,linout=F,size=10,decay=0.001,maxit=100,trace=F,data=traindata)
mypre=predict(mynnet,testdata,type='class')
z0<-table(testdata$degree,mypre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#决策树
library(party) #导入party包
myctree=ctree(traindata$degree~.,traindata)
pre.forest<-predict(myctree,traindata)
table(pre.forest,traindata$degree)
#myctree=ctree(data$degree~.,data)#用iris数据集建立模型
#table(data$degree,predict(myctree)) #分类结果表
#plot(myctree,type = "simple") 

#C5.0算法
library(C50)
set.seed(10)
summary(testdata)
train<-na.omit(traindata)
ls('package:C50')
tc<-C5.0Control(subset =F,CF=0.25,winnow=F,noGlobalPruning=F,minCases =10)
model <- C5.0(traindata$degree ~.,data=traindata,rules=F,control =tc)
pre.forest<-predict(model,traindata)
z0<-table(traindata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0
plot(model)
C5imp(model)


#随机森林
library(randomForest)
model.forest<-randomForest(traindata$degree~.,data = traindata)
pre.forest<-predict(model.forest,testdata)
z0<-table(testdata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#n=nrow(iris)
#idx<-sample(1:n,size=round(n/3),replace=T,prob=rep(1/n,n))
#traindata=iris[-idx,]
#testdata=iris[idx,]
#model.forest<-randomForest(Species~.,data = traindata)
#pre.forest<-predict(model.forest,testdata)
#table(pre.forest,testdata$Species)

#K-最近邻算法
library(kknn)
summary(traindata)
summary(testdata)
myknn=kknn(traindata$degree~.,traindata,traindata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(traindata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

myknn=kknn(traindata$degree~.,traindata,testdata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(testdata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

pcol=as.character(as.numeric(testdata$degree))
plot(testdata[1:3],pch=pcol,col=c("green","red")[(testdata$degree!=predict(myknn))+1])


#adaboost分类算法的实现
library(adabag)
model_adaboost<-boosting(degree~.,data = traindata)
z0<-table(testdata[,17],predict(model_adaboost,testdata)$class)
z0#输出z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0

barplot(model_adaboost$importance)#画出变量重要性图
b<-errorevol(model_adaboost,testdata)#计算全体的误差演变
plot(b$error,type="l",main="AdaBoost error vs number of trees")#对误差演变进行画图
#上图可以得知,在第七次迭代后误差率就达到零了,实现预测零误差率


#bagging分类模型的建立
model_bagging<-bagging(degree~.,data=traindata)
z0<-table(testdata[,17],predict(model_bagging,testdata)$class)
z0#查看模型的预测结果
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0
barplot(model_bagging$importance)#画出变量重要性图

#对adaboosting和bagging模型做5折交叉验证,这里仅给出训练集和测试集的分类平均误差率
set.seed(1044)
samp<-c(sample(1:47,24),sample(48:230,24)) #进行随机抽样
#adaboosting分类模型
a<-boosting(degree~.,data=data[samp,]) #利用训练集建立adaboost分类模
z0<-table(data[samp,8],predict(a,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,8],predict(a,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1
#bagging分类模型
b=bagging(degree~.,data=data[samp,])  #利用训练集建立bagging分类模型
z0<-table(data[samp,6],predict(b,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,6],predict(b,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1


#线性判别分类
library(MASS)
#使用MASS包的lda函数实现线性判别。lda函数以Bayes判别思想为基础。
#当分类只有两种且总体服从多元正态分布条件下,Bayes判别与Fisher判别、距离判别是等价的。
#其中的prior参数表示先验概率
model1<-lda(data$degree~.,data=data,prior=c(1,1,1,1,1)/5)
#当不同类样本的协方差矩阵不同时,则应该使用二次判别
#这里将CV参数设置为T,是使用留一交叉检验(leave-one-out cross-validation),并自动生成预测值
table(data$degree,predict(model1)$class)

ld<-predict(model1)$x
p=ggplot(cbind(data,as.data.frame(ld)),aes(x=LD1,y=LD2))
p+geom_point(aes(colour=degree),alpha=0.8,size=3)

  

 
反对 0举报 0 评论 0
 

免责声明:本文仅代表作者个人观点,与乐学笔记(本网)无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
    本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们留言联系,本网站将在规定时间内给予删除等相关处理.

  • 拓端tecdat|R语言VAR模型的不同类型的脉冲响应
    原文链接:http://tecdat.cn/?p=9384目录模型与数据估算值预测误差脉冲响应识别问题正交脉冲响应结构脉冲反应广义脉冲响应参考文献脉冲响应分析是采用向量自回归模型的计量经济学分析中的重要一步。它们的主要目的是描述模型变量对一个或多个变量的冲击的演化
    03-16
  • Visual Studio 编辑R语言环境搭建
    Visual Studio 编辑R语言环境搭建关于Visual Studio 编辑R语言环境搭建具体的可以看下面三个网址里的内容,我这里就讲两个问题,关于r包管理和换本地的r的服务。1.r包管理:Ctrl+72.R本地服务管理:Ctrl+9Visual Studio R官方帮助文档(中文): https://docs
    03-16
  • 拓端tecdat|R语言代写实现向量自回归VAR模型
    原文链接:http://tecdat.cn/?p=8478 澳大利亚在2008 - 2009年全球金融危机期间发生了这种情况。澳大利亚政府发布了一揽子刺激计划,其中包括2008年12月的现金支付,恰逢圣诞节支出。因此,零售商报告销售强劲,经济受到刺激。因此,收入增加了。VAR面临的批
    03-16
  • [译]用R语言做挖掘数据《五》 r语言数据挖掘简
    一、实验说明1. 环境登录无需密码自动登录,系统用户名shiyanlou,密码shiyanlou2. 环境介绍本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到程序:1. LX终端(LXTerminal): Linux命令行终端,打开后会进入Bash环境,可以使用Linux命令2. GVim:非常好
    03-08
  • 拓端tecdat|Mac系统R语言升级后无法加载包报错 package or namespace load failed in dyn.load(file, DLLpath = DLLpath, ..
    拓端tecdat|Mac系统R语言升级后无法加载包报错
    问题重现:我需要安装R软件包stochvol,该软件包 仅适用于3.6.0版的R。因此,我安装了R(3.6.0 版本),并使用打开它 RStudio。但是现在  ,即使我成功 使用来 安装软件包,也无法加载任何库 。具体来说,我需要加载的库是stochvol  ,Rcpp和 caret
    03-08
  • 拓端数据tecdat|R语言k-means聚类、层次聚类、主成分(PCA)降维及可视化分析鸢尾花iris数据集
    拓端数据tecdat|R语言k-means聚类、层次聚类、
    原文链接:http://tecdat.cn/?p=22838 原文出处:拓端数据部落公众号问题:使用R中的鸢尾花数据集(a)部分:k-means聚类使用k-means聚类法将数据集聚成2组。 画一个图来显示聚类的情况使用k-means聚类法将数据集聚成3组。画一个图来显示聚类的情况(b)部分:
    03-08
  • 《R语言数据挖掘》读书笔记:七、离群点(异常值)检测
    《R语言数据挖掘》读书笔记:七、离群点(异常值
    第七章、异常值检测(离群点挖掘)概述:        一般来说,异常值出现有各种原因,比如数据集因为数据来自不同的类、数据测量系统误差而收到损害。根据异常值的检测,异常值与原始数据集中的常规数据显著不同。开发了多种解决方案来检测他们,其中包括
    03-08
  • 拓端数据tecdat|R语言中实现广义相加模型GAM和普通最小二乘(OLS)回归
    拓端数据tecdat|R语言中实现广义相加模型GAM和
    原文链接:http://tecdat.cn/?p=20882  1导言这篇文章探讨了为什么使用广义相加模型 是一个不错的选择。为此,我们首先需要看一下线性回归,看看为什么在某些情况下它可能不是最佳选择。 2回归模型假设我们有一些带有两个属性Y和X的数据。如果它们是线性
    03-08
  • 拓端数据tecdat|R语言时间序列平稳性几种单位根检验(ADF,KPSS,PP)及比较分析
    拓端数据tecdat|R语言时间序列平稳性几种单位根
    原文链接:http://tecdat.cn/?p=21757 时间序列模型根据研究对象是否随机分为确定性模型和随机性模型两大类。随机时间序列模型即是指仅用它的过去值及随机扰动项所建立起来的模型,建立具体的模型,需解决如下三个问题模型的具体形式、时序变量的滞后期以及随
    03-08
  • 拓端tecdat|R语言风险价值VaR(Value at Risk)和损失期望值ES(Expected shortfall)的估计
    拓端tecdat|R语言风险价值VaR(Value at Risk)
    原文链接: http://tecdat.cn/?p=15929 风险价值VaR和损失期望值ES是常见的风险度量。首先明确:时间范围-我们展望多少天?概率水平-我们怎么看尾部分布?在给定时间范围内的盈亏预测分布,示例如图1所示。  图1:预测的损益分布 给定概率水平的预测的分
    03-08
点击排行