专栏名称: 爱数据原统计网
中国统计网(www.itongji.cn),国内最大的数据分析门户网站。提供数据分析行业资讯,统计百科知识、数据分析、商业智能(BI)、数据挖掘技术,Excel、SPSS、SAS、R等数据分析软件等在线学习平台。
目录
相关文章推荐
51好读  ›  专栏  ›  爱数据原统计网

令人讨厌的非平衡数据

爱数据原统计网  · 公众号  · BI  · 2017-01-31 17:06

正文


有没有遇到过这样的头疼问题,在某个分类问题中 发现数据存在严重的偏倚 ,即0-1分类比例严重失调。如 欺诈问题中 ,欺诈类观测毕竟占总样本中少数;如 客户流失问题 ,流失客户往往也是占少部分;如 会员对某波活动的响应问题 ,同样正真响应的只占很少比例。


如果你的数据存在这种不平衡,分析得出的结论也一定是有偏的 ,往往分类结果会偏向于较多观测的类。对于这种问题该如何处理呢? 起先我的想法很简单 ,构造1:1的数据,要么将多的那一类砍掉一部分,要么将少的那一类进行Bootstrap简单复制。 但这样做是存在问题的 ,对于第一种方式,砍掉的数据会导致某些隐含信息的丢失;对于第二种方式,简单复制,又会使模型产生过拟合问题。那该怎么办?


在网络中寻找求解办法, 发现2002年Chawla就提出了SMOTE算法(合成少数过采样技术) ,而且该方法目前是处理非平衡数据的常用手段,受到学术界的一致认同。下面就讲讲该算法的思想:


1) 采样最邻近算法,计算出每个少数类样本的K个近邻



2) 从K个近邻中随机挑选N个样本进行随机线性插值


3) 构造新的少数类样本


构造公式:



4) 将新样本与原数据合成,产生新的训练集


为了说明SMOTE算法的思路, 我们举个简单例子


如果有一个少数类的样本点为(2,3,10,7),从K个近邻中随机挑选2个点分别为(1,1,5,8)和(2,1,7,6),参数的随机数为0.3,那么构造的2个新样本点为:



上面我们介绍了关于SMOTE算法实现数据平衡的理论思想,在R语言中该如何实现这样的理论呢? DMwR包中的SMOTE()函数 就可以实现这样的功能,具体函数的语法和参数含义如下:


SMOTE(form, data, perc.over = 200, k = 5, perc.under = 200,

learner = NULL, ...)


form :为一个公式形式,类似于y~x1+x2+x3


data :为不平衡的数据框


perc.over :定义过采样的抽样次数,即对于少数类样本点,需要为每个点重新构造多少个点。默认值为200,即重新为每个少数类样本点构造200/100=2个点。


k :指定K邻近算法中的参数K值,即选取K个最邻近的点,默认值为5


perc.under :定义欠采样的抽样次数,即从多数类样本中选择perc.under倍于新生成的样本数量,默认为200,即从多数类样本中选择200/100=2倍于新生成样本的数量


下面就使用实例数据来验证一下非平衡数据处理前后的模型结果 ,数据来源于C50包中的客户流失数据:


```{r}

library(C50)

data(churn)

train = churnTrain

test = churnTest


#查看一下训练集和测试集数据的平衡状态

table(train$churn)

prop.table(table(train$churn))


table(test$churn)

prop.table(table(test$churn))

```



训练集和测试集中的流失客户与非流失客户 比例在1:6左右 ,存在明显的偏倚状态。


首先我们不对数据做任何处理,仍然保持原来的非平衡状态,看看C5.0决策树算法在该数据集中的预测能力:

```{r}


#构建C5.0决策树算法

model1

#在测试集中做预测

predict1

#构造模型评估的混淆矩阵

Freq1

Freq1

#计算预测精度

Accuracy1

Accuracy1

```



虽然模型的准确率近95%,但模型的准确率更偏向于非流失客户 而流失客户的预测准确率并不高,仅146/(146+78)=65%。


下面我们再来看看模型预测的ROC曲线:

```{r}

library(pROC)

library(ggplot2)

roc_curve01

print(roc_curve01)

#绘制ROC曲线

x1

y1


p

p + geom_line(colour = 'red', size = 2) +geom_abline(intercept = 0, slope = 1)+ annotate('text', x = 0.4, y = 0.5, label=paste('AUC=',round(roc_curve01$auc,2)), size = 6) + labs(x = '1-specificities',y = 'sensitivities', title = 'ROC Curve')

```



通过计算,曲线下方的面积 AUC为0.82


接下来我们对非平衡数据做平衡化处理,即采用SMOTE算法实现数据集的平衡:


```{r}


set.seed(1234)

library(DMwR)

train2

#查看数据的平衡状态

table(train2$churn)

prop.table(table(train2$churn))

```



现在数据集已经平衡了,下面我们就使用这个新的测试数据集建模,看看建模后的预测能力:







请到「今天看啥」查看全文