专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
大数据分析和人工智能  ·  知乎上的45个神回复 ·  5 天前  
数据派THU  ·  腾讯大数据实时湖仓智能优化实践 ·  1 周前  
大数据文摘  ·  马斯克的Cybercab首秀!没有方向盘和踏 ... ·  1 周前  
51好读  ›  专栏  ›  数据派THU

独家 | 教你在R中使用Keras和TensorFlow构建深度学习模型

数据派THU  · 公众号  · 大数据  · 2017-08-03 19:03

正文

作者:NSS

翻译:伊凡

校对:杨学俊

本文长度为1500字,建议阅读3分钟

NSS是一个数据分析和数据科学的爱好者,他经常在Analytics Vidhya上面分享数据科学方面的教程。本文是他所撰写的关于如何在R中使用Keras构建手写数字分类模型的入门教程。


引言:


在R和Python之间如何进行选择一直是一个热议的话题。机器学习世界也被不同语言偏好所划分。但是随着深度学习的盛行,天平逐渐向Python倾斜,因为截至目前为止Python具有大量R所没有的深度学习的资源库和框架。


我个人从R转到Python是因为我想更加深入机器学习的领域,而仅仅使用R的话,这(在之前)是几乎不可能实现的事情。不过也仅此而已!


随着Keras在R中的实现,语言选择的斗争又重新回到舞台中央。Python几乎已经慢慢变成深度学习建模的默认语言,但是随着在R中以TensorFlow(CPU和GPU均兼容)为后端的Keras框架的发行, 即便是在深度学习领域,R与Python抢占舞台的战争也再一次打响。


下面我们将会看到怎样在R中安装以TensorFlow为基础的Keras框架,然后在RStudio中构建我们基于经典MNIST数据集的第一个神经网络模型。

 

内容列表:


  • 以TensorFlow为后端的Keras框架安装

  • 在R中可以使用Keras来构建模型的不同类型

  • 在R中使用MLP将MNIST手写数字进行归类

  • 将MNIST结果与Python中同等代码结果进行比较

  • 结语

 

一、以TensorFlow为后端的Keras框架安装


在RStudio中安装Keras的步骤非常简单。只要跟着以下步骤,你就可以在R中构建你的第一个神经网络模型。


install.packages("devtools")

devtools::install_github("rstudio/keras")


以上步骤会从Github资源库下载Keras。现在是时候把keras加载进R,然后安装TensorFlow。


library(keras)


在默认情况下,RStudio会加载CPU版本的TensorFlow。如果没有成功加载CPU版本的TensorFlow, 使用以下指令来下载。


install_tensorflow()


如要为单独用户或桌面系统安装GPU支持的TensorFlow,使用以下指令。


install_tensorflow(gpu=TRUE)


为多重用户安装,请参考这个指南:https://tensorflow.rstudio.com/installation_gpu.html


现在在我们的RStudio里,keras和TensorFlow都安装完毕了。让我们开始构建第一个在R中的神经网络来处理MNIST数据集吧。

 

二、在R中可以使用keras来构建模型的不同类型


以下是可以在R中使用Keras构建的模型列表


  1. 多层感知器(Multi-Layer Perceptrons)

  2. 卷积神经网络(Convoluted Neural Networks)

  3. 递归神经网络(Recurrent Neural Networks)

  4. Skip-Gram模型

  5. 使用预训练的模型(比如VGG16、RESNET等)

  6. 微调预训练的模型


让我们从构建仅有一个隐藏层的简单MLP模型开始,来试着对手写数字进行归类。

 

三、在R中使用MLP将MNIST手写数字进行归类


#loading keras library

library(keras)

#loading the keras inbuilt mnist dataset

data

#separating train and test file

train_x

train_y

test_x

test_y

rm(data)

# converting a 2D array into a 1D array for feeding into the MLP and normalising the matrix

train_x

test_x

#converting the target variable to once hot encoded vectors using keras inbuilt function

train_y

test_y

#defining a keras sequential model

model

#defining the model with 1 input layer[784 neurons], 1 hidden layer[784 neurons] with dropout rate 0.4 and 1 output layer[10 neurons]

#i.e number of digits from 0 to 9

model %>%

layer_dense(units = 784, input_shape = 784) %>%

layer_dropout(rate=0.4)%>%

layer_activation(activation = 'relu') %>%

layer_dense(units = 10) %>%

layer_activation(activation = 'softmax')

#compiling the defined model with metric = accuracy and optimiser as adam.

model %>% compile(

loss = 'categorical_crossentropy',

optimizer = 'adam',

metrics = c('accuracy')

)

#fitting the model on the training dataset

model %>% fit(train_x, train_y, epochs = 100, batch_size = 128)

#Evaluating model on the cross validation dataset

loss_and_metrics % evaluate(test_x, test_y, batch_size = 128)


以上的代码获得了99.14%的训练精度和96.89%的验证精度。在我的i5处理器上跑这段代码完整训练一次用时13.5秒,而在TITANx GPU上,验证精度可以达到98.44%,训练一次平均用时2秒。

 

四、使用keras来构建MLP模型——R Vs. Python


为了更好地比较,我同样使用Python来实现解决以上的MINIST归类问题。结果不应当有任何差别,因为R会创建一个进程(conda instance)并在其中运行keras。但你仍然可以尝试以下同等的Python代码。


#importing the required libraries for the MLP model

import keras

from keras.models import Sequential

import numpy as np

 

#loading the MNIST dataset from keras

from keras.datasets import mnist

(x_train, y_train), (x_test, y_test) = mnist.load_data()

 

#reshaping the x_train, y_train, x_test and y_test to conform to MLP input and output dimensions

x_train=np.reshape(x_train,(x_train.shape[0],-1))/255

x_test=np.reshape(x_test,(x_test.shape[0],-1))/255

 

import pandas as pd

y_train=pd.get_dummies(y_train)

y_test=pd.get_dummies(y_test)

 

#performing one-hot encoding on target variables for train and test

y_train=np.array(y_train)

y_test=np.array(y_test)

 

#defining model with one input layer[784 neurons], 1 hidden layer[784 neurons] with dropout rate 0.4 and 1 output layer [10 #neurons]

model=Sequential()

 

from keras.layers import Dense

 

model.add(Dense(784, input_dim=784, activation='relu'))

keras.layers.core.Dropout(rate=0.4)

model.add(Dense(10,input_dim=784,activation='softmax'))

 

# compiling model using adam optimiser and accuracy as metric

model.compile(loss='categorical_crossentropy', optimizer="adam", metrics=['accuracy'])

# fitting model and performing validation

 

model.fit(x_train,y_train,epochs=50,batch_size=128,validation_data=(x_test,y_test))


以上模型在同样的GPU上达到了98.42%的验证精度。所以,就像我们在一开始猜测的那样,结果是相同的。

 

五、结语


如果这是你用R构建的第一个深度学习模型,我希望你很享受这个过程。使用很简单的代码,你就可以对手写数值进行精确度达到98%的分类。这应该可以给你足够的动力让你在机器学习的领域探索。


如果你已经在Python中使用过keras深度学习框架,那么你会发现R中keras框架的句式和结构跟其在Python中非常相似。事实上,R中的keras安装包创造了一个conda环境而且安装了在该环境下运行keras所需要的所有东西。但是,更让我兴奋的是:看到现在数据科学家们使用R构建有关现实生活的深度学习模型。就像有句话说的一样,竞争永不停歇。


原文链接:

https://www.analyticsvidhya.com/blog/2017/06/getting-started-with-deep-learning-using-keras-in-r/ 


伊凡,公共管理硕士在读,爱数据,爱美食,所谓不爱数据分析的吃货不是好翻译。在星辰大海的征途上,让我们手拉手肩并肩,共同探索这个有趣的世界。

翻译组招募信息

工作内容:需要一颗细致的心,将选取好的外文文章翻译成流畅的中文。如果你是数据科学/统计学/计算机类的留学生,或在海外从事相关工作,或对自己外语水平有信心的朋友欢迎加入翻译小组。

你能得到:定期的翻译培训提高志愿者的翻译水平,提高对于数据科学前沿的认知,海外的朋友可以和国内技术应用发展保持联系,THU数据派产学研的背景为志愿者带来好的发展机遇。

其他福利:来自于名企的数据科学工作者,北大清华以及海外等名校学生他们都将成为你在翻译小组的伙伴。


点击文末“阅读原文”加入数据派团队~


为保证发文质量、树立口碑,数据派现设立“错别字基金”,鼓励读者积极纠错

若您在阅读文章过程中发现任何错误,请在文末留言,或到后台反馈,经小编确认后,数据派将向检举读者发8.8元红包

同一位读者指出同一篇文章多处错误,奖金不变。不同读者指出同一处错误,奖励第一位读者。

感谢一直以来您的关注和支持,希望您能够监督数据派产出更加高质的内容。

转载须知

如需转载文章,请做到 1、正文前标示:转自数据派THU(ID:DatapiTHU);2、文章结尾处附上数据派二维码。

申请转载,请发送邮件至[email protected]

公众号底部菜单有惊喜哦!

企业,个人加入组织请查看“联合会”

往期精彩内容请查看“号内搜”

加入志愿者或联系我们请查看“关于我们”

点击“阅读原文”报名