ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

深度学习入门系列11:用Dropout正则减少过拟合

2021-09-06 13:34:32  阅读:149  来源: 互联网

标签:11 keras Dropout 学习 seed 拟合 import model


大家好,我技术人Howzit,这是深度学习入门系列第十一篇,欢迎大家一起交流!

深度学习入门系列1:多层感知器概述
深度学习入门系列2:用TensorFlow构建你的第一个神经网络
深度学习入门系列3:深度学习模型的性能评价方法
深度学习入门系列4:用scikit-learn找到最好的模型
深度学习入门系列5项目实战:用深度学习识别鸢尾花种类
深度学习入门系列6项目实战:声纳回声识别
深度学习入门系列7项目实战:波士顿房屋价格回归
深度学习入门系列8:用序列化保存模型便于继续训练
深度学习入门系列9:用检查点保存训练期间最好的模型
深度学习入门系列10:从绘制记录中理解训练期间的模型行为
深度学习入门系列11:用Dropout正则减少过拟合
待更新……
深度学习入门系列12:使用学习规划来提升性能
深度学习入门系列13:卷积神经网络
深度学习入门系列14项目实战:手写数字识别
深度学习入门系列15用图像增强改善模型性能
深度学习入门系列16:图像中对象识别项目
深度学习入门系列17项目实战:从电影评论预测情感
深度学习入门系列18:递归神经网络

文章目录


对于神经网络和深度学习模型,一个简单而有力的正则化技术是Dropout。在这节课,你将学习Dropout正则化技术,并学会如何在Python中用Keras将它应用到你的模型中。学完之后你将了解:
  • Dropout正则化技术是如何工作的?
  • 如何在输入层中使用Dropout?
  • 如何在隐藏层中使用Dropout?

11.1 神经网络Dropout正则化

Dropout是Srivastava等人针对神经网络提出的正则化技术。在他们2004论文中 Dropout:A simple way to prevent neural networks from overfitting。Dropout是在训练时随机忽略一些神经元的技术。他们被随机丢弃(drop-out)。这意味着在前向计算时会移除对下游神经元激活函数的贡献,并且在反向传输时也不会更新那些权重。

随着神经网络模型不断地学习,神经元的权值会与整个网络的上下文相匹配。神经元的权重针对某些特征进行调优,具有一些特殊化。周围的神经元则会依赖于这种特殊化,如果过于特殊化,模型会因为对训练数据过拟合而变得脆弱不堪。神经元在训练过程中的这种依赖于上下文的现象被称为复杂的协同适应(complex co-adaptations)。你能想象在训练期间随机丢弃一些神经元,其他神经元不得不对丢失的神经的表示进行预测。我们想象这导致网络学习到多个独立的内部表示。

结果是网络对神经元的特定权重变得不那么敏感。反过来,这将导致网络具有更好的泛化能力,并且不太可能对训练数据过度拟合。

11.2 在Keras中使用Dropout正则化

Dropout 通过随机选择节点能够轻松实现,而这些节点在每次权重更新周期内以一定概率(如20%)丢弃。这就是Keras中如何实现Dropout的。Dropout仅仅在训练模型中使用,并不在评估模型时使用这个技巧。接下来,我们将探索Keras中Dropout的不同使用方法。

这个例子将使用Sonar二分类数据集。我们将使用scikit-learn中10折交叉验证来评估已开发的模型,为了更好获取不同的结果。网络中有60输入值和一个输出值,而且使用这些输入值前都被标准化了。基准神经网络模型有两个隐藏层。第一层60个,第二层30个。训练模型时使用随机梯度下降,用相对较低学习率和动量(momentum)。完整基准模型如下:

# Baseline Model on the Sonar Dataset

import numpy
from pandas import read_csv
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import Dropout
from tensorflow.keras.wrappers.scikit_learn import KerasClassifier
from tensorflow.keras.constraints import max_norm
from tensorflow.keras.optimizers import SGD
from sklearn.model_selection import cross_val_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline 

# fix random seed for reproducibility
seed = 7
numpy.random.seed(seed)

# load dataset
dataframe = read_csv("sonar.csv", header=None)
dataset = dataframe.values

# split into input (X) and output (Y) variables
X = dataset[:, 0:60].astype(float)
Y = dataset[:, 60]

# encode class values as integers
encoder = LabelEncoder()
encoder.fit(Y)
encoded_Y = encoder.transform(Y)

# baseline
def create_baseline():
	model = Sequential()
	model.add(Dense(60, input_dim=60, activation="relu"))
	model.add(Dense(30, activation="relu"))
	model.add(Dense(1, activation="sigmoid"))
	# Compile model
	sgd = SGD(lr=0.01, momentum=0.8, decay=0.0, nesterov=False)
	model.compile(loss="binary_crossentropy", optimizer=sgd, metrics=["accuracy"])
	return model

numpy.random.seed(seed)

estimators = []
estimators.append(("standardize", StandardScaler()))
estimators.append(("mlp", KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold)
print("Baseline: %.2f%% (%.2f%%)" % (results.mean() * 100, results.std() * 100))

运行这个基准模型,没有使用Dropout生成的近似分类准确率为82%

Baseline: 86.04% (4.58%)

11.3 在输入层上使用Dropout

输入神经元又称之为可见层,能够使用Dropout。在下面这个例子,我们在输入层和第一可见层之间加了Dropout层。Dropout率被设置为20%,意味着有1/5的神经元会在更新周期被随机排除在外。

另外,按照有关Dropout的原始论文的建议,每个神经元施加一个约束,确保权重最大范数不超过3。当我构建层时,在Dense类中设置W_constraint参数。学习速率也提高了一个数量级而且动量增加到0.9。原论文也推荐增加学习速率。从下面基准例子继续,下面代码使用同样网络练习输入层Dropout。

# Baseline Model on the Sonar Dataset
import numpy
from pandas import read_csv
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import Dropout
from tensorflow.keras.wrappers.scikit_learn import KerasClassifier
from tensorflow.keras.constraints import max_norm
from tensorflow.keras.optimizers import SGD
from sklearn.model_selection import cross_val_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline 

# fix random seed for reproducibility
seed = 7
numpy.random.seed(seed)

# load dataset

dataframe = read_csv("sonar.csv", header=None)
dataset = dataframe.values

# split into input (X) and output (Y) variables
X = dataset[:, 0:60].astype(float)
Y = dataset[:, 60]

# encode class values as integers
encoder = LabelEncoder()
encoder.fit(Y)
encoded_Y = encoder.transform(Y)

# baseline
def create_baseline():
	model = Sequential()
	model.add(Dropout(0.2, input_shape=(60,)))
	model.add(Dense(60, input_dim=60, activation="relu"))
	model.add(Dense(30, activation="relu"))
	model.add(Dense(1, activation="sigmoid"))
	
	# Compile model
	sgd = SGD(lr=0.01, momentum=0.8, decay=0.0, nesterov=False)
	model.compile(loss="binary_crossentropy", optimizer=sgd, metrics=["accuracy"])
	return model

numpy.random.seed(seed)
estimators = []
estimators.append(("standardize", StandardScaler()))
estimators.append(("mlp", KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold)

print("Baseline: %.2f%% (%.2f%%)" % (results.mean() * 100, results.std() * 100))

运行可见层带有Dropout层的例子,在分类精度上很好提升到86%

Visible: 83.52% (7.68%)

11.4 在隐藏层上使用Dropout

Dropout也可以应用在在你的网络模型上的隐藏神经元。下面这个例子中Dropout可以应用在连个隐藏层之间和最后一个隐藏层与输出层之间。Dropout率为20%再次被使用在这些层权重约束上。


# Baseline Model on the Sonar Dataset

import numpy

from pandas import read_csv
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import Dropout
from tensorflow.keras.wrappers.scikit_learn import KerasClassifier
from tensorflow.keras.constraints import max_norm
from tensorflow.keras.optimizers import SGD
from sklearn.model_selection import cross_val_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline 

# fix random seed for reproducibility
seed = 7
numpy.random.seed(seed)

# load dataset
dataframe = read_csv("sonar.csv", header=None)
dataset = dataframe.values

# split into input (X) and output (Y) variables
X = dataset[:, 0:60].astype(float)
Y = dataset[:, 60]

# encode class values as integers
encoder = LabelEncoder()
encoder.fit(Y)
encoded_Y = encoder.transform(Y)

# baseline
def create_baseline():

	model = Sequential()
	model.add(Dense(60, input_dim=60, activation="relu", W_constraint=max_norm(3)))
	model.add(Dropout(0.2))
	model.add(Dense(30, activation="relu", W_constraint=max_norm(3)))
	model.add(Dropout(0.2))
	model.add(Dense(1, activation="sigmoid"))

	# Compile model
	sgd = SGD(lr=0.01, momentum=0.8, decay=0.0, nesterov=False)
	model.compile(loss="binary_crossentropy", optimizer=sgd, metrics=["accuracy"])
	return model

numpy.random.seed(seed)

estimators = []
estimators.append(("standardize", StandardScaler()))
estimators.append(("mlp", KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold)
print("Baseline: %.2f%% (%.2f%%)" % (results.mean() * 100, results.std() * 100))

我们能看到,对于这个问题和选择的这个网络,在隐藏层上使用了Dropout没有提升。实际上性能比较基准还差。可能需要增加训练次数或者进一步调节学习速率。

Hidden: 83.59% (7.31%)

11.5 使用Dropout提示

Dropout原论文在一套标准机器学习问题上提供实验性结果。因此他们提供了很多有用的启发式考虑在实践时使用Dropout:

  • 一般神经元的Dropout值为20%-50%,而20%是一个不错的起点。太低的概率影响最小,而太高的值会导致网络学习不足。
  • 使用一个更大的网络。你使用一个更大的网络可能会得到一个更好的性能,给模型更多的机会学习独立性表示。
  • 在输入层和隐藏层上使用Dropout。在网络每一层上的使用Dropout正则技术,结果显示不错。
  • 使用一个大的学习速率,并带有延迟和大点动量。将学习率提高10到100倍,并使用高动量值0.9或0.99。
  • 网络权重大小的约束。一个大的学习速率导致一个非常大的网络权重。在网络权重施加一个约束,如使用4或者5大小的max-norm正则,已经证明能够改善结果。

11.6 总结

这节课你已发现深度学习模型下的Dropout正则技术。你已学到:

  • 什么是Dropout和它是如何工作的
  • 如何在自己的深度学习模型上使用Dropout。
  • 在你自己模型上使用Dropout获得最好结果的提示。

11.6.1 接下来

另外一个重要的改善你模型的技术是训练期间调整学习速率。在接下来课程中,你将学习不同学习速率的schedules并且你能够在你的问题上通过Keras使用他们。

标签:11,keras,Dropout,学习,seed,拟合,import,model
来源: https://blog.csdn.net/c_he_n/article/details/120132098

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有