标签:14 卷积 神经网络 same add 深度 import model
提交作业
1.简述人工智能、机器学习和深度学习三者的联系与区别。
机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。用圆图来展示就是,最外的圆是人工智能,里面一个是机器学习,最里面的圆是深度学习。
如下图:
2. 全连接神经网络与卷积神经网络的联系与区别。
卷积神经网络的输入输出以及训练的流程和全连接神经网络也基本一致,全连接神经网络的损失函数以及参数的优化过程也都适用于卷积神经网络。
全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构;而对于卷积神经网络,相邻两层之间只有部分节点相连。所以得出全连接神经网络和卷积神经网络的唯一区别就是神经网络相邻两层的连接方式
3.理解卷积计算。
以digit0为例,进行手工演算。
from sklearn.datasets import load_digits #小数据集8*8
digits = load_digits()
4.理解卷积如何提取图像特征。
读取一个图像;
以下矩阵为卷积核进行卷积操作;
显示卷积之后的图像,观察提取到什么特征。
1 | 0 | -1 |
1 | 0 | -1 |
1 | 0 | -1 |
1 | 1 | 1 |
0 | 0 | 0 |
-1 | -1 | -1 |
-1 | -1 | -1 |
-1 | 8 | -1 |
-1 | -1 | -1 |
卷积API
scipy.signal.convolve2d
tf.keras.layers.Conv2D
from scipy.signal import convolve2d from PIL import Image from pylab import * q=np.array([[1,0,-1], [1,0,-1], [1,0,-1]]) #设置第一个的卷积和 w=np.array([[1,1,1], [0,0,0], [-1,-1,-1]]) #设置第二个的卷积和 e=np.array([[-1,-1,-1], [-1,8,-1], [-1,-1,-1]]) #设置第一个的卷积和 img= array(Image.open("firedragon.jpg")) imshow(img) plt.show() img2= array(Image.open("firedragon.jpg").convert('L')) imshow(img2) plt.show() r0=convolve2d(img2,q,boundary='symm',mode='same')#把图像的q数组和设计好的卷积和作二维卷积运算,设计边界处理方式为symm r1=convolve2d(img2,w,boundary='symm',mode='same') r2=convolve2d(img2,e,boundary='symm',mode='same') imshow(r0) plt.show() imshow(r1) plt.show() imshow(r2) plt.show()
原图(喷火龙X形态):
灰度处理后:
第一次卷积后:
第二次卷积:
第三次卷积:
5. 安装Tensorflow,keras
6. 设计手写数字识别模型结构,注意数据维度的变化。
import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPool2D # 导入上一题所下载的包 model = Sequential() # 首先建立起模型 model.add(Conv2D(filters=16,kernel_size=(5, 5),padding='same',input_shape=(28, 28, 1),activation='relu'))# 一层卷积 model.add(MaxPool2D(pool_size=(2, 2)))# 池化层1 model.add(Dropout(0.25)) model.add(Conv2D(filters=32,kernel_size=(5, 5),padding='same',activation='relu'))# 二层卷积 model.add(MaxPool2D(pool_size=(2, 2)))# 池化层2 model.add(Dropout(0.25)) model.add(Conv2D(filters=64,kernel_size=(5, 5),padding='same',activation='relu'))# 三层卷积 model.add(Flatten()) # 平坦层 model.add(Dense(128, activation='relu')) # 全连接层 model.add(Dropout(0.25)) model.add(Dense(10, activation='softmax')) # 激活函数 model.summary()
运行后:
标签:14,卷积,神经网络,same,add,深度,import,model 来源: https://www.cnblogs.com/av10492/p/13041937.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。