ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

深度学习项目构建(持续更新)

2021-07-28 13:01:41  阅读:177  来源: 互联网

标签:原图 定义 训练 模型 样本量 更新 构建 深度 GPU


文章目录

一. 数据集

1.1 获取数据集

Kaggle, 竞赛, Github以及Sklearn内置

1.2 导入PyTorch

数据, 图像打包,表格 和标签转化为Tensor

1.3 数据预处理

分割批次(分割训练集和测试集)
研究数据
定义transform,数据增强

图像归一化,图像尺寸重调, 图像去重,去除无效图片, etc.
定义数据导入函数

1.4 定义训练需要的一切元素

定义损失函数
定义评估指标, 循环所需要的超参数
定义优化算法及其超参数

1.5 定义训练函数

修正数据结构
正向传播
计算损失
迭代当前权重
清空本轮梯度
完成模型进度与效果监控
测试
迭代停止

1.5 Baseline

建立Baseline, epoch设置>=10

二. 模型选择 (分类网络)

2.1 原图尺寸接近30X30 (特征数量接近1000)

样本量小于6w

数据增强->批次分割->迁移学习->控制网络层数

推荐AlexNet基础上修改ResNet18及以下网络, 谨慎使用VGG

注: VGG不会改变图像尺寸

样本量>=6万

批次分割->GPU计算

ResNet18或者34, VGG13, 16都可尝试

2.2 原图尺寸接近224X224(特征数量接近4w)

样本量小于6w

数据增强->批次分割->迁移学习->控制网络层数

ResNet34及以上Inception系列

样本量>=6万

批次分割->GPU计算

VGG以上任意架构可以尝试各种ResNet和Inception的变体

三. 依据精度和效率选出基准模型, 基于基准模型自建架构以供训练使用

3.1 有GPU

大batch_size 64或者128

大epochs 50或者100

3.2 无GPU

小batch_size 一般是16, 最小是4

小epochs 一般是10, 最小可设置2或者5

是否迁移学习

模型微调

四. 调参

4.1 模型微调(fine-tuning)

参数调整(训练参数)
模型优化
学习率调整
参数初始化
正则化等操作
模型融合

4.2 无法达标

操作错误

忽略,或无法实现论文中某些重要细节
基准模型选择错误
微调思路有误

客观上限

数据质量,数量不达标
论文结构有待考证

标签:原图,定义,训练,模型,样本量,更新,构建,深度,GPU
来源: https://blog.csdn.net/landian0531/article/details/119153676

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有