ICode9

精准搜索请尝试: 精确搜索
  • MindSpore报错 Select GPU kernel op * fail! Incompatible data type2022-07-17 17:34:31

    1 报错描述 1.1 系统环境 Hardware Environment(Ascend/GPU/CPU): GPUSoftware Environment:– MindSpore version (source or binary): 1.5.2– Python version (e.g., Python 3.7.5): 3.7.6– OS platform and distribution (e.g., Linux Ubuntu 16.04): Ubuntu 4.15.0-74-gener

  • 使用 mixed precision 给 Keras 加速2021-11-16 23:02:01

    可以使用混合精度 mixed precision 给 Keras 加速,3个操作步骤如下: 使用算力在 7.0以上的GPU,比如 NVIDIA的 RTX 3090, 3080等。在建立模型之前,设置 global_policy 为 mixed_float16。 policy = tf.keras.mixed_precision.Policy('mixed_float16') tf.keras.mixed_precision.se

  • 深度学习15 基于keras的知识蒸馏2(实现kl loss和温度T)2021-09-12 19:33:54

    本文讲述的知识蒸馏基于迁移学习所展开,所以对迁移学习(教师网络)中的一些细节有所要求,具体请见深度学习3 使用keras进行迁移学习,主要是指对教师网络的最后一个dense层不能使用激活函数,应添加一个激活层进行激活输出,这样子方便移除激活函数,自行对数据进行升温,然后再激活。 1、导入

  • 混合精度训练amp,torch.cuda.amp.autocast():2021-07-17 09:06:18

    1 需要什么GPU: 在上面讲述了为什么利用混合精度加速,需要拥有 TensorCore 的GPU 0x02. 基础理论: 在日常中深度学习的系统,一般使用的是单精度 float(Single-Precision)浮点表示。在了解混合精度训练之前,我们需要先对其中的主角半精度『float16』进行一定的理论知识学习。 float vs

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有