ICode9

精准搜索请尝试: 精确搜索
  • 51序列模型2022-06-27 10:02:31

    点击查看代码 import torch from torch import nn from d2l import torch as d2l """

  • 如何从使用 nltk 计算 BLEU 转到 使用CocoEval 计算 BLUE、Cider、Meter、Rough、Spice、2022-04-13 17:34:53

      仅对于Cider计算而言,nltk对输入的要求同Coco是不同的。   前者仅要求输入的 reference 长度等于 hypotheses,并且要求 reference 为一维 List,要求 hypotheses 是二维 List。   Coco则不同,他要求输入的 reference 长度等于 hypotheses,并且二者都是字典形式,对应的 refe

  • 小总结-特征点检测的两种方法-FC回归和heat map2022-04-05 14:32:49

    最近研究了一下特征点检测最后一步的的两种主流方法,整理了分享出来。其实说的是经过一系列网络运算之后,最后一步如何由网络的feature map直接预测出特征点坐标位置。 ---------Agenda------- overview 基本的heat map是怎么实现的 fc VS heat map heat map v2.0 ---------------

  • Histopathologic Cancer Detection(densenet169)学习笔记2021-10-02 09:58:05

    1、kaggle比赛地址 Histopathologic Cancer Detection | Kaggle 2、说明 这是一个二元图像分类问题。先看下官方给出的数据集构成。 train:训练集。一些病理学图像,.tif文件,大小96 x 96px。(每个样本称为patch) test:测试集。图像格式和训练集的相同。 train_labels.csv:训练集的标签

  • 使用 tensorboard 可视化模型、数据和训练2021-09-16 20:04:40

    文章目录 摘要1. TensorBoard 设置2. 写入 TensorBoard3. 使用 TensorBoard 检查模型4. 向 TensorBoard 添加“投影仪”5. 使用 TensorBoard 跟踪模型训练 摘要 为了了解发生了什么,我们在模型训练时打印出一些统计数据,以了解训练是否在进行。 但是,我们可以做得更好:PyTorc

  • 文本分类pytorch Bert fine tune2021-09-15 11:03:24

    基于Bert预训练模型的文本分类fine tune 环境 python==3.7torch==1.7.1transformers==4.9.2scikit-learn==0.21.3tensorboard==2.5.0pandasnumpy 构建数据集 将数据放到如下图格式的dataframe中,label对应的数字为每种类别的下标。 random seed设置 import torch import nu

  • 从零开始学keras之使用 LSTM 生成文本2021-06-05 16:53:03

    下面用 Keras 来实现这些想法。首先需要可用于学习语言模型的大量文本数据。我们可以使用任意足够大的一个或多个文本文件——维基百科、《指环王》等。本例将使用尼采的一些作品,他是 19 世纪末期的德国哲学家,这些作品已经被翻译成英文。因此,我们要学习的语言模型将是针对于尼采的

  • (七)详解pytorch中的交叉熵损失函数nn.BCELoss()、nn.BCELossWithLogits(),二分类任务如何定义损失函数,如何计算准确率、如何预测2021-05-16 03:34:08

    最近在做交叉熵的魔改,所以需要好好了解下交叉熵,遂有此文。 关于交叉熵的定义请自行百度,相信点进来的你对其基本概念不陌生。 本文将结合PyTorch,介绍离散形式的交叉熵在二分类以及多分类中的应用。注意,本文出现的二分类交叉熵和多分类交叉熵,本质上都是一个东西,二分类交叉熵可以看作

  • Pytorch使用ReduceLROnPlateau来更新学习率2021-05-07 23:52:07

    缘由自己之前写过一个Pytorch学习率更新,其中感觉依据是否loss升高或降低的次数来动态更新学习率,感觉是个挺好玩的东西,自己弄了好久都设置错误,今天算是搞出来了!解析说明torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode=‘min’, factor=0.1, patience=10, verbose=Fal

  • PyTorch的TensorBoard用法示例2021-05-07 23:51:37

    原文: https://www.emperinter.info/2020/07/30/tensorboard-in-pytorch/缘由自己上次安装好PyTorch以及训练了一下官方的数据,今天看到了这个TensorBoard来可视化的用法,感觉不错就尝试玩了一下!自己只是尝试了一下追踪模型训练的过程,其他自己去看官网教程吧!用法具体详细说明请参考htt

  • 从零写CRNN文字识别 —— (6)训练2021-02-12 14:06:08

    前言 完整代码已经上传github:https://github.com/xmy0916/pytorch_crnn 训练 训练部分的代码逻辑如下: for epoch in range(total_epoch): for data in dataloader: 数据输入模型(前馈) 根据输出计算loss loss反馈更新网络参数 if epoch % eval_epoch == 0:

  • lightGBM自定义损失函数loss和metric2021-01-09 23:32:45

    lightGBM自定义损失函数loss和metric 转载于:https://www.cnblogs.com/kayy/p/10824392.html def self_loss(labels, preds): preds = preds.get_label() k = labels - preds #对labels求导 grad = np.where(k>0, 2np.abs(preds)/(np.power(np.abs(labels)+np.abs(preds), 2)+

  • 房价预测Task5-72020-05-13 19:55:04

    房价预测Task5-7 Task 5 从X1-X6中选择合适的项,作为对Y预测的Feature Names;划分训练集和测试集 如何选择 我们使用相关函数来测试X1-X6和Y之间的相关程度。 df_5 = df corr_matrix = df_5.corr() # (1) corr_matrix['Y house price of unit area'].sort_values() # (2) # retur

  • 随机森林分类算法2019-10-27 10:54:39

    随机森林(Random Forest,简称RF)是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树。假设现在针对的是分类问题,每棵决策树都是一个分类器,那么N棵树会有N个分类结果。随机森林集成了所有的分类投票结果,将投票次数最多的类别指定为最终输出。它可以很方便的并行训练。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有