ICode9

精准搜索请尝试: 精确搜索
  • 配置yolov5并训练模型2021-10-20 19:29:58

    提前准备 Pycharmpython3.8yolov5源码 官网链接 创建项目 下载yolov5源码,推荐使用最新版,如下图,直接下载master分支即可 解压下载的zip文件,使用pycharm打开项目,接着添加解释器 这里使用新环境,没有用anaconda,因为使用pycharm自带的python环境可以让虚拟环境跟随项目,在其他

  • 5-4机器学习 --- 多分类学习2021-10-19 23:04:30

    第1关:OvO多分类策略 400 任务要求参考答案评论1 任务描述相关知识 OvO编程要求测试说明 任务描述 本关任务:根据所学知识完成基于 OvO 策略的多分类模型训练与预测,实现多分类任务。 相关知识 OvO 假设现在训练数据集的分布如下图所示(其中A,B,C代表训练数据的类别): 如果想要使用逻

  • 线性回归的从零开始实现2021-10-18 17:32:39

    1 导入实验所需要的包 import torch import numpy as np import matplotlib.pyplot as plt from torch import nn from IPython import display #解决内核挂掉 import os os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE" 2 生成数据集   将根据带有噪声的线性模型构造一个人造

  • 吴恩达机器学习编程作业ex3 Multi-class Classification2021-10-15 23:30:56

    一、程序及函数 1.引导脚本ex3.m %% Machine Learning Online Class - Exercise 3 | Part 1: One-vs-all % Instructions % ------------ % % This file contains code that helps you get started on the % linear exercise. You will need to complete the following

  • 【笔记】Ray Tune,超参最优化(2) :将数据加载和训练过程封装到函数中;使用一些可配置的网络参数;增加检查点(可选);定义用于模型调参的搜索空间2021-10-15 16:02:20

    参考了PyTorch官方文档和Ray Tune官方文档 1、Hyperparameter tuning with Ray Tune — PyTorch Tutorials 1.9.1+cu102 documentation 2、How to use Tune with PyTorch — Ray v1.7.0 以PyTorch中的CIFAR 10图片分类为例,示范如何将Ray Tune融入PyTorch模型训练过程中。 Cod

  • 机器学习(二)2021-10-10 22:30:58

    目录 代码实现 使用Python导入数据  代码实现 使用Python导入数据 代码: from numpy import * import operator def createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group, labels

  • Kubernetes 常用yaml2021-10-10 20:31:36

    Projected 1、secret、configmap、downwardAPI的结合挂载使用 apiVersion: v1 kind: Pod metadata: name: volume-test spec: imagePullSecrets: - name: centos containers: - name: container-test image: 'registry.cn-hangzhou.aliyuncs.com/xy-k8s-study/cen

  • Bert文本分类实践(一):实现一个简单的分类模型2021-10-10 14:02:40

    写在前面 文本分类是nlp中一个非常重要的任务,也是非常适合入坑nlp的第一个完整项目。虽然文本分类看似简单,但里面的门道好多好多,作者水平有限,只能将平时用到的方法和trick在此做个记录和分享,希望大家看过都能有所收获,享受编程的乐趣。 第一部分 模型 Bert模型是Google在2018年10月

  • Mnist手写体识别实验报告2021-10-10 11:59:34

    实验(二) 代码段: # 实验环境:MindSpore-python3.7-aarch64 import os # os.environ['DEVICE_ID'] = '0' import mindspore as ms import mindspore.context as context import mindspore.dataset.transforms.c_transforms as C import mindspore.dataset.vision.

  • 分类贴标签2021-10-08 21:02:46

    DataFrame分类贴标签 y = np.argmax(tf.nn.softmax(encoded_imgs), axis=1) data_before.loc[:, 'labels'] = y df1 = data_before[data_before['labels'] == 0] df2 = data_before[data_before['labels'] == 1] df3 = data_before[data_before[

  • k-近邻法2021-10-03 21:34:55

    算法思路:如果一个样本在特征空间中的k个最相似的样本中的大多数属于某一个类别则该样本也属于这个样本。 基本要素: 1 k值得选择。较小的k值可以减少近似误差,但是会增加估计误差,较大的k值可以减少估计误差,但是会增加近似误差。一般采用交叉验验证法来选取最优的k值。 2 距离度量:

  • 机器学习调试k-近邻算法2021-10-03 18:01:40

    1.1 实验原理 电影名称打斗镜头接吻镜头电影类型电影11101爱情片电影2589爱情片电影31085动作片电影41158动作片 表1.1 表1.2 使用k-近邻算法分类一个电影是爱情片还是动作片,表中红色点属于什么电影? 通过两点距离公式,,我们可以得到如下结果: (101,20)->动作片(108,5)的距离约

  • 2021-10-022021-10-02 22:01:56

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、k近邻算法二、代码展示 结果展示总结 前言 一、什么是K近邻算法 简单地说k近邻算法采用不同特征值之间的距离方法进行分类 k-近邻算法的核心思想为:对于一个给定的训练集,当新的样本到来时,

  • 21个项目玩转深度学习实践笔记Deep-Learning-21-Examples/chapter_1/download.py2021-09-28 21:01:54

    搭建环境 https://zhuanlan.zhihu.com/p/409545573 # coding:utf-8 # 从tensorflow.examples.tutorials.mnist引入模块。这是TensorFlow为了教学MNIST而提前编制的程序 from tensorflow.examples.tutorials.mnist import input_data # 从MNIST_data/中读取MNIST数据。这条语

  • 机器学习(一)---KNN算法学习2021-09-27 21:58:22

    原理理解 KNN就是K最近邻算法,是一种分类算法,意思是选k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。在k个样本中,比重最大的那一类即可把目标归为这一类。 有句话说的好 物以类聚 人以群分 我们想要看某个人是好人还是坏人是什么 ,就得看看他相处的朋友

  • YOLOV5训练数据出现:no labels found2021-09-25 20:01:33

    仔细看下数据加载、处理的文件datasets.py,发现有一句会根据第2步中images文件夹的位置找到对应labels文件夹: 这个替换不仅替换了文件夹的名称,顺便把文件名也改了 哭了,所以根本找不到文件 解决: 借鉴别人的做法:最简单的方法就是把文件名批量改一下了Python 批量修改文件名 im

  • LeetCode 763. Partition Labels2021-09-25 13:32:52

    题目描述 题目链接 思路 显然,如果整个字符串无重复值,那么字符串的字符个数就是最多划分的区间个数。 如果有重复值,假设a字符有重复,那么所有的a必须划分到同一个区间内,否则a分布不同区间的话,就不满足题目要求了。 同理,其他字符也是类似的逻辑。 我们的整体流程是从左往右遍历字符,当

  • scikit基础与机器学习入门(4) sklearn模块数据集的使用——自带数据集和自定义数据集2021-09-19 19:33:54

    API通用方法 类型 获取方式 自带的小数据集 sklearn.datasets.load_ 在线下载的数据集 sklearn.datasets.fetch_ 计算机生成的数据集 sklearn.datasets.make_ load系列 鸢尾花数据集: load_iris() 可用于分类 和 聚类 乳腺癌数据集: load_breast_cancer() 可用于分类

  • 使用 tensorboard 可视化模型、数据和训练2021-09-16 20:04:40

    文章目录 摘要1. TensorBoard 设置2. 写入 TensorBoard3. 使用 TensorBoard 检查模型4. 向 TensorBoard 添加“投影仪”5. 使用 TensorBoard 跟踪模型训练 摘要 为了了解发生了什么,我们在模型训练时打印出一些统计数据,以了解训练是否在进行。 但是,我们可以做得更好:PyTorc

  • sklearn - classification_report2021-09-16 15:03:54

    classification_report:用于显示分类指标的文本报告 classification_report(y_true, y_pred, labels=None, target_names=None, sample_weight=None, digits=2) 参数解释: y_true : 1维度数组,或者标签指示器/稀疏矩阵 , 目标值y_pred : 1维数组,或者标签指示器/稀疏矩阵 , 分类

  • py使用pie绘制饼图或圆环图2021-09-15 15:02:01

    本博文源于《python数据可视化》(黑马程序员编著).旨在讲解如何使用py中的pie绘制饼图或者圆环图。先讲解pie参数,最后给出两个示例演示饼图和圆环图绘制。 1.pie参数讲解 pie(x,explode=None,labels=None,autopct=None,pctdistance=0.6,shadow=False,labeldistance=1.1, star

  • 文本分类pytorch Bert fine tune2021-09-15 11:03:24

    基于Bert预训练模型的文本分类fine tune 环境 python==3.7torch==1.7.1transformers==4.9.2scikit-learn==0.21.3tensorboard==2.5.0pandasnumpy 构建数据集 将数据放到如下图格式的dataframe中,label对应的数字为每种类别的下标。 random seed设置 import torch import nu

  • 使用随机森林与Xgboost回归对手游《率土之滨》账号进行价格预测2021-09-13 20:33:41

    前言        本文所采用的数据为2020年8月率土之滨藏宝阁的上架商品的数据。数据搜集过程在上一篇文章:使用python+Selenium动态爬取《率土之滨》藏宝阁账号信息_GreyLZ的博客-CSDN博客。获取的数据包括账号价格,武将数量,战法数量,宝物数量,武将卡牌,典藏数量,武将卡牌进阶数量

  • 使用Pandas,Numpy解析的MNIST数据2021-09-12 20:00:37

    首先是参考网站: http://yann.lecun.com/exdb/mnist/ https://docs.python.org/zh-cn/3.8/library/struct.html https://docs.python.org/zh-cn/3.8/tutorial/inputoutput.html#tut-files https://blog.csdn.net/simple_the_best/article/details/75267863 https://numpy.org/doc/

  • 无监督学习 - 聚类度量指标2021-09-12 19:30:11

    来源:简书(FesonX) 简介 首先必须明确,分类和聚类是两个不同的东西。 分类的目的是确认数据属于哪个类别。分类必须有明确的边界,或者说分类是有标准答案的。通过对已知分类数据进行训练和学习,找出已知分类特征,再对未知分类的数据进行分类。因此分类通常是有监督学习。聚类的目的是找

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有