ICode9

精准搜索请尝试: 精确搜索
  • arm-linux-gnueabihf-g++: error trying to exec 'cc1plus': execvp: No such file or directory2021-10-18 17:31:41

        问题 : ubuntu:18.04版本,交叉编译代码报错 arm-linux-gnueabihf-g++: error trying to exec 'cc1plus': execvp: No such file or directory   解决方案:类似的这种可以看下交叉编译工具,比如这个就找一下交叉编译工具里面有没有对应的文件,有的话将环境变量导一下就好了(这个

  • 机器学习相关概念与模型2021-10-17 21:32:45

    交叉验证(Cross Validation-CV) 目的:防止模型在训练集上过拟合,导致在测试上表现不好,使用验证集筛选出最优参数。 交叉验证仍需要测试集做最后的模型评估,但不再需要验证集。 最基本的方法被称之为,k-折交叉验证 。 k-折交叉验证将训练集划分为 k 个较小的集合(其他方法会在下面

  • Linux 交叉编译简介2021-10-16 06:31:12

    Linux 交叉编译简介 主机,目标,交叉编译器 主机与目标 编译器是将源代码转换为可执行代码的程序。像所有程序一样,编译器运行在特定类型的计算机上,输出的新程序也运行在特定类型的计算机上。 运行编译器的计算机称为主机,运行新程序的计算机称为目标。当主机和目标是同一类型的机器时,

  • 9-图像分割之BiSeNet2021-10-12 17:03:43

    1.前置 分割常用损失函数: 交叉熵:兼容大部分语义分割场景,但是在二分类场景中如果某一类所占像素特别多那么模型会偏向这一类,分割效果不好。 加权交叉熵:顾名思义,在交叉熵前面加一个权重,可以有效缓解类不平衡问题。 BCELoss:可以理解为二分类情况下的交叉熵,通常接sigmoid激活函数

  • libev交叉编译过程记录2021-10-09 15:03:27

    1.官方下载libev源码 git clone https://github.com/enki/libev.git     2.编译生成Makefile ./configure --host=arm-linux CC=arm-linux-gnueabihf-gcc --prefix=/mnt/share/lib       3.生成 make 3.安装到指定目录,收货  make install DESTDIR=/root/proj

  • 交叉熵损失函数原理和推导2021-09-28 12:58:29

    目录 一 交叉熵原理1 信息量2 信息熵(熵)3 相对熵(KL散度)4 交叉熵5 小结 二 推导1 Logistic交叉熵损失函数2 Softmax交叉熵损失函数 附录 求导公式和法则 一 交叉熵原理 1 信息量 信息量的大小与信息发生的概率成反比。 公式如下:

  • Flex布局2021-09-26 18:34:29

    <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta http-equiv="X-UA-Compatible" content="IE=edge"> <meta name="viewport" content="width=d

  • K折交叉验证2021-09-24 20:34:54

    k 折交叉验证(k-fold cross validation) 静态的「留出法」对数据的划分方式比较敏感,有可能不同的划分方式得到了不同的模型。「k 折交叉验证」是一种动态验证的方式,这种方式可以降低数据划分带来的影响。具体步骤如下: 将数据集分为训练集和测试集,将测试集放在一边 将训练集分为 k 份

  • 交叉熵的简单理解2021-09-24 19:34:20

    交叉熵损失计算示例 交叉熵损失公式 交叉熵损失公式 其中y为label,p^为预测的正类别概率,即在二分类中通过sigmoid函数得出的正类别概率大小。 举例: criterion = nn.CrossEntropyLoss() input = torch.randn(3, 5, requires_grad=True) target = torch.empty(3, dtype=t

  • 信息熵、相对熵与交叉熵2021-09-24 14:33:51

    目录 1. 信息熵2. 相对熵3. 交叉熵4. 交叉熵与softmax 1. 信息熵   熵是一个信息论中的概念,表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。信息熵公式如下: H (

  • scikit基础与机器学习入门(11) 欠拟合,过拟合和交叉验证2021-09-19 20:34:27

    欠拟合和过拟合的定义 在机器学习问题中,经常会出现模型在训练数据上的得分很高,但是在新的数据上表现很差的情况,这称之为过拟合overfitting,又叫高方差high variance 而如果在训练数据上得分就很低,这称之为欠拟合underfitting,又叫高偏差high bias 留出法与验证集 为了解决过拟合

  • 弹性布局用法2021-09-18 17:58:57

    参考文档 :https://www.runoob.com/w3cnote/flex-grammar.html flex 弹性 order 子标签属性 多个盒子排放顺序 默认0 父元素设置` display:flex 子元素 flex : 1 order:10 父元素设置 colum竖着 主轴的方向 row 横着 flex-direction:column; 父元素设置文本垂直上下居中 d

  • Solidworks包覆字体的使用详解2021-09-16 19:03:02

    Solidworks包覆是将草图轮廓闭合到面上,包覆特征会将草图包裹到平面或非平面,可从圆柱、圆锥或拉伸的模型生成一平面。也可以选择平面轮廓来添加多个闭合的样条曲线草图。包覆特征支持轮廓选择和草图再用。将以将包覆特征投影至多个面上。包覆的草图只可以包含多个闭合轮廓。不能从

  • openssl交叉编译2021-09-15 11:02:21

    1、下载openssl源码包 /source/old/index.html 官网进不去,可到这个链接下载: Index of /openssl 本文下载的版本是:openssl-1.0.2u 2、解压 tar -xvf openssl-1.0.2u.tar.gz cd openssl-1.0.2u 3、配置 ./config --prefix=$PREFIX os/compiler:arm-linux-gnueabihf-gcc 3、编译安

  • 交叉编译、软硬链接2021-09-10 19:33:49

    什么是交叉编译?交叉编译是一个行为,是在一个平台上生成另一个平台上的可执行代码。 本地编译:本地编译可以理解为,在当前编译平台下,编译出来的程序只能放到当前平台下运行。平时我们常见的软件开发,都是属于本地编译:比如,我们在 x86 平台上,编写程序并编译成可执行程序。这种方式下

  • 理解机器学习的交叉熵为何用来表示损失函数2021-09-10 17:32:27

    目录 前言 一、损失函数 二、KL散度(相对熵) 三、信息论 1.信息量 2 熵    总结 前言 最近上课学习了交叉熵: 但是很不理解为什么要对概率进行-log处理,凭直观的感受1-x也能衡量误差,于是通过学习交叉熵的定义由来,进一步理解 一、损失函数 损失函数能量化所学模型的好坏,

  • word2016如何插入题注并交叉引用2021-09-05 16:05:40

    word2016如何插入题注并交叉引用## 标题 在毕业论文、科研论文等写作时,为方便读者阅读,常对文中图表进行交叉引用,以便读者在阅读到“图1-2”或“表1.1”时可以尽快找到相应图表位置。 (1)常见做法:点击引用中**【插入题注】**,如下图: 再点击编号,根据需求进行设置,但当点击确定时

  • 交叉编译libmad 无法生成动态库2021-09-04 11:02:17

    交叉编译libmad,编译环境x86 64bit ubuntu,运行平台MTK arm 平台。 下载源代:  wget  https://downloads.sourceforge.net/mad/libmad-0.15.1b.tar.gz 解压:tar -zxvf libmad-0.15.1b.tar.gz 编译: cd libmad-0.15.1b,./configure --host=arm  --prefix=xxx/output ,make,make ins

  • BCE和CE交叉熵损失函数的区别2021-08-25 11:29:45

    BCE和CE的区别 首先需要说明的是PyTorch里面的BCELoss和CrossEntropyLoss都是交叉熵,数学本质上是没有区别的,区别在于应用中的细节。 BCE用于二分类,CE用于多分类 BCE适用于0/1二分类,计算公式就是 “ -ylog(y^hat) - (1-y)log(1-y^hat) ”,其中y为GT,y_hat为预测值。这样,当gt为0

  • ffmpeg交叉2021-08-24 22:32:54

    #!/bin/bashNDK=/home/wang/program/android-ndk-r19c#ADDI_LDFLAGS="-fPIE -pie"#ADDI_CFLAGS="-fPIE -pie -march=armv7-a -mfloat-abi=softfp -mfpu=neon"#CPU=armv7-a#ARCH=arm#CPU=x86ARCH=x86#HOST=arm-linuxSYSROOT=$NDK/toolchains/llvm/prebuilt

  • zlib开发笔记(三):zlib库介绍、在ubuntu上进行arm平台交叉编译2021-08-23 21:35:06

    前言   方便做嵌入式arm的交叉移植zlib库。   Zlib库   zlib被设计为一个免费的,通用的,法律上不受限制的-即不受任何专利保护的无损数据压缩库,几乎可以在任何计算机硬件和操作系统上使用。 下载   官网:http://www.zlib.net  QQ群:1047134658(点击“文件”搜索“z

  • 训练集、验证集、测试集的区别与联系2021-08-13 10:33:30

    使用随机森林算法时用到了交叉验证,突然陷入沉思,有测试集的情况下用交叉验证做什么?整理思路如下: 1、训练集,顾名思义,就是拿来训练模型的数据集,通过这个数据训练得到模型的参数; 2、验证集,可以用来做超参数的选取与模型的选取,在没有测试机的情况下也可以评价模型的性能。 3、测试集,用

  • Superset 下钻与交叉筛选2021-08-12 10:01:57

    以下内容来自外网:https://github.com/apache/superset/issues/6774 具体查看外网,我目前还没有琢磨,如果你有了思路请再下方留言

  • 遗传算法介绍2021-08-07 18:57:39

    博主之前学习了遗传算法的原理内容,为了防止忘记,写了这篇博客,也可供初学者参考一二,如有不正确的地方,还望指正,希望和各位共同进步。       遗传算法是一种经典的优化算法,说白了就是找最值,基本的原理就是通过在规定的区间内不断地搜索解方案,比较挑选出其中的最值。 0 绪论  

  • 多类别的Focal loss2021-08-07 12:32:43

    focal loss是为了解决类别不平衡由交叉熵做的改进,关于多分类交叉熵,可以看我的博客 https://blog.csdn.net/qq_44065334/article/details/119056037 原论文Retinanet只说了单分类的Focal loss(FL),在这里我写出多分类FL的式子

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有