ICode9

精准搜索请尝试: 精确搜索
  • Keras之MLPR:利用MLPR算法(3to1【窗口法】+【Input(3)→(12+8)(relu)→O(mse)】)实现根据历史航空旅客数量数据集(时间序列数据)预测下月乘客数量问题2021-06-15 21:04:21

    Keras之MLPR:利用MLPR算法(3to1【窗口法】+【Input(3)→(12+8)(relu)→O(mse)】)实现根据历史航空旅客数量数据集(时间序列数据)预测下月乘客数量问题     目录 输出结果 设计思路 代码实现           输出结果   设计思路   代码实现 后期更新……            

  • Keras之MLPR:利用MLPR算法(1to1+【Input(1)→8(relu)→O(mse)】)实现根据历史航空旅客数量数据集(时间序列数据)预测下月乘客数量问题2021-06-15 21:04:06

    Keras之MLPR:利用MLPR算法(1to1+【Input(1)→8(relu)→O(mse)】)实现根据历史航空旅客数量数据集(时间序列数据)预测下月乘客数量问题     目录 输出结果 设计思路 实现代码 数据集介绍       输出结果 单位为:千人   设计思路   实现代码     数据集介绍 https://data

  • [转]交叉熵 again2021-06-14 12:04:44

    经典概念总是值得反复学习 from:https://zhuanlan.zhihu.com/p/61944055 1. 引言 我们都知道损失函数有很多种:均方误差(MSE)、SVM的合页损失(hinge loss)、交叉熵(cross entropy)。这几天看论文的时候产生了疑问:为啥损失函数很多用的都是交叉熵(cross entropy)?其背后深层的含义是什么?如果换

  • 重磅发布:微服务引擎 MSE 专业版2021-05-31 10:33:58

    简介: 性能提升 10 倍,更高的 SLA 保障,新用户限时抢购 8 折资源包。 微服务引擎 MSE 专业版发布,支持 Nacos 2.0 ,相比基础版,专业版具有更高的 SLA 保障,性能提升十倍,99.95%可用性,配置能力进一步增强,新用户首购8折,点击“查看详情”,了解更多相关信息。   继 Nacos 1.0 发布以来,N

  • 基于麻雀算法优化的核极限学习机(KELM)回归预测 -附代码2021-05-15 14:32:45

    基于麻雀算法优化的核极限学习机(KELM)回归预测 文章目录 基于麻雀算法优化的核极限学习机(KELM)回归预测1.KELM理论基础2.回归问题数据处理4.基于麻雀搜索算法优化的KELM5.测试结果6.Matlab代码 摘要:本文利用麻雀搜索算法对核极限学习机(KELM)进行优化,并用于回归预测.

  • 信息论2021-05-10 02:01:15

    Rate distortion 当讨论quantizer中的distortion时, 就是指MSE(可以有别的方法,但是MSE最常见且简单去计算). conditional entropy(条件熵)可以看作是度量一个source的residual uncertainty(剩余不确定性). 那么在uniform quantization的条件下, 给定x, 那么y就可以直接计算出,

  • 2021-04-242021-04-24 17:29:55

    峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)通常用于测量图像压缩等有损变换的重建图像质量,是一个表示信号所能到达的最大功率和影响它表示精度的背景噪声功率比值的工程度量,对于图像超分辨率,通过信号最大值的平方和图像之间的均方误差定义PSNR。PSNR 通常在 20 到 40 之间变化,数

  • 【笔记】TinyBERT(EMNLP2019)2021-04-17 17:59:36

    【笔记】TinyBERT(EMNLP2019) 两阶段蒸馏:预训练阶段+finetune阶段 设计3种损失函数分布来适应bert的不同层级的损失计算 embedding 层输出来自 transformer 层的隐藏层和注意力矩阵输出 logits 的预测层 1. 知识蒸馏的设计 可以将网络的任何一层称为行为函数(

  • tensorflow(二十一):误差计算方法(MSE和交叉熵)2021-04-02 22:36:24

    一、均方误差                   import tensorflow as tf x = tf.random.normal([2, 4]) w = tf.random.normal([4, 3]) b = tf.zeros([3]) y = tf.constant([2, 0]) #标签值 with tf.GradientTape() as tape: tape.watch([w, b]) prob = tf.nn.softmax(x@

  • 利用自编码神经网络,检测未标记数据集中的异常值2021-03-29 18:52:06

    问题与解决方案在大多数你想用人工智能来解决的实际问题中,很可能你并没有一个带标记的数据集。特别是在预测异常值时,你所拥有的数据集,有可能是包含了数以百万计的历史数据,其中也包括异常值。如果你试图从这样一个未标记的数据集中检测这些异常值 / 离群点,并且担心没有标记的数据集,

  • 超分辨率技术:Adobe Photoshop与深度神经网络对比2021-03-28 09:59:17

    与领先的超分辨率深度神经网络模型相比,Adobe的超分辨率有多有效?这篇文章试图评估这一点,Adobe的超级分辨率的结果非常令人印象深刻。 超分辨率技术 超分辨率是通过提高图像的视分辨率来提高图像质量的过程。拥有一种算法,可以有效地想象出在更高分辨率的图像中将会出现的细节

  • 深度学习入门:线性回归与梯度下降(未完待续...)2021-03-12 16:05:50

    线性回归的优点: 速度快:一旦训练完毕,就不再需要数据集线性回归时多有机器学习的基础,概念非长重要 线性回归的缺点 不是特别容易理解,要多敲代码,多思考 1.为什么需要线性回归 试图找到自变量与因变量之间的关系 线性回归就是求解m和b的过程 注意:自变量可以有多个 2.初步理解

  • 【转载】损失函数 - 交叉熵损失函数2021-01-31 16:01:33

    MSE 转载自:损失函数 - MSE[1] 数理统计中均方误差是指参数估计值与参数值之差平方的期望值,记为MSE。MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。 SSE(和方差) 在统计学中,该参数计算的是拟合数据和

  • 测试一年多,上线就崩溃!微服务到底应该怎么测试?2021-01-20 21:04:19

    前言 简介: 只有了解风险,才能及时应对,保障服务高可用。 不久前,也就是11月16日,澳大利亚交易所(Australian Securities Exchange, ASX)上线了一个新的交易系统,但因为出现故障而被迫关闭。这是其 2016 年因硬件故障导致休市后最为严重的一次事故。 测试了一年多,结果上线当天就奔溃 1

  • 测试一年多,上线就崩溃!微服务到底应该怎么测试?2021-01-20 20:31:04

    前言 简介: 只有了解风险,才能及时应对,保障服务高可用。 不久前,也就是11月16日,澳大利亚交易所(Australian Securities Exchange, ASX)上线了一个新的交易系统,但因为出现故障而被迫关闭。这是其 2016 年因硬件故障导致休市后最为严重的一次事故。 测试了一年多,结果上线当天就

  • 《2020总结-2021展望》2021-01-12 10:31:32

    一年又一年 2020开局就是一波大“惊喜”,工作以来放的最长的一次假,疫情原因导致我们都居家办公了。现在回想起来,那段时间还是很空闲的,除了工作任务,下班后就没看啥书了,带带娃,刷刷手机,偶尔还打一把imba,一天时间眨眼间也就过去了。快乐的时间总是很短暂的,2月22日就回苏准备上班了

  • 深度学习——Pre-Net2021-01-03 12:06:01

    CVPR2019原论文:Progressive Image Deraining Networks: A Better and Simpler Baseline 开源代码(pytorch框架):https://github.com/csdwren/PReNet 1.主要工作: 提出了逐步优化残差网络 progressive ResNet (PRN)和逐步优化循环网络progressive recurrent network (PReNet)完成

  • 用scikit-learn和pandas学习线性回归的方法2020-12-29 14:02:26

    更多python教程请到友情连接: 菜鸟教程www.piaodoo.com 人人影视www.sfkyty.com 飞卢小说网www.591319.com 韩剧网www.op-kg.com 兴化论坛www.yimoge.cn 星辰影院www.hhsos.net 对于想深入了解线性回归的童鞋,这里给出一个完整的例子,详细学完这个例子,对用scikit-learn来运行线性

  • Python实现BP神经网络实现对公路客运量2020-12-22 17:03:07

    BP算法 求解参数w的算法,神经网络的基础,权重的学习算法都是BP学习算法 信号“正向传播(FP)”求损失,“反向传播(BP)”回传误差;根据误差值修改每层的权重,继续迭代 输出层误差 O代表预测结果,d代表真实结果;系数是为了方便求导时计算 隐层的误差 netk是当前神经元的wx的结果;f(net)是激

  • 深度学习_损失函数(MSE、MAE、SmoothL1_loss...)2020-12-11 15:59:55

    @TOC 总结对比MSE损失函数,MAE损失函数以及Smooth L1_loss损失函数的优缺点 1、常见的MSE、MAE损失函数 1.1、均方误差MSE 均方误差(Mean Square Error,MSE)是回归损失函数中最常用的误差,它是预测值f(x)与目标值y之间差值平方和的均值,其公式如下所示: 下图是均方误差值的曲线分

  • 测试集MSE和训练集MSE大小问题2020-12-07 14:33:16

    1、理论上test_mse(测试集mse)有可能比train_mse(训练集mse)大,也有可能比train_mse小; 2、实际在工程中,很难采样到test_mse低的数据,所以看到的大都是test_mse大; 3、解决办法:①增大训练集         ②增加训练集的多样性

  • 微服务最佳实践:MSE 微服务引擎2020-12-01 10:30:45

    简介: 微服务引擎 MSE(Microservice Engine)是一个面向业界主流开源微服务框架 Spring Cloud 和 Dubbo 的一站式微服务平台。其由四个主要部分组成:微服务治理中心、微服务注册中心、微服务配置中心、微服务网关。 MSE 是什么 微服务引擎 MSE(Microservice Engine)是一个面向业界主

  • 均方误差损失函数2020-11-28 14:03:51

    假设我们的模型是二维平面的线性回归模型:  ,对于这个模型,我们定义损失函数为MSE,将得到如下的表达式:   下面我们试着通过概率的角度,推导出上述的MSE损失函数表达式。 在线性回归模型中,我们最终希望对于输入  进行线性组合得到值Y,考虑到输入带有噪声的情况的表达式如下: 为了使

  • [机器学习]机器学习常用的模型评估方法2020-11-27 16:31:56

    目录   混淆矩阵 正确率 精确率 召回率 灵敏度 伪阳性率 特异度 P-R曲线: F1-值 ROC曲线 AUC面积 均方误差 均方根误差 平均绝对误差 混淆矩阵 实际值\预测值 预测值 Positive Negative 实际值 Positive TP FN Negative FP TN   TP: 真阳性,即实际为阳性,预测为阳性

  • TensorFlow入门42020-11-20 09:34:07

    激活函数activation function: relu, sigmoid, tanh  NN复杂度:多用NN层数和NN参数的个数表示 层数:隐藏层的层数+一个输出层 总参数:总w+总b 损失函数(loss):预测值(y)和已知答案(y_)的差距--优化目标:loss最小 均方误差mse:lose_mse = tf.reduce_mean(tf.square(y_-y))

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有