ICode9

精准搜索请尝试: 精确搜索
  • flink-9-算子(Operators)2021-06-27 18:32:12

         1.map:         调用: val stream = environment.readTextFile("data/access.log") println(stream.parallelism) val accessStream = stream.map( x => { val splits = x.split(",") val time = splits(0).trim.toLong

  • 解析 Nebula Graph 子图设计及实践2021-06-25 16:35:56

    本文首发于 Nebula Graph 公众号 NebulaGraphCommunity,Follow 看大厂图数据库技术实践。 前言 在先前的 Query Engine 源码解析中,我们介绍了 2.0 中 Query Engine 和 1.0 的主要变化和大体的结构: 大家可以大概了解到用户通过客户端发送一条查询语句,Query Engine 是如何解析语

  • Spark 性能调优2021-06-21 16:02:52

    1.常规性能调优 (1)最优资源配置: Spark性能调优的第一步,就是为任务分配更多的资源,在一定范围内,增加资源的分配与性能的提升是成正比的,实现了最优的资源配置后,在此基础上再考虑进行后面论述的性能调优策略。 资源的分配在使用脚本提交Spark任务时进行指定,标准的Spark任务提交脚本如

  • 【DVRP】基于matlab遗传和粒子群算法求解带距离的VRP问题【含Matlab源码 1036期】2021-06-20 15:30:23

    一、简介 1 遗传算法概述 遗传算法(Genetic Algorithm,GA)是进化计算的一部分,是模拟达尔文的遗传选择和自然淘汰的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。该算法简单、通用,鲁棒性强,适于并行处理。 2 遗传算法的特点和应用 遗传算法是一类可用于复

  • 【机器视觉】 throw算子2021-06-16 14:58:10

    00. 目录 文章目录 00. 目录01. 概述02. 签名03. 描述04. 注意05. 参数06. 结果07. 附录 01. 概述 throw- 抛出一个用户定义的异常或重新抛出一个捕获的异常。 02. 签名 throw( : : Exception : ) 03. 描述 ​ 使用try,catch,endtry和throw等算子可以在HDevelop中实现动态

  • 【机器视觉】 export_def算子2021-06-16 12:06:01

    00. 目录 文章目录 00. 目录01. 概述02. 签名03. 描述04. 注意05. 参数06. 结果07. 附录 01. 概述 export_def - 将任意文本插入到程序的导出代码中。 02. 签名 export_def( : : Position, Declaration : ) 03. 描述 export_def允许定义逐行写入要导出{项目或程序}的输

  • Spark-core性能优化——开发调优2021-06-15 19:05:08

    目录 Spark-core性能优化——开发调优 开发调优基本原则 原则一:避免创建重复的RDD 原则二:尽可能复用同一个RDD 原则三:对多次使用的RDD进行持久化 原则四:尽量避免使用shuffle类算子 原则五:使用map-side预聚合的shuffle操作 原则六:使用高性能的算子 原则七:广播大变量 原则八:使用Kr

  • Flink并行度设置优先级2021-06-14 15:01:41

    1, 从socket流中读取数据并行度只能是 1 //从socket文本流读取数据 DataStream<String> inputDataStream = env.socketTextStream(host, port); 2, 特定的算子设定了并行度最优先 //基于数据流进行转换计算 DataStream<Tuple2<String, Integer>> resultStream = inputDataSt

  • Spark算子 - groupByKey2021-06-14 14:01:24

    释义 根据RDD中的某个属性进行分组,分组后形式为(k, [v1, v2, ...]) 方法签名如下: def groupByKey(): RDD[(K, Iterable[V])] = self.withScope { ... } 案例 查看每个科目有哪些学生选择 object TestGroupByKey { def main(args: Array[String]): Unit = { val conf:

  • Spark算子 - groupBy2021-06-14 13:32:24

    释义 根据RDD中的某个属性进行分组,分组后形式为(k, [(k, v1), (k, v2), ...]),即groupBy 后组内元素会保留key值 方法签名如下: def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] = withScope { ... } f: 分组操作。输入类型为T,操作过程为K,最后RDD

  • canny算子实现2021-06-13 14:32:45

    原理: 实现: //阶乘 int factorial(int n) { int fac = 1; if (n == 0) return fac; for (int i = 1; i <= n; ++i) fac *= i; return fac; } //获得Sobel平滑算子 Mat getSobelSmooth(int size) { int n = size - 1; Mat SobelSmoothoper = Mat::zeros(size, 1, CV_

  • 生产环境中的并行度和资源设置2021-06-12 11:54:04

    声明:本系列博客为原创,最先发表在拉勾教育,其中一部分为免费阅读部分。被读者各种搬运至各大网站。所有其他的来源均为抄袭。 《2021年最新版大数据面试题全面开启更新》       在使用Flink处理生产实际问题时,并行度和资源的配置调优是经常要面对的工作之一,如果有效和正确地配

  • 生产环境中的并行度和资源设置2021-06-12 11:53:55

    声明:本系列博客为原创,最先发表在拉勾教育,其中一部分为免费阅读部分。被读者各种搬运至各大网站。所有其他的来源均为抄袭。 《2021年最新版大数据面试题全面开启更新》       在使用Flink处理生产实际问题时,并行度和资源的配置调优是经常要面对的工作之一,如果有效和正确地配

  • c++中endl操作符以及它的兄弟们2021-06-09 16:54:08

    说明一下,我用的是g++7.1.0编译器,标准库源代码也是这个版本的。 一直以来,我们每次使用cout输出数据的时候,如果要换行,都知道使用形如cout << endl;这样的形式,那么endl到底是什么呢,它是怎么样实现输出一个换行符的功能的,以前我没有思考过,但现在我想弄懂它,下面就一起看一下吧。 1.e

  • Spark算子 - reduce2021-06-08 20:03:47

    释义 reduce将partition内所有记录最终计算成1个记录,结果类型与reduce 时数据类型一致 方法签名如下: def reduce(f: (T, T) => T): T = withScope { ... } f: 每个partition内,每每2个记录进行归并计算。输入类型为U跟U,输出为U,即输入类型与输出类型一致 案例 计算数组总和

  • spark的去重算子2021-06-05 22:57:40

    import org.apache.spark.{SparkConf, SparkContext} object Test6 { def main(args: Array[String]): Unit = { val sparkconf = new SparkConf().setMaster("local[*]").setAppName("wordcount") val sc =new SparkContext(sparkconf)

  • flink的执行原理猜想2021-06-05 09:05:12

    一,flink的架构,flink的组件和各自的作用 client:根据job生成流图StreamGraph,优化流图生成Job图JobGraph,在这个过程中,会将一些算子合并组成operator chain,提交Job到集群。JobManager:接收Job,使用Job Master将JobGraph转换为ExecutionGraph,向ResouceManager申请资源,根据Execution

  • Flink 自定义时间流处理2021-06-04 17:00:59

    其他参考项目:https://gitee.com/liangxianning/flinkx/tree/master/docs flinkx: 袋鼠云的开源项目   对于大多数流数据处理应用程序而言,能够使用处理实时数据的代码重新处理历史数据并产生确定并一致的结果非常有价值。 在处理流式数据时,我们通常更需要关注事件本身发生的顺序

  • 算子算力计算2021-06-01 07:01:37

    1. 仅基于算力或者算子算法的公司成功率比较低,只有少数头部企业赢者通吃:反例寒武纪被华为抛弃,正例如英伟达也要持续观察,即便是正例,也要看到TESLA抛弃它做FSD,蔚来小鹏蠢蠢欲动想做自己的芯片。 2. 基于场景看比较容易成功,软硬结合护城河比较深:比如监控识别的海康大华,自动驾驶的Mobi

  • GaussDB for DWS:内存自适应控制技术解密2021-05-26 23:53:17

    1.技术背景在SQL语句复杂、处理数据量大的AP场景下,单个查询对内存的需求越来越大,多个语句的并发很容易将系统的内存吃满,造成内存不足的问题。为了应对这种问题,GaussDB for DWS引入了内存自适应控制的技术,在上述场景下能够对运行的作业进行内存级的管控,避免高并发场景下内存不足产生

  • 图像处理——拉普拉斯算子(python代码)2021-05-22 18:34:00

    二阶微分锐化图像–拉普拉斯算子 拉普拉斯算子的定义 着重于图像中的灰度突变区域,而非灰度级缓慢变化的区域,会产生暗色背景中叠加有浅辉边界线和突变点(轮廓)。 原图加拉普拉斯算子计算后的图像可以使图像锐化。 离散形式描述 滤波器模板描述 代码 import numpy as np fro

  • RDD之action算子2021-05-22 17:04:09

    action算子 1.reduce(function) reduce将RDD中元素两两传递给输入函数,同时产生一个新值,新值与RDD中下一个元素再被传递给输入函数,直到最后只有一个值为止。 from operator import add add(1,2) 3 sc.parallelize([1,2,3,4,5]).reduce(add) 15 sc.parallelize((2 for_in range(10)))

  • RDD的创建及transform算子2021-05-22 16:36:16

    RDD的创建 通过已知的并行集合创建。可以通过已知的SparkContext的parallelize方法将一个已存在的集合变成RDD data=[1,2,3,4,5] distData=sc.parallelize(data) #通过并行化创建RDD distData.collect() 将内存中的数据显示子啊屏幕中 distData=sc.parallelize(data,10) #10就

  • MXNet 图优化与算子融合2021-05-21 07:01:18

    MXNet 图优化与算子融合Graph Optimization and Quantization based on subgraph and MKL-DNN Purpose MKL-DNN引入了两个高级特性:融合计算和降精度核。这些特性可以显著地提高各种深度学习拓扑在CPU上的推理性能。 然而,MXNet由于图表示的局限性和以往缺乏图的优化,仍然不能从中受

  • ITK:图像的拉普拉斯算子2021-05-19 21:56:44

    ITK:图像的拉普拉斯算子 内容提要 输出结果 输入 输出 C++实现代码 内容提要 该过滤器计算标量值图像的拉普拉斯算子。 输出结果 输入 输出 C++实现代码 #include "itkImageFileReader.h" #include "itkImageFileWriter.h"

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有