ICode9

精准搜索请尝试: 精确搜索
  • 3.Spark设计与运行原理,基本操作2022-03-08 11:00:28

    1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 2.请阐述Spark的几个主要概念及相互关系:    RDD,DAG,Application, job,stage,task,Master, worker, driver,executor,Claster Manager   RDD任务划分原理窄依赖不会sh

  • 持续集成:Jenkins Pipeline语法介绍2022-03-01 22:34:00

    Pipeline在Unix/Linux系统中经常用到,Pipeline将一个命令/程序/进程的输出发送到另一个命令/程序/进程,以进行进一步处理。比如:cat test.txt | grep test1。Jenkins 中的Pipeline借用了Unix/Linux中的 Pipeline思路,实现像流水线一样来调度Jenkins任务,通过Jenkinsfile来描述整个持续

  • GitLab CI/CD Pipeline 与 jobs的概念2022-02-27 16:35:17

    GitLab CI/CD Pipeline与jobs的概念 在GitLab中 Pipeline 的流水管道包含多个stage(阶段), 每个stage 包含多个jobs。 每一次提交都会触发一次Pipeline, 而每一个Pipeline的内容定义的都是一个个jobs。 所有的jobs都是定义在.gitlab.ci.yml中的, 是.gitlab.ci.yml的最高等级的元素,

  • 用lifelines进行生存分析【Python版】2022-02-24 19:58:00

    开篇语 生存分析在医学研究中占有很大的比例,而且进行生存分析时,多用R语言、SPSS等工具进行生存分析,用python进行生存分析不多。因为发现一个python版的生存分析工具—lifelines ,这个库已经提供比较完善的生存分析相关的工具。自己又最近学习生存分析,然后结合lifelines开始编

  • 【转】你了解ECMAScript吗?2022-02-23 22:04:52

    一、基本概念ECMA,European Computer Manufacturers Association,欧洲计算机制造协会。 TC39,Technical Committee 39,ECMA的第39号技术专家委员会,负责制订ECMAScript,成员由Microsoft、Mozilla、Google等各个主流浏览器厂商的代表组成。 ECMAScript正式名称为ECMA-262,是由TC39制定的标

  • 初识 Spark - 7000字+15张图解,学习 Spark 入门基础知识2022-02-23 20:05:43

    欢迎关注「数人之道」公众号 获取更多数据知识、干货、资讯! 延伸阅读: 初识 Spark | 带你理解 Spark 中的核心抽象概念:RDDSpark RDD 的概念、操作、依赖关系https://mp.weixin.qq.com/s?__biz=MzkwNTI4MDEzOQ==&mid=2247485795&idx=1&sn=5ec304fde1d31f6e269d8ddcb07e8c1c&chks

  • Lambda 表达式详解~Stream Pipelines2022-02-20 13:32:17

    前面我们已经学会如何使用Stream API,用起来真的很爽,但简洁的方法下面似乎隐藏着无尽的秘密,如此强大的API是如何实现的呢?比如Pipeline是怎么执行的,每次方法调用都会导致一次迭代吗?自动并行又是怎么做到的,线程个数是多少?本节我们学习Stream流水线的原理,这是Stream实现的关键所在。

  • 系统启动后bond配置不生效问题定位2022-02-14 22:32:06

    背景描述 为了适配新功能,裸金属服务的磁盘镜像中做了如下修改: dracut添加network, iscsi模块 grub添加rd.iscsi.firmware=1参数 删除网卡配置文件/etc/sysconfig/network-scripts/ifcfg-* 禁止network服务开机启动,防止网络中断 修改镜像后,需对裸金属服务既有功能进行测试,包括初

  • PySpark之Spark的内核调度2022-02-09 12:31:14

    一、RDD依赖 一、为什么要设计宽窄依赖 窄依赖 Spakr可以并行计算如果有一个分区数据丢失,主需要从父RDD的对应1个分区重新计算即可,不需要重新计算整个任务,提高容错 宽依赖 宽依赖是划分Stage的依据 构建Lineage血缘关系 RDD只支持粗粒度转换,即只记录单个块上执行的

  • babel配置解析, 以及babel6和babel7的区别2022-02-02 16:00:08

    概要 Babel 是一个工具链,主要用于将采用 ECMAScript 2015+ 语法编写的代码转换为向后兼容的 JavaScript 语法,以便能够运行在当前和旧版本的浏览器或其他环境中。 Babel可以帮我们做一下事情: 可以把项目中的 es6、es7 等代码转成目标环境支持的代码 可以自动 polyfill 目标环境

  • jenkins基于pipeline实现项目构建2022-01-20 17:31:53

    1、Pipeline 是什么 Jenkins Pipeline 实际上是基于Groovy实现的CI/CD领域特定语言(DSL),主要分为两类,一类叫做Declarative Pipeline,一类叫做Scripted Pipeline。 1.1 Declarative Pipeline Declarative Pipeline 体验上更接近于我们熟知的 travis CI的 travis.yml,通过声明自

  • vue-cli-service build --mode stage 打包之后没有css如何解决2022-01-20 13:34:05

    之前项目打包一直用默认的npm run build,这样打包实际上默认的是生产环境,也就是production 但是最近需要一个测试环境,于是打包也需要更换一下,换成了stage。可是打包成功之后发现没有css文件夹,经过多方查找锁定了这个css.extract。 不知道有没有css文件夹对项目会不会产生影响,没有试

  • 大三寒假学习 spark学习 RDD的依赖关系和运行过程2022-01-20 13:04:10

    窄依赖与宽依赖的区别: 窄依赖:表现为一个父RDD的分区对应于一个子RDD的分区或多个父RDD的分区对应于一个子RDD的分区 宽依赖:表现为存在一个父RDD的一个分区对应一个子RDD的多个分区 Stage的划分:    Spark通过分析各个RDD的依赖关系生成了DAG再通过分析各个RDD中的分区之间的依

  • 如何观测MySQL DDL的进度2022-01-20 11:01:49

    -- 查看相关的PS监控指标是否开启 SELECT * FROM PERFORMANCE_SCHEMA.SETUP_INSTRUMENTS WHERE NAME LIKE 'stage/innodb/alter%'; SELECT * FROM PERFORMANCE_SCHEMA.SETUP_CONSUMERS WHERE NAME LIKE '%stages%'; -- 可动态开启相关指标 UPDATE PERFORMANCE_SCHEMA.SE

  • 流水线2022-01-13 23:05:33

    django已经部署好了,但是它的复用性很差,要想提高复用性,需要用到流水线                  流水线基本语法 pipeline { agent any #一般用any,表示当前环境,当前在宿主主机里面就是宿主主机的环境,当前在k8s就是在k8s的环境 stages { #stages代表阶

  • chapter4 批处理系统Spark2022-01-11 19:34:45

    目录1 设计思想1.1 MapReduce的局限性1.2 数据模型1.3 计算模型2 体系架构2.1 架构图2.2 应用程序执行流程3 工作原理3.1 Stage划分3.2 Stage内部数据传输3.3 Stage之间数据传输3.4 应用与作业4 容错机制4.1 RDD持久化4.2 故障恢复4.3 检查点 Spark最初的设计目标是基于内存计算的

  • 7.Git 的原理2022-01-09 15:02:45

    一、前言 Git 的三个分区分别是:working directory,stage/index area,commit history。 working directory 是「工作目录」,也就是我们肉眼能够看到的文件,后文我们称其为 work dir 区。 当我们在 work dir 中执行 git add 相关命令后,就会把 work dir 中的修改添加到「暂存区」stage a

  • 086-Spark-RDD-任务(task)划分2022-01-08 13:33:23

    RDD任务切分中间分为:Application、Job、Stage和Task Application:初始化一个SparkContext即生成一个Application; Job:一个Action算子就会生成一个Job; Stage:Stage等于宽依赖(ShuffleDependency)的个数加1; Task:一个Stage阶段中,最后一个RDD的分区个数就是Task的个数。 注意:Application-

  • Mongodb索引及explain2022-01-02 19:59:24

    索引及explain 1)mongodb的_id是如何生成的?可以有什么用途? ObjectId是一个12字节的 BSON 类型字符串。按照字节顺序,一次代表: 4字节:UNIX时间戳 3字节:表示运行MongoDB的主机 2字节:表示生成此_id的进程 3字节:由一个随机数开始的计数器生成的值 用途:主键总是有一个唯一索引,在分布式环

  • 【gitlab 多工程的pipeline】2022-01-01 18:34:43

    gitlab 多工程的pipeline 文献: https://www.kancloud.cn/apachecn/gitlab-doc-zh/1948835 https://docs.gitlab.com/ee/ci/pipelines/multi_project_pipelines.html 遗留问题点 是否可以触发mr是否可以等待子流水线运行结束,也就是控制串型或者并行 【好像可以使用 strategy:

  • k8s中部署jenkins并简单使用2021-12-27 16:04:40

    转载于:https://www.cnblogs.com/coolops/p/13129955.html 一、动态生成Slave 1.1、简介 之前我们都是在物理机或者虚拟机上部署jenkins,但是这种部署方式会有一些难点,如下: 主 Master 发生单点故障时,整个流程都不可用了 每个 Slave 的配置环境不一样,来完成不同语言的编

  • AFL白皮书&实现细节2021-12-27 16:02:01

    源自AFL白皮书和个人理解 AFL白皮书地址 https://lcamtuf.coredump.cx/afl/technical_details.txt 0) 设计声明 AFL尽量不关注任何单一的操作原理,也不为任何特定的理论提供概念证明。该工具可以被认为是一组经过实践测试的黑客技术,实践结果表明它们非常有效,并且以作者当时

  • Jenkins Pipeline流水线2021-12-18 19:00:49

    简介:Jenkins Pipeline能够将多个项目中的配置信息整合在一起,即将多个任务连接在一起,实现当个任务难以完成的复杂操作,形成流水线式作业。 一、入门   1. 概念     A. node(节点):一个node就是一个jenkins节点,是执行step的具体运行期环境;     B. stage(阶段):一个pipeline

  • jenkins结合k8s构建流水线如何提升运行性能和构建效率2021-12-18 13:01:27

    1、插件数量不要安装太多,可以选择性安装需要的插件 2、jenkins的master节点不构建任务,通过标签的方式调用k8s api生成jenkins从节点,在从节点构建任务,任务构建完成从节点自动删除,节省资源 3、尽量使用私有服务器,如使用nexus、gitlab、harbor增加构建速度 4、取消jenkins的定时

  • [自用]目标检测综述学习2021-12-16 22:00:19

    A Survey of Deep Learning-based Object Detection 2021/12/15 the purpose of object detection: locating instances of semantic objects of a certain class *object detection and domain-specific object detection most of the state-of-the-art object detectors ut

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有