ICode9

精准搜索请尝试: 精确搜索
  • 【SQLServer】表的索引碎片整理2022-09-13 20:00:30

    1.查看索引的碎片率 SELECT object_name(ips.object_id) AS TableName, ips.index_id, name AS IndexName, avg_fragmentation_in_percent,db_name(ips.database_id) AS DatabaseName FROM sys.dm_db_index_physical_stats (Db_id(DB_NAME()) , NULL , N

  • Java多线程分片数据处理2022-07-11 15:03:26

    java对于数据量较大的数据插入处理或者业务逻辑调用多个远程接口出现性能瓶颈,如何用多线程优化 示例一、对于插入百万级批量数据的处理 1、基于java jdk并发包的实现数据分片处理 //线程池的定义 private static final int corePoolSize = Runtime.getRuntime().availablePro

  • citus 以及timescaledb对于时许数据存储的处理2022-05-10 19:00:07

    从专业程度来说timescaledb 处理时许数据更加方便强大,citus 可以基于pg的分区可以很好的支持时许数据处理 citus 操作流程 一般是创建分区表 参考   CREATE TABLE github_events ( event_id bigint, event_type text, event_public boolean, repo_id

  • consumer负载均衡2022-02-16 22:02:57

    Consumer and Consumer group a.每个consumer客户端被创建时,会向zookeeper注册自己的信息; b.此作用主要是为了"负载均衡". c.同一个Consumer Group中的Consumers,Kafka将相应Topic中的每个消息只发送给其中一个Consumer。 d.Consumer Group中的每个Consumer读取Topic的一个或多

  • Kafka学习之路 (五)Kafka在zookeeper中的存储2022-02-08 07:00:31

    Kafka学习之路 (五)Kafka在zookeeper中的存储   讨论QQ:1586558083 目录 一、Kafka在zookeeper中存储结构图 二、分析 2.1 topic注册信息 2.2 partition状态信息 2.3 Broker注册信息 2.4 Controller epoch 2.5 Controller注册信息 2.6 补充Consumer and Consumer group

  • Spark源码——Job全流程以及DAGScheduler的Stage划分2021-12-14 22:07:03

    (图片来源:北风网) 进去RDD,随便点击一个action操作,比如foreach操作 /** * Applies a function f to all elements of this RDD. */ def foreach(f: T => Unit): Unit = withScope { val cleanF = sc.clean(f) sc.runJob(this, (iter: Iterator[T]) => iter

  • Solution - [CEOI2017]Palindromic Partitions2021-11-16 14:02:10

    思路: 用两个指针 \(L\) 和 \(R\) ,分别指向字符串首尾。从两端同时枚举找到相同的字符串, \(s[1 - L]\) 和 \(s[R - n]\), 然后下次再从 \(L\) 和 \(R\) 出发,继续找到相同的字符串,如果最后找到字符串的长度不足 \(n\) 就将答案加 \(1\)。 例如:\(\texttt{bonobo}\) 先找到 \(s[1 -

  • Kafka 负载均衡策略2021-11-03 12:00:47

    一、生产者负载均衡 1、分区器 使用分区器,kafka生产消息时,根据分区器将消息投递到指定的分区中。 Kafka默认的分区器时DefaultPartitioner。它的分区策略是根据key进行分配的。 如果key不为null: 对key值进行Hash计算,算出一个分区号; 拥有相同Key值被写入同一个分区; 如果key为null:

  • [源码解析] PyTorch 流水线并行实现 (2)--如何划分模型2021-09-24 16:34:14

    [源码解析] PyTorch 流水线并行实现 (2)--如何划分模型 目录[源码解析] PyTorch 流水线并行实现 (2)--如何划分模型0x00 摘要0x01 问题0x01 自动平衡1.1 Automatic Balancing1.2 基础函数/函数1.2.1 Batch1.2.2 layerwise_sandbox1.2.3 detach1.3 据计算时间来平衡1.4 据内存大小

  • Spark源码解析(七)Action算子解析2021-08-04 21:01:43

    1.任务提交分析         这里以org.apache.spark.examples.SparkPi为例。当执行reduce(_+_)方法时,其底层调用了sc.runJob方法。核心代码如下: /** * 注释:(rdd, func, partitions, callSite, resultHandler, properties) * 1、应用程序调用 action 算子 * 2、

  • 【kafka实战】分区重分配可能出现的问题和排查问题思路(生产环境实战,干货!!!非常干!!!建议收藏)2021-07-12 16:00:07

    @目录前提所有异常情况1. TargetBroker若不在线,迁移脚本执行会失败情景演示2. TargetBroker在开始迁移过程中宕机,导致迁移任务一直在进行中情景演示解决方法3. 被迁移副本没有找到Leader,导致TargetReplica一直不能同步副本情景演示解决方案4. 限流导致重分配一直完成不了情景演

  • mysql 分区PARTITIONS之分区方法2021-07-07 10:35:14

    分区依据的字段必须是主键/唯一索引的组成部分,分区是为了快速定位数据,因此该字段的搜索频次较高应作为强检索字段,否则依照该字段分区毫无意义 mysql为我们提供的分区方法有下列几种一、range、list二、hash、key三、columns RANGE 分区: 按照数据大小范围分区(将数据使用某种条件

  • 【读书笔记】有序分拆和无序分拆的结论速览2021-06-06 09:53:44

    目录 EXAMPLE I.4. Compositions with restricted summands EXAMPLE I.5. Partitions with restricted summands (硬币找零问题) EXAMPLE I.6. Compositions with a fixed number of parts. EXAMPLE I.7. Partitions with a fixed number of parts 结论表格 最后还有一些 S

  • kafka多个consumer同时消费一个topic数据2021-06-03 13:54:04

    需求:一个topic消息队列设置3个partitions分区,设置一个group组中3个consumer进行消费 注意点:一个group中的consumer数 需小于 topic中的partitions分区数(一个partitions只能被一个consumer进行消费;一个consumer可以消费多个partitions) kafka命令:          查看topic详情:./bin

  • Spark基础篇-Spark-Core核心模型2021-05-05 22:33:23

    第二章 Spark-Core核心模型 1.RDD 弹性分布式数据集(Resilient Distributed Dataset)是Spark中最基本的数据抽象。 不可变(只读) 可分区 可并行计算 自动容错 位置感知性调度 RDD是Spark的核心抽象模型,本质上是一个抽象类。RDD源代码部分重点代码实现如下: abstract class R

  • 如何为Kafka集群选择合适的Topics/Partitions数量2021-04-06 09:55:41

      这是许多kafka使用者经常会问到的一个问题。本文的目的是介绍与本问题相关的一些重要决策因素,并提供一些简单的计算公式。越多的分区可以提供更高的吞吐量  首先我们需要明白以下事实:在kafka中,单个patition是kafka并行操作的最小单元。在producer和broker端,向每一个分区写入

  • Spark分区器HashPartitioner和RangePartitioner代码详解2021-04-02 11:53:57

    Spark分区器HashPartitioner和RangePartitioner代码详解 iteblog 过往记忆大数据   在Spark中分区器直接决定了RDD中分区的个数;也决定了RDD中每条数据经过Shuffle过程属于哪个分区;也决定了Reduce的个数。这三点看起来是不同的方面的,但其深层的含义是一致的。  我们需要注意的

  • 如何为Kafka集群选择合适的Topics/Partitions数量2021-04-01 12:51:58

    如何为Kafka集群选择合适的Topics/Partitions数量 过往记忆大数据 过往记忆大数据   这是许多kafka使用者经常会问到的一个问题。本文的目的是介绍与本问题相关的一些重要决策因素,并提供一些简单的计算公式。 越多的分区可以提供更高的吞吐量   首先我们需要明白以下事实:在ka

  • 监控系统项目实施--安装与部署-- MySQL数据库--分区表创建2021-03-20 07:05:12

    该文档源自github https://github.com/zabbix-book/partitiontables_zabbix/archive/master.zip Readme.md partitiontables_zabbix This is a scripts for partitiontables of MySQL zabbix version is 2.2 3.0 3.2 3.4 4.0 support Zabbix 3.0 4.0 MySQL version 5.6 5.7 8.0

  • kafka在zookeeper中存储结构2021-01-11 12:57:25

    1.topic注册信息 /brokers/topics/[topic] : 存储某个topic的partitions所有分配信息: Schema: { "version": "版本编号目前固定为数字1", "partitions": { "partitionId编号": [ 同步副本组brokerId列表 ], "partitio

  • 5.11.2. Declarative Partitioning2020-12-31 10:57:52

    5.11.2. Declarative Partitioning 5.11.2.声明分区 PostgreSQL offers a way to specify how to divide a table into pieces called partitions. The table that is divided is referred to as a partitioned table. The specification consists of the partitioning

  • Kafka常见问题及解决方法2020-11-29 16:34:49

    前言 Apache Kafka是一款优秀的开源消息中间件,主要应用于活动跟踪、消息穿透、日志、流处理等场景。我们使用该产品时,首先应当需要了解该产品的特性,以及产品的说明。 但是由于官方文档较多,实际在使用的过程中,quick start往往是我们接触的第一步,但是quick start的配置实在是太过简

  • CS61A 18sp -- Lecture8(Tree Recursion) 笔记2020-11-23 16:59:10

    Lecture8 Tree Recursion Reading 1.7 1. Order of Recursive Calls <1>【eg1】The Cascade Function >>> def cascade(n): """Print a cascade of prefixes of n.""" if n < 10: print(n)

  • 【梦溪笔谈】6.spark-sql相关代码2020-11-12 14:00:39

    import os import sys #import datetime import pyspark.sql.functions as F from pyspark.sql.types import * from pyspark.sql import SparkSession #不启动BroadcastJoin 、conf spark.speculation=true spark = SparkSession \ .builder \ .appName("app_tes

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有