ICode9

精准搜索请尝试: 精确搜索
  • 设计模式之观察者模式(C语言)2022-01-09 10:03:35

    介绍: 观察者模式是一种行为设计模式, 允许你定义一种订阅机制, 可在对象事件发生时通知多个 “观察” 该对象的其他对象。 问题: ​ 假如顾客对某个特定的产品非常感兴趣 , 而该产品很快将会在商店里出售。顾客可以每天来商店看看产品是否到货。但如果商品尚未到货时,顾客就会空

  • RocketMQ如何保证消息的可靠性投递?2022-01-08 09:35:58

    要想保证消息的可靠型投递,无非保证如下3个阶段的正常执行即可: 生产者将消息成功投递到broker broker将投递过程的消息持久化下来 消费者能从broker消费到消息 发送端消息重试 roducer向broker发送消息后,没有收到broker的ack时,rocketmq会自动重试。重试的次数可以设置,默认为2次

  • kafka集群搭建2022-01-06 23:35:33

    kafka相关术语 Producer: 消息生产者,就是向kafka broker发消息的客户端 Consumer: 消息消费者,向kafka broker取消息的客户端 Consumer Group(简称"CG"):消费者组 Broker:一台kafka服务器就是一个broker,一个集群由多个broker组成,一个broker可以容纳多个topic Topic: 可以理解为一个队

  • Topic 8. 克隆进化之 RobustClone2022-01-06 16:06:17

    上一期介绍了 Cardelino 的使用,这期介绍RobustClone,我们知道单细胞数据的SNV和CNV检出率都是非常低的,那么怎么有效的获得可使用的突变位点是重中之重,那么该软件包RobustClone利用PCA模式对单细胞数据进行降维,以此来获得更加准确的突变位点达到对单细胞克隆演化的推断。 **

  • 【实时数仓】Day02-DWD-DIM 层数据准备:2022-01-05 21:08:09

    一、需求分析及实现思路 1、分层需求 建立数仓目的:增加数据计算的复用性 可以从半成品继续加工而成 从kafka的ODS层(数据一开始就读到了kafka)读用户行为数据和业务数据,并写回到kafka的DWD层 2、各层的职能 3、DWD层数据准备 环境搭建、计算用户行为日志DWD层、计算业务数据DWD层

  • Rocket简介以及单机版安装2022-01-03 22:03:02

    1. MQ简介 1. MQ用途 1. 限流削峰   mq 可以将系统的超量请求暂存其中,以便系统后期可以慢慢进行处理,从而避免了请求的丢失或系统被压垮。 2. 异步解耦   服务之间同步调用改为通过MQ异步调用的方式,一方发消息,一方接收到消息之后进行处理。 3. 数据收集   分布式系统会产生海

  • 【kafka】Number of alive brokers 0 does not meet the required replication factor 32022-01-02 09:33:10

    文章目录 1.概述 1.概述 我搭建集群 遇到这个问题 另外两个kafka节点 offsets.topic.replication.factor 都设置的3 都没报错 查看报错的位置是代码 /** * 这里主要创建内部的topic * 1.内置topic: __consumer_offsets * 2. 事务topic: __transaction_

  • RabbitMq-进阶-03-消息的可靠投递2022-01-01 17:57:59

    1、1 在使用 RabbitMQ 的时候,作为消息发送方希望杜绝任何消息丢失或者投递失败场景。 RabbitMQ 为我们提供了两种方式用来控制消息的投递可靠性模式。 rabbitmq 整个消息投递的路径为: producer--->rabbitmq broker--->exchange--->queue--->consumer 1、2 confirm

  • rocketmq 消费负载均衡解析2022-01-01 14:34:47

    1 MQClientInstance 2 3 public void start() throws MQClientException { 4 5         //各种线程的start 6           //NettyRemotingClient实现Netty客户器端功能,接受数据包,在客户器端处理后发送给服务端。 7          this.mQCl

  • 一次记录 flink job 消费kafka 迁移pulsar踩坑过程2021-12-31 18:33:35

    背景简述 业务上,原有的kafka集群迁移pulsar 后续会下线kafak集群,原有的一些消费kafka topic 的任务和进程需要迁移至pulsar 并下线旧的消费kafka任务。目前在迁移期间,上报的消息会双写到kafka pulsar,消费组的offset二者是独立的。 待迁移的flink job 之前flink 版本是 1.9.1(

  • 08 kafka2021-12-31 14:35:26

    1 Kafka概述 1.1 定义 ● 基于发布/订阅模式的消息队列(Message Queue)—— 传统 ● 分布式事件流平台(event streaming platform)—— 最新定位 1.2 消息队列 1.2.1 传统消息队列的应用场景 1)引用场景 2)使用消息队列的好处 解耦 ● 允许独立的扩展、修改两边的处理过程。 可恢复性

  • RocketMQ实战:生产环境中,java开发基础形考作业题2021-12-29 15:02:17

    3.1 RocketMQ基本路由规则 Broker在启动时向Nameserver注册存储在该服务器上的路由信息,并每隔30s向Nameserver发送心跳包,并更新路由信息。 Nameserver每隔10s扫描路由表,如果检测到Broker服务宕机,则移除对应的路由信息。 消息生产者每隔30s会从Nameserver重新拉取Topic的

  • Kafka的生产者与消费者解析2021-12-29 10:31:39

    一、生产者 1.分区策略 分区的原因 (1) 方便在集群中扩展 ,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic 又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了。 (2) 可以提高并发 ,因为可以以 Partition 为单位读写了。 分区

  • CTO问我Pulsar到底能不能取代Kafka2021-12-27 19:33:33

    Pulsar是一款分布式发布/订阅消息平台,近两年非常火,被称为下一代的消息流平台,大有取代Kafka的势头。今天我们就来比较一下Pulsar跟Kafka。 历史背景 Pulsar源自Yahoo,于2016年开源并捐献给Apache基金会,并在2018年9月升级成为Apache顶级项目。 Kafka最初由Linkedin开发,并于2010年贡

  • CTO问我Pulsar到底能不能取代Kafka2021-12-27 19:33:19

    Pulsar是一款分布式发布/订阅消息平台,近两年非常火,被称为下一代的消息流平台,大有取代Kafka的势头。今天我们就来比较一下Pulsar跟Kafka。 历史背景 Pulsar源自Yahoo,于2016年开源并捐献给Apache基金会,并在2018年9月升级成为Apache顶级项目。 Kafka最初由Linkedin开发,并于2010年贡

  • consumer_offsets深度剖析(十三)2021-12-26 17:03:54

    consumer_offsets深度剖析       位移提交是使用消费者客户端过程中一个比较“讲究”的操作。位移提交的内容最终会保存到 Kafka 的内部主题 __consumer_offsets 中,对于主题 __consumer_offsets 的深度掌握也可以让我们更好地理解和使用好位移提交。        一般情况下,当

  • Kafka 部署及基础原理2021-12-26 14:02:24

    文章目录 一、Kafka概述1.1Kafka介绍1.2 消息队列1.3 消息队列的两种模式1.4 kafka快速入门1.4.1 安装包下载1.4.2 安装kafka1.4.3 kafka命令行操作 二、Kfaka构架2.1 kafka基础框架2.2 kafka工作流程以及文件储存机制2.3 kafka 生产者2.3.1 分区策略2.3.2 数据可靠性保证

  • RocketMQ 简介2021-12-25 11:05:17

    消息中间件的作用 采用消息中间件的原因: 有时并发量并不是一直那么大,只是瞬时间有那么大的流量导致系统在这个时间区间内无法负载这么大的流量,导致系统崩溃。这种情况下,可以采用消息中间件来暂时存储这些消息,在之后的时间区域内再进行处理,这也被成为 “削峰填谷” 随着微服务的

  • K8S环境快速部署Kafka(K8S外部可访问),mysql数据库优化及sql调优2021-12-24 13:59:08

    参考文章 本次实战涉及到的K8S、Helm、NFS、StorageClass等前置条件,它们的安装和使用请参考: 《kubespray2.11安装kubernetes1.15》 《部署和体验Helm(2.16.1版本)》 《Ubuntu16环境安装和使用NFS》 《K8S使用群晖DS218+的NFS》 《K8S的StorageClass实战(NFS)》 环境信

  • kafka学习之-server.properties详细说明2021-12-23 22:37:46

    每个kafka broker中配置文件server.properties默认必须配置的属性如下: broker.id=0num.network.threads=2num.io.threads=8socket.send.buffer.bytes=1048576socket.receive.buffer.bytes=1048576socket.request.max.bytes=104857600log.dirs=/tmp/kafka-logsnum.partitions=2log.

  • kafka学习-部署及基本命令2021-12-23 15:32:06

    快速开始 下载kafka安装包:http://kafka.apache.org/downloads 解压安装包 tar -xzf kafka_2.13-3.0.0.tgz cd kafka_2.13-3.0.0 启动zookeeper bin/zookeeper-server-start.sh config/zookeeper.properties 启动kafka-server bin/kafka-server-start.sh config/serve

  • RocketMQ2021-12-22 11:36:30

    安装 官网安装 官网:http://rocketmq.apache.org/docs/quick-start/ 安装JDK # 查看有哪些版本可安装 yum search java | grep openjdk # 安装openjdk1.8(推荐安装1.8和openjdk11) sudo yum install java-1.8.0-openjdk* #配置环境变量 打开/etc/profile,添加如下信息,下面 JAVA_HOME

  • 如何使用Python读写Kafka?2021-12-20 18:03:08

    这一篇文章里面,我们要使用的一个第三方库叫做kafka-python。大家可以使用pip或者pipenv安装它。下面两种安装方案,任选其一即可 python3 -m pip install kafka-python pipenv install kafka-python 如下图所示: 创建配置文件 由于生产者和消费者都需要连接Kafka,所以我单独写了一

  • kafka<分区规则>2021-12-19 21:02:48

    1.指定分区的,生产者直接发送消息到相应的分区 2.没指定分区的,生产者根据Key进行hash值与topic的partition数进行取余得到partition值 3.没设定分区的,也没设定相应的Key,则生产者按照轮询的方式生产消息(第一次调用时产生的随机数,把这个值与可用的topic的partitioin总数取余得到一

  • Kafka-on-Pulsar 的前世今生,新秀 Pulsar 到底好在哪?2021-12-19 15:04:40

    第二种猜想是能否直接将 Kafka 协议直接接入到 Pulsar broker 里,也就是目前 KoP 的成型。 那么关于第一种 proxy 做法,如果实现起来大概是什么样呢?OVHcloud 就有过一次尝试。 之前 OVHcloud 一直采用 Apache Kafka。尽管他们有在 Kafka 上运行多个集群且每秒处理数百万条消息

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有