ICode9

精准搜索请尝试: 精确搜索
  • Kafka 万亿级消息实践之资源组流量掉零故障排查分析2022-05-23 09:33:19

    作者:vivo 互联网服务器团队-Luo Mingbo 一、Kafka 集群部署架构 为了让读者能与小编在后续的问题分析中有更好的共鸣,小编先与各位读者朋友对齐一下我们 Kafka 集群的部署架构及服务接入 Kafka 集群的流程。 为了避免超大集群我们按照业务维度将整个每天负责十万亿级消息的 Ka

  • Kafka消费者 API(3)2022-05-21 15:02:38

    1.需求:测试同一个主题的分区数据,只能由一个消费者组中的一个消费。 2.复制一份基础消费者的代码,在 IDEA 中同时启动,即可启动同一个消费者组中的两个消费者。由于GroupId都为test,所以3个消费者构成一组。 在IDEA里运行 3.运行异步发送随笔中的CustomProducerCallBack类代码 pac

  • Amazon MSK Serverless 现已正式推出,无需再为托管式 Kafka 集群进行容量规划2022-05-21 01:01:40

      前言 2022 年 5 月,我们正式推出 Amazon MSK Serverless https://aws.amazon.com/cn/msk...,通过将容量规划和扩展工作转移给亚马逊云科技,帮助您进一步降低管理 Apache Kafka https://kafka.apache.org/ 集群的运营开销。 2019 年 5 月,我们推出了适用于 Apache Kafka的Amazo

  • 大叔经验分享(137)kafka开启压缩2022-05-20 18:02:03

    kafka开启压缩后,可以极大的优化磁盘占用和网络传输开销,开启压缩的参数为compression.type Specify the final compression type for a given topic. This configuration accepts the standard compression codecs ('gzip', 'snappy', 'lz4', 'zstd'). It addition

  • k8s下部署zookeeper和kafka集群2022-05-20 16:33:15

    zookeeper配置istio sidecar后存在的网络不可用问题 如果zookeeper配置了istio sidecar ,在选举阶段就会报connection refused(Connection refused)错误 这主要是因为 zookeeper 在server之间通信默认是监听 pod IP 地址,而istio要求监听0.0.0.0,因此需要设置quorumListenOnAllIPs=true

  • kafka基本概念-客户端工具offsetexplorer的使用2022-05-20 16:31:07

    kafka 上图为Kafka的典型架构图,对于消息的生产以及消费逻辑不在本文的讨论范畴,主要就Broker的数据存储做以浅显的总结。首先解释一下常见的相关专业术语: -- Broker:消息中间件处理节点;每个Kafka服务节点称之为一个Broker,一个Kafka集群由一个或多个Broker组成-- Topic:一类特定数据

  • kafka日志文件体系梳理2022-05-20 12:00:26

    一些必须提前知道的概念 patition kafka日志文件是以patition在物理存储上分割的 是topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列 是以文件夹的形式存储在具体Broker本机上 LEO 表示每个partition的log最后一条Message的位置 HW(HighWatermark)

  • Kafka配置文件详解2022-05-19 15:03:30

    Kafka配置文件详解(1) producer.properties:生产端的配置文件 #指定kafka节点列表,用于获取metadata,不必全部指定#需要kafka的服务器地址,来获取每一个topic的分片数等元数据信息。metadata.broker.list=kafka01:9092,kafka02:9092,kafka03:9092 #生产者生产的消息被发送到哪个block

  • linux 之centos7安装kafka;;;;;待补充,未完成2022-05-17 19:03:47

    centos7安装kafka安装教程:https://blog.csdn.net/shenyuanhaojie/article/details/121200011 一.安装jdkrpm -qa | grep javarpm -qa | grep jdkrpm -qa | grep gcjrpm -qa | grep java | xargs rpm -e --nodeps #卸载老版本yum list java-1.8*yum install java-1.8.0-openjdk* -

  • kafka可靠传输、不重复消费、高可用2022-05-17 15:31:29

      一. 如何保证消息的可靠传输 数据丢失分两种:mq自身丢失数据;消费环节丢失数据 1、kafka自身丢失数据 问题场景:kafka某个broker宕机,然后重新选举partiton的leader时 解决方案: ① 给这个topic设置replication.factor参数:这个值必须大于1,要求每个partition必须有至少2个副本 ② 在k

  • Golang:将日志以Json格式输出到Kafka2022-05-17 08:00:29

    在上一篇文章中我实现了一个支持Debug、Info、Error等多个级别的日志库,并将日志写到了磁盘文件中,代码比较简单,适合练手。有兴趣的可以通过这个链接前往:https://github.com/bosima/ylog/releases/tag/v1.0.1 工程实践中,我们往往还需要对日志进行采集,将日志归集到一起,然后用于各种处

  • Kafka 生产者、消费者命令行操作2022-05-15 18:33:22

    1.查看操作生产者命令参数 bin/kafka-console-producer.sh 参数 --bootstrap-server <String: server toconnect to> ,连接的 Kafka Broker 主机名称和端口号。 --topic <String: topic>,操作的 topic 名称。 2.发送消息 bin/kafka-console-producer.sh --bootstrap-server hado

  • Kfka异步发送 API2022-05-15 18:32:25

    1.创建Maven工程 kafka 2.在pom.xml文件导入依赖  <dependencies> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>3.0.0</version&

  • Kafka 安装和配置2022-05-15 17:35:00

    一、Java 环境安装 上传jdk-8u261-linux-x64.rpm到服务器并安装: rpm -ivh jdk-8u261-linux-x64.rpm 配置环境变量: vim /etc/profile export JAVA_HOME=/usr/src/jdk1.8.0_271 export PATH=$PATH:$JAVA_HOME/bin 生效: . /etc/profile 验证: java -version 二、Zookeeper的安装配

  • Kafka 基础概念及架构2022-05-15 15:04:05

    一、Kafka 介绍 Kafka是⼀个分布式、分区的、多副本的、多⽣产者、多订阅者,基于zookeeper协调的分布式⽇志系统(也可以当做MQ系统),常⻅可以⽤于web/nginx⽇志、访问⽇志,消息服务等等。 Kafka主要应⽤场景:⽇志收集系统和消息系统 Kafka主要设计目标: 以时间复杂度为O(1)的⽅式提供消

  • Kafka 主题命令行操作2022-05-15 14:35:04

    1.主题命令行操作,查看操作主题命令参数 bin/kafka-topics.sh 参数  描述 --bootstrap-server <String: server toconnect to>  连接的 Kafka Broker 主机名称和端口号。 --topic <String: topic>  操作的 topic 名称。  --create  创建主题。

  • Kafka环境搭建2022-05-15 13:00:23

    1.将软件包kafka_2.12-3.0.0.tgz上传到/opt/software/目录下,解压到/opt/module/目录下 tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/ 2.修改解压后的文件名称     mv kafka_2.12-3.0.0/ kafka     3.进入到/opt/module/kafka 目录,修改配置文件 cd config/ vim serv

  • Canal安装及配置kafka2022-05-14 17:31:17

    Canal介绍原理 Canal是阿里巴巴开源的一款主要用于数据库同步业务的项目,基于数据库的日志解析,获取增量变更进行同步,衍生出了Canal增量订阅&消费的实时数据库同步。 基本原理: 1、canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议 2、mysql master收

  • 面试官:Kafka是什么,它有什么特性与使用场景?2022-05-10 08:01:24

    哈喽!大家好,我是小奇,一位热爱分享的程序员 小奇打算以轻松幽默的对话方式来分享一些技术,如果你觉得通过小奇的文章学到了东西,那就给小奇一个赞吧 文章持续更新 一、前言 不知不觉进入了五月份了,天气越来越炎热了,然而苦逼的我还要出门找工作,这朗朗乾坤难道就没有我奇谋人的容身之

  • Kafka - Kafka集成Flink, Spark, SpringBoot, Flume2022-05-10 00:34:13

    前言 这四个组件,都既能做kafka的生产者,也能做消费者。 这里挑flink和springBoot详细介绍。其他两个详见视频教程。   一、与Flink的集成 1.1 Flink生产者   引入maven包     写FlinkKafkaProducer1类 注意:系统本身已经有了FlinkKafkaProducer类了...因此这里非常容易冲突,要在

  • flume脚本2022-05-09 10:35:27

    flume脚本 #! /bin/bash​case $1 in"start"){        for i in hadoop102 hadoop103        do                echo " --------启动 $i 采集flume-------"                ssh $i "nohup /opt/module/flume/bin/flume-ng agent --conf-file /opt/module

  • 消息队列Kafka「检索组件」重磅上线!2022-05-07 01:03:43

    作者:Kafka&Tablestore团队 前言 还在为消息队列使用时,不能高效排查重复和失败的消息而困扰吗? 还在为消息队列使用时,无法准确查找消息内容和定位问题而苦恼吗? 。。。 消息队列 Kafka「检索组件」来帮您~ 本文对消息队列 Kafka「检索组件」进行详细介绍,首先通过对消息队列使用过程中

  • kafka基础原理2022-05-06 23:01:08

    1、什么是kafka Kafka 是一个分布式的基于发布/订阅模式的消息队列 消息队列的两种模式: 点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)。特点,一个消息只能被一个消费者消费       发布/订阅模式(一对多,消费者消费数据之后不会清除消息)。特点,一个消息可以被多个订阅的

  • linux之centos运维kafka2022-05-06 20:01:20

    一等有空再整理,下面的命令测试过了 修改配置:vim config/server.properties:    advertised.listeners=PLAINTEXT://172.16.1.102:9092                                                                        log.dirs=/usr/local/kaf

  • kafka的基本使用2022-05-06 14:35:54

    kafka基本使用 常用命令 创建topic主题 ./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test1 查看主题 ./kafka-topics.sh --list --zookeeper localhost:2181 测试发送消息 ./kafka-console-producer.sh --brok

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有