ICode9

精准搜索请尝试: 精确搜索
  • kafka消费组管理模块(三)-__consumer_offsets分析2021-03-17 16:33:18

    __consumer_offsets成为位移主题,有以下知识点   1.由kafka自己创建,默认50个分区,每个分区3个副本 2.例如partition-1的leader为broker 4. isr为 4,6,8 ar为4,6,8 3.一个group,计算group的hash值,对50取余得出0-49的值,如果是1则这个group的group coordinator在partition-1的l

  • 图解堆排序2021-03-17 10:52:17

    程序员常用的IDEA插件:https://github.com/silently9527/ToolsetIdeaPlugin 完全开源的淘客项目:https://github.com/silently9527/mall-coupons-server 微信公众号:贝塔学Java 前言 在上一篇中我们一起使用二叉堆实现了优先级队列,假如我们从构建好的优先级队列中持续调用删除最小(或

  • 深入理解Java Stream流水线2021-03-17 09:51:08

    前面我们已经学会如何使用Stream API,用起来真的很爽,但简洁的方法下面似乎隐藏着无尽的秘密,如此强大的API是如何实现的呢?Pipeline是怎么执行的,每次方法调用都会导致一次迭代吗?自动并行又是怎么做到的,线程个数是多少?本节我们学习Stream流水线的原理,这是Stream实现的关键所在。首先回

  • 苹果Mac时间追踪工具推荐:Time Sink2021-03-06 18:03:58

    如果用户一直对使用Mac的时间感到好奇,看看您在哪里花时间,小编为大家推荐一款苹果Mac时间追踪工具Time Sink。 Time Sink 是一款适用于 Mac 的时间跟踪应用。您是否曾经想知道您在 Mac 上的所有时间都用在了哪里?您早上 8 点坐下来工作,突然是午餐时间……时间去了哪里?Time Sink 会

  • 第五课 管道2021-02-27 11:57:23

    Java NIO 管道(Pipe)是两个线程之间的单向数据连接。Pipe有一个 source 通道和一个 sink 通道。数据会被写到 sink 通道,从 source 通道读取。 package NIO; import java.io.IOException; import java.nio.ByteBuffer; import java.nio.channels.Pipe; public class TestPip

  • flume1.9安装2021-02-18 14:29:56

    Flume介绍 介绍 (1)高可靠性,Flume提供了end to end的数据可靠性机制 (2)易于扩展,Agent为分布式架构,可水平扩展 (3)易于恢复,Channel中保存了与数据源有关的事件,用于失败时的恢复 (4)功能丰富,Flume内置了多种组件,包括不同数据源和不同存储方式   (1)Source:数据源,简单的说就是agent获取数据

  • Flume面试题2021-02-11 15:04:18

    以下面试题主要整理自尚硅谷相关文档 1. 你是如何实现 Flume 数据传输的监控的 使用第三方框架 Ganglia 实时监控 Flume。 2. Flume 的 Source,Sink,Channel 的作用?你们 Source 是什么类型? 1. 作用 (1)Source 组件是专门用来收集数据的,可以处理各种类型、各种格式的日志数据,包括avro、

  • Flume介绍及调优2021-02-05 11:29:04

    一、概述 Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。 当前Flume有两个版本Flume 0.9X版本的统称Flume-og,Flume

  • 【LIVE555] session控制让sink播放source读取的ADTS,sink打包发送rtp2021-02-03 18:02:11

    MPEG4GenericRTPSink 接受每一帧 并rtp发送 ADTSAudioFileServerMediaSubsession 会关联source 到sink 创建sink时,虽然传递了source 但是并没有让sink 直接饮用source 而是只传递了几个source 的信息给sink 这种不算真正的关联到吧?? MPEG4GenericRTPSink 构造 sdpMediaTyp

  • Okio源码分析它补充了 java.io 和 java.nio 的不足,使访问、存储和处理数据更加容易2021-01-31 16:34:02

        Okio源码分析它补充了 java.io 和 java.nio 的不足,使访问、存储和处理数据更加容易  okio 的文档说明:https://square.github.io/okio/ 。本文代码介绍基于版本 1.17.4。 概述 Okio 作为 Okhttp 底层 io 库,它补充了 java.io 和 java.nio 的不足,使访问、存储和处理数据更

  • Flume概述2021-01-23 09:31:30

    官网:http://flume.apache.org/ 百科:https://baike.baidu.com/item/flume/6250098?fr=aladdin Flume是Cloudera提供的一个高可用的,高可靠的,分布式的**海量日志采集、聚合和传输的系统。**Flume 基于流式架构,灵活简单。Flume支持在日志系统中定制各类数据发送方,用于收集数据;

  • 带你九浅一深理解Java Stream流水线2021-01-22 22:58:35

    前面我们已经学会如何使用Stream API,用起来真的很爽,但简洁的方法下面似乎隐藏着无尽的秘密,如此强大的API是如何实现的呢?Pipeline是怎么执行的,每次方法调用都会导致一次迭代吗?自动并行又是怎么做到的,线程个数是多少?本节我们学习Stream流水线的原理,这是Stream实现的关键所在。

  • spdlog 循环日志文件2021-01-19 23:01:18

    循环日志文件 //将github上的spdlog库下载,include头文件包含到该项目中 #include "spdlog/spdlog.h" #include "spdlog/sinks/stdout_color_sinks.h" #include "spdlog/sinks/basic_file_sink.h" #include "spdlog/sinks/rotating_file_sink.h" #include &

  • Flink Sink到File(文件)2021-01-14 19:33:42

    知识点 表的输出,是通过将数据写入 TableSink 来实现的。TableSink 是一个通用接口,可以 支持不同的文件格式、存储数据库和消息队列。 具体实现,输出表最直接的方法,就是通过 Table.insertInto() 方法将一个 Table 写入 注册过的 TableSink 中。同时表的输出跟更新模式有关 更新

  • [NOI2012] 美食节2021-01-08 21:34:42

    题目 点这里看题目。 分析 本题的弱化版便是[SCOI2007]修车。 考虑现在有 \(n\) 份菜给一位厨师做,时间分别为 \(t_1,t_2,\dots,t_n\) ,总等待时间为: \[\sum_{i=1}^n\sum_{j=1}^it_{j}=\sum_{j=1}^nt_j(n-j+1)=\sum_{j=1}^nj\times t_{n-j+1} \]由于 \(t\) 的顺序任意,所以我们可以将

  • USB Type C规范详解2021-01-08 16:59:54

    USB Type C规范详解 目前USB Type C接口应用非常广泛,可以传输DP,USB,PCIE,音频等信号,已经不是纯粹的用来传输USB信号了,即USB Type C摆脱了和USB的从属关系,自己当家作主了。下面来介绍下USB Type C里面比较重要的点。   协议来源 USB官方网站上可以下载到最新的协议《USB Type-C Sp

  • 任06_Flume案例_官方案例(配置)2021-01-04 21:00:20

    监听端口数据使用:netcat source-瑞士军刀,短小精悍。 打印到控制台:Logger sink 从官网上去复制: 第一步:安装netcat,装一台机器就行了 netcat简称nc 可以开启一个服务端和客户端,实现服务端和客户端通信 开启一个服务端: 开启客户端: 在客户端103上发送hello 此时服务端

  • 大数据学习(18)—— Flume介绍2021-01-02 15:32:05

    https://www.cnblogs.com/wangtao1993/p/6404232.html https://www.cnblogs.com/duoduotouhenying/p/10210000.html 老规矩,学习新东西先上官网瞅瞅Apache Flume Flume是什么 Flume是一个分布式、可靠的大规模高效日志收集、汇聚和传输的这么一个服务。它的架构基于流式数据,配置简

  • Flink 写数据到MySql (JDBC Sink)2020-12-06 15:32:07

    POM 文件 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-scala_2.11</artifactId> <version>1.10.2</version> </dependency> <!--

  • Java 8 Stream原理解析2020-12-03 09:32:46

    说起 Java 8,我们知道 Java 8 大改动之一就是增加函数式编程,而 Stream API 便是函数编程的主角,Stream API 是一种流式的处理数据风格,也就是将要处理的数据当作流,在管道中进行传输,并在管道中的每个节点对数据进行处理,如过滤、排序、转换等。 首先我们先看一个使用Stream API的示例,具

  • Flume知识点总结2020-11-23 20:03:08

      概述   Flume定义   Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。 最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到HDFS。   优点:   1.可 以和任意存储进程

  • 投屏工作小结2020-10-31 23:50:28

    在公司加班持续了半年冲刺,将miracast aosp实现通过ndk完全解耦出来 相对于原生方案改动: audiorecord通过java获取再传递给Native与视频流再一起打包; codec inputsurface直接与virtualdisplay关联,这种方式没法控制视频帧率(surfacemediasource那套没法直接通过ndk实现) 针

  • Flink 从 0 到 1 学习之(11)Flink 写入数据到 Kafka2020-09-07 18:01:33

    前言 之前文章 《从0到1学习Flink》—— Flink 写入数据到 ElasticSearch 写了如何将 Kafka 中的数据存储到 ElasticSearch 中,里面其实就已经用到了 Flink 自带的 Kafka source connector(FlinkKafkaConsumer)。存入到 ES 只是其中一种情况,那么如果我们有多个地方需要这份通过 Fli

  • akka-streams - 从应用角度学习:basic stream parts2020-09-07 08:35:33

       实际上很早就写了一系列关于akka-streams的博客。但那个时候纯粹是为了了解akka而去学习的,主要是从了解akka-streams的原理为出发点。因为akka-streams是akka系列工具的基础,如:akka-http, persistence-query等都是基于akka-streams的,其实没有真正把akka-streams用起来。这段时

  • [源码解析] 当 Java Stream 遇见 Flink2020-08-17 08:34:31

    [源码解析] 当 Java Stream 遇见 Flink 目录[源码解析] 当 Java Stream 遇见 Flink0x00 摘要0x01 领域1.1 Flink1.2 Java Stream1.3 探寻角度0x02 数据流模型2.1 Java Stream2.2 Flink2.3 分析0x03 流水线3.1 总体对比3.2 示例代码3.3 Stream操作分类3.4 Stage3.4.1 分类3.4.2 Abs

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有