ICode9

精准搜索请尝试: 精确搜索
  • FlinkSQL实践记录22022-01-23 12:01:38

    1. 背景 昨天《FlinkSQL实践记录1》对FlinkSql做了简单的使用insert into .. select ..,今天对聚合运算做一些实践。 2. 代码实践 String mysql_sql = "CREATE TABLE mysql_sink (" + " name STRING," + " cn

  • Flink学习笔记——读写Hbase2022-01-12 22:36:43

    1.如果是csa(Cloudera Streaming Analytics)版本的Hbase,可以参考Cloudera官方例子,通过引入flink-hbase来实现 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-hbase_2.11</artifactId> <version>1.9.0-csa1.0.0.0</ve

  • ASP.NET Core引入第三方日志框架及简单实现日志策略配置2022-01-10 23:34:12

    引言 在我们项目开发的过程中,使用.NET 6自带的日志系统有时是不能满足实际需求的,比如有的时候我们需要将日志输出到第三方平台上,最典型的应用就是在各种云平台上,为了集中管理日志和查询日志,通常会选择对应平台的日志SDK进行集成。比如微软Azure提供的Azure App Service Logging,基

  • 大数据流处理框架介绍2021-12-17 20:04:27

      实时流处理简单概述:实时是说整个流处理相应时间较短,流式计算是说数据是源源不断的,没有尽头的。实时流处理一般是将业务系统产生的数据进行实时收集,交由流处理框架进行数据清洗,统计,入库,并可以通过可视化的方式对统计结果进行实时的展示。本文涉及到的框架或技术有 Flume,Logsta

  • CDH-Flume从Kafka同步数据到hive2021-12-16 15:30:01

    启动Flume命令 flume-ng agent -n a -c /opt/cloudera/parcels/CDH-6.3.0-1.cdh6.3.0.p0.1279813/lib/flume-ng/conf/ -f ./kafka2hiveTest.conf -Dflume.root.logger=INFO,console hive建表 语句 #分桶开启事务并分区 create table log_test(ip string,username string,requ

  • Flume2021-12-15 20:34:11

    目录 1、Flume简介 2、flume架构 3、flume组件 4、Source 5、channel 6、Sink 1、Flume简介 实时数据采集 日志采集 日志.log文件 网络采集 flume是一个分布式、可靠、高可用的海量日志采集、聚合和传输的系统 支持在日志系统中定制各类数据发送方,用于收集数据。 2、flume架构

  • Java性能优化:Stream如何提高遍历集合效率?2021-11-28 14:33:36

    什么是Stream? 现在很多大数据量系统中都存在分表分库的情况。 例如,电商系统中的订单表,常常使用用户ID的Hash值来实现分表分库,这样是为了减少单个表的数据量,优化用户查询订单的速度。 但在后台管理员审核订单时,他们需要将各个数据源的数据查询到应用层之后进行合并操作。 例如,当

  • flume到hdfs和kafka2021-11-23 17:36:17

    flume-conf.properties的配置 a1.sources = r1 a1.sinks = k1 sink-hdfs a1.channels = c1 chn-hdfs a1.sources.r1.type = exec a1.sources.r1.command = tail -f /home/abc/robotResume/jupiter/jupiter_http_log/logback.log a1.sources.r1.inputCharset = UTF-8 a1.sources

  • flume基本概念与操作实例(常用source),java基础教程第三版耿祥义2021-11-13 13:03:18

    Sink:下沉地,采集数据的传送目的,用于往下一级agent传递数据或者往最终存储系统传递数据; 在整个数据的传输的过程中,流动的是event,它是Flume内部数据传输的最基本单元。 event将传输的数据进行封装。如果是文本文件,通常是一行记录,event也是事务的基本单位。event从source,流

  • Flink流处理-Sink之HBase2021-11-08 01:01:29

    TripDriveToHBaseSink package pers.aishuang.flink.streaming.sink.hbase; import org.apache.flink.api.java.utils.ParameterTool; import org.apache.flink.configuration.Configuration; import org.apache.flink.streaming.api.functions.sink.RichSinkFunction; impor

  • Flume2021-11-01 13:02:35

    文章目录 flume基本架构AgentSourceSinkChannelEventSpoolingDirSource(监控一个目录)TailDirSource(监控多个文件目录中的多个文本文件)事务 flume基本架构 Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume 基于流式架构,灵活

  • Flume前提回顾2021-10-17 11:33:24

    Flume进阶使用 前提回顾 flume是以三大部分组成 agent:flume 的组成单位,包括了Source,Channel,Sink Source netcat:官方提供的端口监控组件exec 用于监控Linux中的命令的(tail-F)Spooldir:监控一个目录的。如果目录中出现了新的文件,就文件内容采集过来。taildir:监控多文件,维护of

  • 实时流计算---数据采集工具Flume2021-10-13 20:31:44

    Flume最早是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。 Flume特性 1.提供上下文路由特征 2.Flume的管道是基于事务,保证了数据在传送和接收时的一致性 3.Flume是可靠的,容错性高的,可升级的,易管理的,并且可定制的 4.Flume可用将应用产生的数据存储

  • Biz-SIP中间件之xbank项目实战(3)——账户域服务的开发2021-10-10 16:31:49

    xbank项目版本库:https://gitee.com/szhengye/xbank.git 项目实践:账户域服务的开发 1. Account领域服务的封装 Account领域服务是和Customer领域服务并列的,Account领域服务的封装,依次有以下步骤: 第1步:领域服务接口的约定:在xbank-account-sink-client中编写AccountSinkInterfac

  • Biz-SIP中间件之HelloWorld(3)——app服务实现对sink服务的聚合和编排2021-10-08 11:29:56

    HelloWorld项目版本库:https://gitee.com/szhengye/biz-sip-helloworld.git 三、app服务实现对sink服务的聚合和编排 在Biz-SIP中间件中,app层不仅能实现sink服务个性化处理,还能对sink服务服务聚合和服务编排。 这里的例子是通过app层的app/sample-bean-service,实现对2个sink服

  • HackTheBox-Sink WP2021-09-30 12:34:25

    insane难度初体验 & HTTP Smuggle攻击实操 & 云渗透学习 0x01 信息收集 nmap -sC -sV -v 10.10.10.22 发现端口22、3000、5000开启 访问3000端口,可以看到为某代码托管平台: 目前没有用户名和密码,但是explore可以发现存在的三个账户信息: 目光转向5000端口,注册并进行登

  • 浅析Stream是如何提高遍历集合效率的:2021-09-21 23:03:53

    一、为什么需要 Stream  ——  分库分表之后大数据需要合并,传统方式效率不理想   现在很多大数据量系统中都存在分表分库的情况。例如,电商系统中的订单表,常常使用用户ID的Hash值来实现分表分库,这样是为了减少单个表的数据量,优化用户查询订单的速度。但在后台管理员审核订单

  • power role Swap/PR_Swap2021-09-21 12:00:29

    1、Negotiate PR_Swap可以由任何一个port发起,接受到PR_Swap的一方必须回复accept、reject或wait. 2、PR_Swap的port行为 <1>发生PR_Swap后sink和source应进行协议层的复位,同时Vconn source应该保持Vconn ON。    3、PR_Swap Process 以sink request PR_Swap为例,PD log如下:

  • Flum 采集配置2021-09-18 18:00:51

    Flume 采集配置 安装 使用CDH安装 存在的问题 Timed out before HDFS call was made. Your hdfs.callTimeout might be set too low or HDFS calls are taking too long. 增加hdfs的超时时间 tier1.sinks.ods_hdfs_sink.hdfs.callTimeout ChannelFullException: Space for

  • 大数据Flink Sink2021-09-08 22:01:36

    目录 1 预定义Sink1.1 基于控制台和文件的Sink 2 自定义Sink2.1 MySQL 3. Connectors3.1 JDBC3.2 Kafka3.2.1 pom依赖3.2.2 参数设置3.2.3 参数说明3.2.4 Kafka命令3.2.5 代码实现-Kafka Consumer3.2.6 代码实现-Kafka Producer 3.3 Redis 1 预定义Sink 1.1 基于控制台

  • Flink入门2021-08-25 11:33:19

    flink简介 https://blog.csdn.net/qq_35423154/article/details/113759891 1. environment flink任务在提交计算时,首先与flink框架建立联系,获取了环境信息才能将task调度到不同的任务管理者那里执行。 2.Source Flink框架从不同的数据源获取数据,随后框架对数据进行处理 1)从

  • FLINK重点原理与机制:状态(3)两阶段提交2021-08-25 01:04:07

    假设一种场景,从Kafka Source拉取数据,经过一次窗口聚合,最后将数据发送到Kafka Sink,如下图:1.JobManager向Source发送Barrier,开始进入pre-Commit阶段,当只有内部状态时,pre-commit阶段无需执行额外的操作,仅仅是写入一些已定义的状态变量即可。当chckpoint成功时Flink负责提交这些写入,否

  • Flume的案例以及测试方法2021-08-18 16:31:55

    它携带日志数据(字节数组形式)并且携带有头信息,这些Event由Agent外部的Source生成,当Source捕获事件后会进行特定的格式化,然后Source会把事件推入(单个或多个)Channel中。星池云你可以把Channel看作是一个缓冲区,它将保存事件直到Sink处理完该事件。Sink负责持久化日志或者把事件推

  • Flume+Kafka+SparkStreaming打造实时流处理框架2021-08-17 16:31:07

    Flume+Kafka+SparkStreaming打造实时流处理框架 1-1 实时流处理产生背景 时效性高,数据量大 1-2 实时流处理概述 实时计算(秒,毫秒级别) 流式计算(在不断产生的实时数据流计算)7*24 1-3 离线计算与实时计算的对比 1-3-1 数据来源 离线:HDFS,历史数据,数据量比较大 实时:消息队列(kafka)实

  • DataStream之Sink简介及RichSinkFunction2021-08-05 15:30:10

    来源:https://blog.csdn.net/zhuzuwei/article/details/107142494 1. 安装nc  yum -y install nmap-ncat 2. 启动(8888是端口号) nc -lk 8888 import org.apache.flink.api.common.functions.FlatMapFunction; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有