ICode9

精准搜索请尝试: 精确搜索
  • kafka在线修改topic配置2021-08-05 15:34:06

    修改 max.message.bytes:  bin/kafka-configs.sh --zookeeper localhost:2181  --alter --entity-type topics --entity-name asset-scan-machine-result  --add-config 'max.message.bytes=102400000' 查看topic配置: bin/kafka-configs.sh --zookeeper localhost:2181 -

  • 第18章——从Django入手2021-07-10 12:01:31

    建立项目   建立虚拟环境 python -m venv ll_env   激活虚拟环境 ll_env/Scripts/activate     (停止 deactivate)   安装Django pip install django     在Django 中创建项目 django-admin startproject learning_log     创建数据库 pythonv manage.py migrat

  • kafka命令行的管理使用2021-06-20 15:03:44

    1、创建topic 使用 kafka-topics.sh脚本 kafka-topics.sh --create --partitions 3 --replication-factor 2 --topic test --zookeeper hadoop01:2181,hadoop02:2181,hadoop03:2181 2、查询所有的topic 使用 kafka-topics.sh脚本 kafka-topics.sh --list --zookeeper h

  • 源码分析zookeeper在kafka的作用2021-06-13 22:53:31

    浪尖的kafka源码系列以kafka0.8.2.2源码为例给大家进行讲解的。纯属个人爱好,希望大家对不足之处批评指正。 一,zookeeper在分布式集群的作用 1,数据发布与订阅(配置中心) 发布与订阅模型,即所谓的配置中心,顾名思义就是讲发布者将数据发布到zk节点上,共订阅者动态获取数据,实现配置的集中式

  • 解析Xmind转成用例2021-05-22 13:33:27

    from xmindparser import xmind_to_dict class ParserXmind: def __init__(self,xmind_path): self.xmind_path = xmind_to_dict(xmind_path)[0] # 分割标识 self.flag = '=>' # 解析结果 self.parser_result = {}

  • python主题LDA建模和t-SNE可视化2021-05-20 08:56:36

    使用潜在Dirichlet分配(LDA)和t-SNE中的可视化进行主题建模。本文中的代码片段仅供您在阅读时更好地理解。有关完整的工作代码,请参阅完整资料。我们将首先介绍主题建模和t-SNE,然后将这些技术应用于两个数据集:20个新闻组和推文。什么是主题建模?主题模型是一套算法/统计模型,可以揭示文

  • C# VB 数组转DataTable的回复https://bbs.csdn.net/topics/3925605172021-05-06 21:33:01

    也就几句代码完成的事。使用LINQ就一句话的事。 private class 佛诞 { public string 名称 { get; set; } public int 日期 { get; set; } public 佛诞(string 称号, int 诞日) { 名称 = 称号; 日期 = 诞日;

  • 如何为Kafka集群选择合适的Topics/Partitions数量2021-04-06 09:55:41

      这是许多kafka使用者经常会问到的一个问题。本文的目的是介绍与本问题相关的一些重要决策因素,并提供一些简单的计算公式。越多的分区可以提供更高的吞吐量  首先我们需要明白以下事实:在kafka中,单个patition是kafka并行操作的最小单元。在producer和broker端,向每一个分区写入

  • 如何为Kafka集群选择合适的Topics/Partitions数量2021-04-01 12:51:58

    如何为Kafka集群选择合适的Topics/Partitions数量 过往记忆大数据 过往记忆大数据   这是许多kafka使用者经常会问到的一个问题。本文的目的是介绍与本问题相关的一些重要决策因素,并提供一些简单的计算公式。 越多的分区可以提供更高的吞吐量   首先我们需要明白以下事实:在ka

  • Kafka删除topic2021-03-07 14:02:06

    彻底删除Kafka中的topic 1、删除kafka存储目录(server.properties文件log.dirs配置,默认为"/tmp/kafka-logs")相关topic目录 2、Kafka 删除topic的命令是: ./bin/kafka-topics --delete --zookeeper 【zookeeper server】 --topic 【topic name】 如果kafaka启动时加载的配

  • Kafka_Kafka集群操作2021-02-21 20:34:03

    Kafka集群操作 1.创建topic2.查看主题命令3.生产者生产数据4.消费者消费数据5.运行describe topics命令6.增加topic分区数7.增加配置8.删除配置9.删除topic 1.创建topic 创建一个名字为test的主题, 有三个分区,有两个副本 node01执行以下命令来创建topic cd /export/

  • Kafka:主题管理2021-02-09 19:02:05

    主题的管理 主题的管理包括创建主题、查看主题信息、修改主题、删除主题等操作,可以通过kafka的kafka-topics.sh脚本来执行这些操作,这个脚本在$KAFKA_HOME/bin/目录下。 该脚本正文仅有一行: #!/bin/bash # Licensed to the Apache Software Foundation (ASF) under one or more # c

  • 新发现!法媒:柬埔寨冷冻10年的蝙蝠样本发现新冠近亲2021-01-31 03:32:05

    据路透社华盛顿消息,当地时间29日,美国拜登政府将重新评估前总统特朗普时期的国家安全措施,其中包括中美第一阶段经贸协议。 报道称,针对关于中美第一阶段经贸协议是否还有效的提问,美国白宫新闻秘书珍·普萨基当地时间29日在白宫例行记者会上说:“前任政府出台的所有关系国家安全的措施

  • GENSIM官方教程(4.0.0beta最新版)-LDA模型2021-01-28 13:32:42

    GENSIM官方文档(4.0.0beta最新版)-LDA模型 概述数据集文档预处理以及向量化训练LDA需要调试的东西 原文链接 概述 这一章节介绍Gensim的LDA模型,并演示其在NIPS语料库上的用法。 本教程的目的是演示如何训练和调整LDA模型。 在本教程中,我们将: 加载输入数据。预处理该数据

  • 2020 总结 | VoltDB的亮点,你了解多少?2021-01-22 21:51:22

    2020年,VoltDB变得更易于维护,更易于二次开发,更易于集成到业务的数据流管道中。最新的长期支持版本(LTS)V9.3,让生产环境中使用VoltDB也更加放心。 公共云和私有云中更易于维护 VoltDB V10引入了VoltDB Kubernetes Operator模块、Helm图表和Prometheus代理。部署和运行VoltDB集群,并依靠K

  • List转树,寻找树的所有叶子路径2021-01-05 22:34:19

    需求 最近公司有一个需求,总结下来就是一个扁平List转成树,然后获取到树的所有路径。 下面是需求抽象出的部分实体类和部分字段 @Data public class FormTopic { private Integer topicId;//当前节点id private Integer parentId;//父id private String topicName;//

  • 51单片机直流电机PWM调速回复https://bbs.csdn.net/topics/3927426762021-01-01 11:33:07

    实现直流电机的1-7级pwm调速以及停止功能,同时将级数在数码管上显示 #include "reg52.h" #include<intrins.h> //#include "math.h" sbit QiTin = P3^0;//启停按键 sbit duan = P2^6;//数码段 sbit wei = P2^7;//数码位 sbit NanBeiHong = P1^0; sbit NanBeiHuan = P1^1; sbit N

  • RabbitMQ六种通信模式介绍——通配符模式(Topics)2020-12-16 12:02:13

    文章目录 一。简介二。代码实现三。程序运行效果四。模式总结 一。简介 本篇博客所讲的为RabbitMQ六种通信模式之一的通配符模式。 模式说明 Topic类型与Direct相比,都是可以根据RoutingKey把消息路由到不同的队列。只不过Topic类型Exchange可以让队列在绑定Routing key

  • 实践:sed-awk-grep2020-11-28 18:31:39

    1、grep和正则玩 [root@moli tmp]# grep -nvE r+ b.txt // grep和扩展正则玩的时候 需要加上-E 4:dchjdewi 2、双引号和单引号的区别 双引号会对字符串转义       # a=10 echo “$a” 打印10 3、练习 awk + grep + sed # 1、日志操作:找出log中404 500的报错

  • CDH中使用kafka的命令2020-06-09 23:54:22

    kafka-topics --create --zookeeper master:2181 --replication-factor 1 --partitions 6 --topic TP_LABEL kafka-topics --list --zookeeper master:2181 kafka-topics --zookeeper master:2181 --alter --topic TP_LABEL --partitions 8 kafka-console-consumer --z

  • rabbitMQ第五种模型(Topic)2020-06-07 13:06:50

    Routing之订阅模型-Topic   Topic类型的Exchange和Direct相比,都是可以根据RoutingKey把消息路由到不同列队 只不过Topic类型Exchange可以让列队再绑定RoutingKey的时候使用通配符! 这种模型RoutingKey一般都是由一个或多个单词组成,多个单词以“.”分割,例如:item.insert     

  • kafka 创建 topic2020-05-10 18:55:23

    执行 windows 脚本 kafka-topics.bat --create --zookeeper localhost:2181/kafka-zhang --replication-factor 1 --partitions 1 --topic zhang 命令行客户端直接把 topic 元数据写入 zk // TopicCommand adminZkClient.createTopic(topic, partitions, replicas, configs, ra

  • 大流量大负载的Kafka集群优化实战2020-04-06 21:01:54

    前言背景 算法优化改版有大需求要上线,在线特征dump数据逐步放量,最终达到现有Kafka集群5倍的流量,预计峰值达到万兆网卡80%左右(集群有几十个节点,网卡峰值流出流量800MB左右/sec、写入消息QPS为100w+ msgs/sec)。上下游服务需要做扩容评估,提前做好容量规划,保障服务持续稳定运行 L3

  • Codeforces - 1324D - Pair of Topics(尺取)2020-03-25 18:07:00

    题目链接 题目大意:让你找出所有\(ai+aj > bi+bj\)(i > j)   其实这题不用在意\(i > j\)只要把\(i\neq j\)并且符合条件的一对数记做一个答案就行了。。。(显然通过\(i和j\)交换必有\(i > j\))。然后我们把\(ai+aj > bi+bj\)变形可得\((ai-bi)+(aj-aj) > 0\)所以我们把所有的\(a

  • CF1324D Pair of Topics2020-03-13 12:55:03

    好像题解里都是树状数组(起码我翻到的是 说一种cdq分治的(这应该算是cdq分治了 用cdq比较简单,所以可以作为一个练手题 cdq分治其实是一种模糊的思想,处理\([l,r]\)区间内,有多少\((i,j)\)满足某种条件 这里假设\(i<j\),我们取一个\(mid=\frac{i+j}{2}\) \(i<j\leq mid\),问题转换到区

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有