参考源 https://www.bilibili.com/video/BV1S54y1R7SB?spm_id_from=333.999.0.0 版本 本文章基于 Redis 6.2.6 概述 主从复制,是指将一台 Redis 服务器的数据,复制到其他的 Redis 服务器 前者称为主节点(master / leader),后者称为从节点(slave / follower)。 数据的复制是单向的,只
内容详细 1 redis高可用 # 主从复制存在的问题: 1 主从复制,主节点发生故障,需要做故障转移,可以手动转移:让其中一个slave变成master--->哨兵 2 主从复制,只能主写数据,所以写能力和存储能力有限----》集群 # 案例 -一主两从,主写数据,从读
一:配置pom <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-core</artifactId> <version>1.0.1</version> </dependency> 二:测试代码 package com.jachs.hadoop; import java.io.IOExcepti
nginx upstream miao_server { #server 192.168.209.53:8080 max_fails=2 fail_timeout=10s; #server 192.168.209.54:8080 max_fails=2 fail_timeout=10s; server 192.168.104.233:8080 max_fails=2 fail_timeout=10s; } server { liste
方法1.ntp 平滑同步时间 (一)确认ntp的安装 1)确认是否已安装ntp 【命令】 rpm –qa | grep ntp 若只有ntpdate而未见ntp,则需删除原有ntpdate。如: ntpdate-4.2.6p5-22.el7_0.x86_64 fontpackages-filesystem-1.44-8.el7.noarch python-ntplib-0.3.2-1.el7.noarch 2)删除已安
安装NFS 修改hostname 所有需要提供的修改 client1执行:hostnamectl set-hostname ceph_gateway 修改hosts 集群节点添加两台客户端host三个节点机器分别修改host文件,修改完成后如下 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168
输入命令:redis-server.exe redis.windows.conf 后提示: 解决办法: 依次执行以下命令: 1.redis-cli.exe,进入redis命令模式 2.shutdown,关闭服务器,此时断开连接 3.eixt,退出redis命令模式 4.重新输入:redis-server.exe redis.windows.conf 启动服务器成功。
Hadoop 性能优化 小文件问题 HDFS和MapReduce是针对大文件设计的,在小文件处理上效率低下,且十分消耗内存资源。每个小文件都会占用一个block、产生一个InputSplit、产生一个Map任务,这样map任务的启动时间很长,执行任务的时间很短。解决方法是使用容器将小文件组织起来,HDFS提供了两种
第一步,创建deploy apiVersion: extensions/v1beta1 #k8s版本不同,api可能也不同 kind: Deployment metadata: name: mynginx namespace: default spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: name: web labe
gd_WWW已经在本地(/etc/hosts)进行指向,但是竟然还能解析到外网,让我百思不得其解。经过不断查找发现域名解析与以下四个文件有关: /etc/hosts /etc/host.conf /etc/resolv.conf /etc/nsswitch.conf 其中nsswitch.conf与系统获取解析的顺序有关。 [root@f5ha.com ~]# vi /etc/nsswitc
DBA数据库管理必备认证:ORACLE OCP 19C(最新版本) ORACLE OCP 19C官方教材下载:https://download.csdn.net/download/XMWS_IT/19927549 1.安装前环境配置 基本信息 OS DB hostname DB name IP Redhat7.6 Oracle 19C Oracle19C weisi 192.168.2.100 配置/etc/hosts [root@o
redis安装 1.复制文件到 /soft gcc-c++_all 是C语言编译器 2.解压两个包 [root@localhost soft]# tar -xvf redis-4.0.0.tar.gz -C /usr/local [root@localhost soft]# tar -xvf gcc-c++_all.tar.gz 3.安装gcc编译器 [root@localhost gcc-c++_all]# rpm -ivhU * --nodeps --for
1.1 基于目录创建 // cm是configmaps的缩写 01.[root@k8s-master01 configmap]# kubectl create cm cmfromdir --from-file=conf/ configmap/cmfromdir created 02.[root@k8s-master01 configmap]# kubectl get cm NAME DATA AGE cmfromdir 2 7sk
在golang 保存时间字符串转为时间格式后保存多出8小时 初步排查可能mysql数据库服务器时间问题 show variables like'%time_zone'; // outpot Variable_name`, `Value` 'system_time_zone', 'CST' 'time_zone', 'SYSTEM' 进入服务查看 date # outpout Tue May 31 14:
https://blog.csdn.net/lufei0920/article/details/124194243 这个教程参数太多了,我们学习这个,只需要知道要初始化哪些内容,就行 #!/bin/bash #初始变量NTPSERVER1=$4NTPSERVER=${NTPSERVER1:="192.168.1.140"} #ntpserver saltserver1=$5saltserver=${saltserver1:="10.100.10
docker部署nginx+tomcat实现负载均衡 1,部署一台Nginx和三台Tomcat服务器 2,Ngnix需要实现三种策略: 1)轮询; 2)权重,三台服务器的权重为1,3,5; 3)IP Hash。 最终实现的效果是,本地电脑通过网页访问云服务器时,网页能够体现Ngnix三种策略的结果。 1 申请华为云服务器并配置环境 1.1 申请服务器
cd /usr/local/nginx/sbin/ 切换到nginx安装目录./nginx 启动./nginx -s stop 强制停止./nginx -s quit 停止./nginx -s reload 重启./nginx -s quit:此方式停止步骤是待nginx进程处理任务完毕进行停止。./nginx -s stop:此方式相当于先查出nginx进程id再使用kill命令强制杀掉进
nginx安装 下载镜像并测试 1.docker pull nginx 2.docker images nginx 查看我们拉取到本地的nginx镜像IMAGE ID 3.首先测试下nginx镜像是否可用,使用docker run -d --name mynginx -p 80:80 imgae ID创建并启动nginx容器 将nginx容器内部配置文件挂载到主机 将nginx容器内部配置
docker pull mysql:5.7 创建目录/mydata/mysql/log /mydata/mysql/conf /mydata/mysql/data docker run -itd --name mysql-back -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 -v /mydata/mysql/log:/var/log/mysql -v /mydata/mysql/data:/var/lib/mysql -v /mydata/mysql
1)问题描述:如果启动消费Flume抛出如下异常 ERROR hdfs.HDFSEventSink: process failed java.lang.OutOfMemoryError: GC overhead limit exceeded 2)解决方案步骤: (1)在hadoop102服务器的/opt/module/flume/conf/flume-env.sh文件中增加如下配置 export JAVA_OPTS="-Xms100m -Xmx2000m
1.Redis安装 1.1.Linux环境安装Redis step-1:下载Redis 进入官网找到下载地址 https://redis.io/download wget https://github.com/redis/redis/archive/7.0.0.tar.gz step-2:解包 tar -zvxf 7.0.0.tar.gz step-3:编译 cd redis-7.0.0 make step-4:安装 make ins
说明: Cobbler服务器系统:CentOS 5.10 64位 IP地址:192.168.21.128 需要安装部署的Linux系统: eth0(第一块网卡,用于外网)IP地址段:192.168.21.160-192.168.21.200 eth1(第二块网卡,用于内网)IP地址段:10.0.0.160-10.0.0.200 子网掩码:255.255.255.0 网关:192.168.21.2 域名解析:8.8.8.8 8.8.4.4
Redis支持主从复用。数据可以从主服务器向任意数量的从服务器上同步,同步使用的是发布/订阅机制。Mater Slave的模式,从Slave向Master发起SYNC命令。 可以是1 Master 多Slave,可以分层,Slave下可以再接Slave,可扩展成树状结构。 因为没有两台电脑,所以只能在一台机器上搭建两个Redis服
一、环境准备 10.0.0.20:centos7 nginx1.18 php-fpm7.4 kodbox1.31 10.0.0.22: centos8 mysql8.0 redis5.0.3 二、部署 1、10.0.0.20(LNP) 1)安装nginx,可以通过官方源安装(我是编译安装)都一样 官方源 https://nginx.org/en/linux_packages.html#RHEL-CentOS vim /etc/yum.
redis-3.0.0编译安装 1、前言 redis是常用的no-sql数据库,常用于缓存数据,同时,他也可以持久化数据。他是C语言开发的,所以安装的时候需要编译。 2、单机版redis yum install gcc-c++(安装C语言编译环境) 3、编译安装 源码:https://github.com/huangz1990/redis-3.0-annotated.git