ICode9

精准搜索请尝试: 精确搜索
  • Kubernetes K8S之Pod生命周期与探针检测2020-08-16 23:32:02

      K8S中Pod的生命周期与ExecAction、TCPSocketAction和HTTPGetAction探针检测   主机配置规划 服务器名称(hostname)系统版本配置内网IP外网IP(模拟) k8s-master CentOS7.7 2C/4G/20G 172.16.1.110 10.0.0.110 k8s-node01 CentOS7.7 2C/4G/20G 172.16.1.111 10.0.0.111

  • Centos7 大数据集群环境准备2020-07-22 21:31:59

    1.关闭防火墙 关闭防火墙 systemctl stop firewalld.service 永久关闭防火墙 systemctl disable firewalld.service 查看防火墙状态 systemctl status firewalld.service 2.关闭selinux vi /etc/selinux/config 将SELINUX=enforcing改为SELINUX=disabled设置后需要重启才

  • 超详细大数据学习之Hadoop HA 高可用安装(二)2020-06-19 17:39:47

    上一阶段的学习 超详细大数据学习之Hadoop HA 高可用安装(一) https://blog.csdn.net/qq_44500635/article/details/106796553 六、安装zookeeper 这里我们需要先下载好zookeeper在自己的电脑里,在node02,03,04家目录下创建software文件夹 mkdir software 用Xftp把zookeeper放在

  • Hadoop高可用集群搭建及测试2020-06-19 17:38:15

    ** Hadoop高可用集群搭建(遇到的错误)及测试 ** 本文主要介绍的是hadoop的高可用集群搭建步骤,个人觉得还挺详细得哈哈哈哈哈哈还附有截图,希望可以给有需要的童鞋一点帮助。然后文章的最后也列举了本人在安装过程中所遇到的困难以及解决办法,希望可以给正在为错误焦头烂额的你一

  • Hadoop HA高可用集群搭建详细过程(亲测四台有效)2020-06-18 12:39:17

    hadoop集群HA高可用搭建 ❀❀❀❀❀搭建前的简单介绍❀❀❀❀❀ 主机配置环境如下表: Hadoop HA原理:    在一典型的HA集群中,每个NameNode是一台独立的服务器。在任一时刻,只有一个NameNode处于active状态,另一个处于standby状态。其中,active状态的NameNode负责所有的客户

  • 实战 | 史上最详细Hadoop大数据集群搭建,不看后悔系列2020-05-16 17:41:22

    文章目录1. 搭建环境1.1 实验环境1.2 架构模型1.3 前期准备2. 软件环境依赖部署2.1 jdk安装及配置2.2 ssh免密钥配置3. Hadoop及Zookeeper部署3.1 Hadoop安装及配置3.1.1 解压hadoop-2.6.5.tar.gz:3.1.2 修改配置文件/etc/profile:3.1.3 修改 hadoop-env.sh 和 mapred-env.

  • 部署Docker swarm集群(一)2019-12-27 20:55:27

    一、Docker swarm简介 Docker swarm与docker-compose一样,都是docker官方推出的docker容器的编排工具。但不同的是,Docker Compose 是一个在单个服务器或主机上创建多个容器的工具,而 Docker Swarm 则可以在多个服务器或主机上创建容器集群服务,对于微服务的部署,显然 Docker Swarm 会更

  • 部署Docker swarm集群(一)2019-12-27 20:55:09

    博文大纲:一、Docker swarm简介二、环境准备三、初始化Swarm群集四、配置node02、node03加入、离开swarm群集五、部署图形化UI六、docker swarm群集的service服务配置七、实现service的扩容、收缩八、docker Swarm群集常用命令九、docker swarm总结 一、Docker swarm简介 Docker s

  • 大数据 Hadoop 高可用HA(Journal,ZooKeeper)2019-10-31 22:50:32

          NN1  NN2  DN  ZK  ZKFC  JNNNODE01    *               *    *NODE02        *    *   *    *    *NODE03           *   *         *NODE04           *   *   1、首先让两

  • SSH出错2019-10-25 18:55:04

      [root@node01 ~]# ssh node02ssh_exchange_identification: Connection closed by remote host 修改连接数无效 [root@node02 denyhosts]# vi /etc/hosts.allow 加入node01 sshd:node01       ssh-keygen -R [hostname] 删除~/.ssh/known_hosts中关于服务器旧的ssh免

  • Linux下Shell入门2019-10-22 20:07:44

    Shell是人和计算机之间交流的''翻译官'',通过Shell终端解释器,可以访问到系统内核的服务,Shell执行需要脚本解释器,以及一个编写脚本的工具,一般解释器使用/bin/bash,脚本工具使用vim。Shell跟其他编程语言一样,也支持参数和变量、流程控制、分支等特性,下面简单了解一下。 脚本解释器 通

  • 【Kubernetes学习之二】Kubernetes集群安装2019-08-30 09:53:42

    环境   centos 7 Kubernetes有三种安装方式:yum、二进制、kubeadm,这里演示kubeadm。 一、准备工作1、软件版本 软件 版本 kubernetes v1.15 CentOS7.6 CentOS Linux release 7.6.1810(Core) Docker v19.09 flannel 0.10.0 2、集群拓扑 IP 角色 主机名 192.16

  • Greenplum使用扩展功能2019-08-29 10:05:47

    Greenplum的每一个实例节点是一个pg数据库,所以pg上的扩展功能同样可以在greenplum上使用,但是当前5.X的GP版本里,集成的PG版本比较低,对extenison支持的不好甚至有的功能不支持,所以在greenplum中使用扩展的时候需要借用高版本postgresql的contrib包。 为Greenplum安装扩展功能的

  • corosync+pacemaker+httpd2019-08-09 22:51:24

    准备2台机器,3个ip node01 192.168.1.10 #节点1node02 192.168.1.11 #节点2#准备一个IP,作为虚拟ipvip 192.168.1.88 建立互通并安装软件 #关闭两台防火墙systemctl disable firewalldsystemctl stop firewalld#在/etc/selinux/config中把enforcing设为disableenfor

  • [Hadoop]HDFS-HA高可用完全分布式搭建(基于hadoop-2.6.5的多NameNode形式)2019-07-24 22:05:14

    HDFS-HA高可用完全分布式搭建 环境背景 1 修改hosts文件 2 免密钥登录 3 安装zookeeper 4 安装hadoop 5 第一次启动 6 之后的启动和关闭 环境背景 各虚拟机的系统时间需要同步, 各节点预先安装好jdk1.7 因为多节点有相同操作,使用xshell的同步命令能简化步骤 使用的各节点

  • Shell~echo -e 颜色输出2019-07-07 15:01:36

      echo -e 可以控制字体颜色和背景颜色输出    从一个例子开始: # echo -e "\e[1;33;41m test content \e[0m" 输出效果:   1. \e 转义起始符,定义一个转义序列, 可以使用 \033代替2. [ 表示开始定义颜色3. 1表示高亮,33表示字体颜色为黄色,45表示背景色为红色4. “test content

  • Hadoop HA(高可用搭建)2019-06-30 21:41:54

    上次记录了hadoop完全分布式搭建(非高可用),这次来学习hadoop HA 搭建。 一、原理机制 主备NameNode 解决单点故障(属性,位置) 主NameNode对外提供服务,备NameNode同步主NameNode元数据,以待切换 所有DataNode同时向两个NameNode汇报数据块信息(位置) JNN:集群(属性) standby:备,完成了edits.

  • 4 ,node02 克隆安装 ( 五分钟搞定 )2019-06-02 11:50:18

    1 ,克隆 右键 node01 - 管理 - 克隆 - 下一步 - 2 ,重新生成 mac 地址 : 点击一下 node02 – 点击“网络适配器” – 高级 – 生成 3 ,开机 4 ,编辑配置文件 : vi /etc/udev/rules.d/70-persistent-net.rules 我们只留最后一条内容,不管上面有多少条,都注释掉,并且把最后

  • 5 ,node03 克隆安装 ( 五分钟搞定 )2019-06-02 11:49:01

    步骤,参考 node02

  • 4,大数据环境准备 ( ssh 免密 )2019-06-01 13:47:48

    1 ,ssh 免密 :意义 为了让三台机器成为一个整体。 孙:这三个人关系很好,可以不敲门就进屋。 2 ,没有配置 ssh 之前,互相传文件,每次都要输入密码 : 在 node01 机器新建一个文件 :aa.txt touch aa.txt 在 node02 机器的 /root 目录新建一个目录 :file mkdir file 把 node01 中的 aa

  • node022019-04-26 12:48:08

    1、使用已有的知识实现一个简单的登录和注册的界面 请求有请求接口有请求页面的,我们需要加以区分 以下是客户端代码 <!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0

  • Hadoop集群搭建2019-03-02 21:02:21

      最近通过网上的视频学习了Hadoop的知识,学的比较琐碎,所以在这里做一个归纳、整理。 一、linux虚拟机的安装   1.虚拟机用的是VMWare12,这个版本只能安装在64位系统里,具体安装过程没什么好说的。   2.linux安装,我用的是CentOS-6.5-x86_64.minimal.iso     a.安装选择的是

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有