ICode9

精准搜索请尝试: 精确搜索
  • kubeadm安装kubernetes(v18.8.8)2020-08-23 07:01:36

    1. 前言 kubernetes版本更新迭代非常快,上一篇写kubernetes搭建时,版本还是v1.15.0,现在已经更新到v1.18。看kubernetes在github的官方仓库,8月14日小版本已经到了v1.18.8。本篇文章基于kubeadm搭建kubernetes v1.18.8版。本篇文章与上篇文章几点不同之处: 操作系统采用CentOS。 master

  • kubeadm安装kubernetes(v18.8.8)2020-08-23 07:01:27

    1. 前言 kubernetes版本更新迭代非常快,上一篇写kubernetes搭建时,版本还是v1.15.0,现在已经更新到v1.18。看kubernetes在github的官方仓库,8月14日小版本已经到了v1.18.8。本篇文章基于kubeadm搭建kubernetes v1.18.8版。本篇文章与上篇文章几点不同之处: 操作系统采用CentOS。 master

  • Kubernetes集群之部署ETCD2020-04-29 21:56:03

    kubernetes集群部署 官方提供的三种部署方式1.minikubeminikube是一个工具,可以在本地快速运行一个单点的kubernetes,仅用于尝试K8S或日常开发的测试环境使用部署地址:https://kubernetes.io/docs/setup/minkube/2.kubeadmkubeadm也是一个工具,提供kubeadm init和kubeadm join,用于快速

  • 搭建一个完整的Kubernetes集群--自签APIServer SSL证书+master1配置2020-01-09 13:56:36

    生成apiserver证书! vim ca-csr.json { "CN": "kubernetes", "key": { "algo": "rsa", "size": 2048 }, "names": [ { "C": "CN&q

  • keepalived+MySQL主主高可用2020-01-07 20:56:43

    keepalived+MySQL主主高可用 一、环境介绍: 10.1.1.174:23316 M1 10.1.1.237:23316 M2 二、配置双主:略。 三、keepalive安装 [root@master1 ~]# cd /usr/local/src/ [root@master1 src]# wget https://www.keepalived.org/software/keepalived-2.0.17.tar.gz [root@master1

  • Linux:文件访问控制列表 setfacl2019-12-26 15:55:36

    setfacl针对单一用户或者用户组,控制wrx权限。针对目录文件,-R递归参数;针对普通文件,-m参数;删除某个文件的ACL,-b参数。 [root@master1-192-168-117-18 ~]# setfacl -Rm u:aa:rwx haha[root@master1-192-168-117-18 ~]# ls -ld hahadrwxrwx---+ 2 root root 4096 12月 26 11:10 haha**

  • MYSQL的主从复制、读写分离2019-12-04 11:55:55

    4,在master,slave1,slave2上分别安装MySQL [root@master1 ~]# mkdir /abc ##创建挂载点 [root@master1 ~]# mount.cifs //192.168.100.1/LNMP-C7 /abc/ ##远程挂载 Password for root@//192.168.100.1/LNMP-C7: [root@master1 ~]# cd /abc/ [root@master1 abc]#

  • 部署MySQL主从半同步复制2019-10-17 11:56:48

      半同步复制:   而半同步复制是在协议中添加了一个同步步骤,主节点在发送完日志文件之后,等待来自从节点的回应,收到从节点的同步确认之后才去提交数据(保证数据一定被备份了)        一般主从复制,有三个线程参与,都是单线程:Binlog Dump(主) —–>IO Thread (从) —–> SQL Thr

  • ceph-add monitor2019-10-09 11:59:01

     1、修改配置 [root@node2 ~]# vim /etc/ceph/ceph-cluster/ceph.conf [global]fsid = 4c137c64-9e09-410e-aee4-c04b0f46294emon_initial_members = node2,node1,master1mon_host = 172.16.18.22,172.16.18.24,172.16.18.16auth_cluster_required = cephxauth_service_required

  • 虚拟机安装配置centos72019-09-21 16:03:38

    安装 https://blog.csdn.net/babyxue/article/details/80970526   主机环境预设 更换国内yum源  https://www.cnblogs.com/hanbowen/p/11563388.html 设置时间同步     配置静态ip       vim /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none

  • Kubernetes 常用命令2019-08-06 18:08:31

    1.查看节点状态 [root@master1 ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION master1 Ready master 113m v1.14.2 master2 Ready master 105m v1.14.2 master3 Ready master 102m v1.14.2 node1 Ready <none> 101

  • kubernetes实践指南(四)2019-07-28 12:00:12

    一、安装docker二、安装kubelet三、安装kube-proxy四、验证集群可用性五、bootstrap说明 一、安装docker [root@master1 yaml]# docker version Client: Version: 17.06.0-ce API version: 1.30 Go version: go1.8.3 Git commit: 02c1d87 Built: Fri Jun 23

  • nfs数据持久化2019-07-26 17:56:40

    1、服务器端安装nfs:yum install nfs-utils -y配置nfs:[root@basic opt]#mkdir -p /opt/container_data并制作一些测试数据: [root@basic opt]# cat /etc/exports /opt/container_data 10.0.2.0/24(rw,no_root_squash)启动:systemctl start nfs 2、客户端首先也要安装这个nfs包:yum i

  • k8s实践17:kubernetes对接nfs存储实现pvc动态按需创建分配绑定pv2019-07-24 17:58:03

    1.开始前的想法.前面测试pv&&pvc的部署和简单配置应用,实现pod应用数据存储到pvc并且和pod解耦的目的.前面操作是全手动操作,手动创建pv,手动创建pvc,如果集群pod少,这样操作可以.假如集群有1000个以上的pod,每个pod都需要使用pvc存储数据,如果只能手动去一个个创建pv,pvc,工作量不

  • 搭建RocketMQ集群2019-06-11 15:49:34

    一、环境及准备 集群环境: 软件版本: 部署前操作: 关闭防火墙,关闭selinux(生产环境按需关闭或打开)同步服务器时间,选择公网ntpd服务器或者自建ntpd服务器[root@es1 ~]# crontab -l #为了方便直接使用公网服务器#update time*/5 * * * * /usr/bin/rdate -s time-b.nist.gov &>/dev/

  • Hbase源码编译2019-04-25 16:53:45

    1源码下载 到hbase官网下载源码hbase-1.3.1.tar.gz 2 部署及编译 Hbase部署在192.168.1.221服务器上,编译是在192.168.1.98虚拟机上 安装jdk maven(步骤同上软件编译) 先将下载的tar包解压,然后对源码进行修改(汉化,样式等) 在源码根目录下进行编译,编译命令是:mvn clean package -Dskip

  • 大数据-hadoop HA集群搭建2019-02-20 14:40:33

    一、安装hadoop、HA及配置journalnode 实现namenode HA 实现resourcemanager HA namenode节点之间通过journalnode同步元数据 首先下载需要版本的hadoop,我用的版本是hadoop-2.9.1 安装到5台机器上 master1  master2上安装namenode  master1  master2上配置resourcemanager slave

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有