ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

使用 TiUP cluster 在单机上安装TiDB

2021-05-02 17:36:13  阅读:244  来源: 互联网

标签:TiUP 65.41 10.186 机上安装 cluster tidb data tiup


TiUP 是 TiDB 4.0 版本引入的集群运维工具,TiUP cluster 是 TiUP 提供的使用 Golang 编写的集群管理组件,通过 TiUP cluster 组件就可以进行日常的运维工作,包括部署、启动、关闭、销毁、弹性扩缩容、升级 TiDB 集群,以及管理 TiDB 集群参数。

最小规模的 TiDB 集群拓扑:

实例 个数 IP 配置
TiKV 3 10.186.65.41 避免端口和目录冲突
TiDB 1 10.186.65.41 默认端口,全局目录配置
PD 1 10.186.65.41 默认端口,全局目录配置
TiFlash 1 10.186.65.41 默认端口,全局目录配置
Monitor 1 10.186.65.41 默认端口,全局目录配置

1、添加数据盘 EXT4 文件系统

生产环境部署,建议使用 EXT4 类型文件系统的 NVME 类型的 SSD 磁盘存储 TiKV 数据文件。这个配置方案为最佳实施方案,其可靠性、安全性、稳定性已经在大量线上场景中得到证实。

使用 root 用户登录目标机器,将部署目标机器数据盘格式化成 ext4 文件系统,挂载时添加 nodelalloc 和 noatime 挂载参数。nodelalloc 是必选参数,否则 TiUP 安装时检测无法通过;noatime 是可选建议参数。

注意:

如果你的数据盘已经格式化成 ext4 并挂载了磁盘,可先执行 umount /dev/vdb 命令卸载,从编辑 /etc/fstab 文件步骤开始执行,添加挂载参数重新挂载即可。

1.1 查看数据盘

fdisk -l

Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors

1.2 创建分区

parted -s -a optimal /dev/vdb mklabel gpt -- mkpart primary ext4 1 -1

1.3 格式化文件系统

mkfs.ext4 /dev/vdb

1.4 使用 lsblk 命令查看分区的设备号及UUID:

[root@tidb01 ~]# lsblk -f
NAME   FSTYPE  LABEL   UUID                                 MOUNTPOINT
sr0    iso9660 CONTEXT 2021-04-30-09-59-46-00               
vda                                                         
└─vda1 xfs             de86ba8a-914b-4104-9fd8-f9de800452ea /
vdb    ext4            957bb4c8-68f7-40df-ab37-1de7a4b5ee5e 

1.5 编辑 /etc/fstab 文件,添加 nodelalloc 挂载参数

vi /etc/fstab

UUID=957bb4c8-68f7-40df-ab37-1de7a4b5ee5e /data ext4 defaults,nodelalloc,noatime 0 2

1.6 创建数据目录并挂载磁盘

mkdir -p /data && mount -a

1.7 检查文件系统是否挂载成功

执行以下命令,如果文件系统为 ext4,并且挂载参数中包含 nodelalloc,则表示已生效。

[root@tidb01 ~]# mount -t ext4
/dev/vdb on /data type ext4 (rw,noatime,nodelalloc,data=ordered)

2、安装步骤

2.1 下载并安装 TiUP:

curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

2.2 安装 TiUP 的 cluster 组件:

tiup cluster

需要打开一个新的终端或重新加载source /root/.bash_profile文件才能执行tiup命令

2.3 如果机器已经安装 TiUP cluster,需要更新软件版本:

tiup update --self && tiup update cluster

2.4 调大 sshd 服务的连接数

由于模拟多机部署,需要通过 root 用户调大 sshd 服务的连接数限制:

  1. 修改 /etc/ssh/sshd_config 将 MaxSessions 调至 20。
  2. 重启 sshd 服务:
systemctl restart sshd.service

2.5 创建并启动集群

按下面的配置模板,编辑配置文件,命名为 topo.yaml,其中:

  • user: "tidb":表示通过 tidb 系统用户(部署会自动创建)来做集群的内部管理,默认使用 22 端口通过 ssh 登录目标机器
  • deploy_dir/data_dir: 分别为集群组件安装目录和数据目录
  • replication.enable-placement-rules:设置这个 PD 参数来确保 TiFlash 正常运行
  • host:设置为本部署主机的 IP
[root@tidb01 .tiup]# pwd
/root/.tiup

[root@tidb01 .tiup]# cat topo.yaml

# # Global variables are applied to all deployments and used as the default value of
# # the deployments if a specific deployment value is missing.
global:
 user: "tidb"
 ssh_port: 22
 deploy_dir: "/data/tidb-deploy"
 data_dir: "/data/tidb-data"

# # Monitored variables are applied to all the machines.
monitored:
 node_exporter_port: 9100
 blackbox_exporter_port: 9115

server_configs:
 tidb:
   log.slow-threshold: 300
 tikv:
   readpool.storage.use-unified-pool: false
   readpool.coprocessor.use-unified-pool: true
 pd:
   replication.enable-placement-rules: true
   replication.location-labels: ["host"]
 tiflash:
   logger.level: "info"

pd_servers:
 - host: 10.186.65.41

tidb_servers:
 - host: 10.186.65.41

tikv_servers:
 - host: 10.186.65.41
   port: 20160
   status_port: 20180
   config:
     server.labels: { host: "logic-host-1" }

 - host: 10.186.65.41
   port: 20161
   status_port: 20181
   config:
     server.labels: { host: "logic-host-2" }

 - host: 10.186.65.41
   port: 20162
   status_port: 20182
   config:
     server.labels: { host: "logic-host-3" }

tiflash_servers:
 - host: 10.186.65.41

monitoring_servers:
 - host: 10.186.65.41

grafana_servers:
 - host: 10.186.65.41

2.6 执行集群安装命令:

tiup cluster deploy <cluster-name> <tidb-version> ./topo.yaml --user root -p
  • 参数 表示设置集群名称
  • 参数 表示设置集群版本,可以通过 tiup list tidb 命令来查看当前支持部署的 TiDB 版本
示例
tiup cluster deploy barlow 4.0.12 ./topo.yaml --user root -p

按照引导,输入”y”及 root 密码,来完成部署:

Do you want to continue? [y/N]:  y
Input SSH password:

成功安装会提示如下启动字样:

Cluster `barlow` deployed successfully, you can start it with command: `tiup cluster start barlow`

2.7 启动集群:

tiup cluster start barlow

tiup cluster start <cluster-name>

2.8 访问集群:

  • 安装 MySQL 客户端。如果已安装 MySQL 客户端则可跳过这一步骤:
yum install -y mysql
  • 访问TiDB数据库,密码为空:
mysql -uroot -p -h10.186.65.41 -P4000
  • 访问 TiDB 的 Grafana 监控:

通过 http://{grafana-ip}:3000 访问集群 Grafana 监控页面,默认用户名和密码均为 admin。
http://10.186.65.41:3000/

  • 访问 TiDB 的 Dashboard:

通过 http://{pd-ip}:2379/dashboard 访问集群 TiDB Dashboard 监控页面,默认用户名为 root,密码为空。
http://10.186.65.41:2379/dashboard

  • 执行以下命令确认当前已经部署的集群列表:
tiup cluster list
[root@tidb01 .tiup]# tiup cluster list
Starting component `cluster`: /root/.tiup/components/cluster/v1.4.2/tiup-cluster list
Name    User  Version  Path                                         PrivateKey
----    ----  -------  ----                                         ----------
barlow  tidb  v4.0.12  /root/.tiup/storage/cluster/clusters/barlow  /root/.tiup/storage/cluster/clusters/barlow/ssh/id_rsa
  • 执行以下命令查看集群的拓扑结构和状态:
tiup cluster display <cluster-name>
[root@tidb01 .tiup]# tiup cluster display barlow
Starting component `cluster`: /root/.tiup/components/cluster/v1.4.2/tiup-cluster display barlow
Cluster type:       tidb
Cluster name:       barlow
Cluster version:    v4.0.12
SSH type:           builtin
Dashboard URL:      http://10.186.65.41:2379/dashboard
ID                  Role        Host          Ports                            OS/Arch       Status   Data Dir                         Deploy Dir
--                  ----        ----          -----                            -------       ------   --------                         ----------
10.186.65.41:3000   grafana     10.186.65.41  3000                             linux/x86_64  Up       -                                /data/tidb-deploy/grafana-3000
10.186.65.41:2379   pd          10.186.65.41  2379/2380                        linux/x86_64  Up|L|UI  /data/tidb-data/pd-2379          /data/tidb-deploy/pd-2379
10.186.65.41:9090   prometheus  10.186.65.41  9090                             linux/x86_64  Up       /data/tidb-data/prometheus-9090  /data/tidb-deploy/prometheus-9090
10.186.65.41:4000   tidb        10.186.65.41  4000/10080                       linux/x86_64  Up       -                                /data/tidb-deploy/tidb-4000
10.186.65.41:9000   tiflash     10.186.65.41  9000/8123/3930/20170/20292/8234  linux/x86_64  Up       /data/tidb-data/tiflash-9000     /data/tidb-deploy/tiflash-9000
10.186.65.41:20160  tikv        10.186.65.41  20160/20180                      linux/x86_64  Up       /data/tidb-data/tikv-20160       /data/tidb-deploy/tikv-20160
10.186.65.41:20161  tikv        10.186.65.41  20161/20181                      linux/x86_64  Up       /data/tidb-data/tikv-20161       /data/tidb-deploy/tikv-20161
10.186.65.41:20162  tikv        10.186.65.41  20162/20182                      linux/x86_64  Up       /data/tidb-data/tikv-20162       /data/tidb-deploy/tikv-20162
Total nodes: 8

因为有悔,所以披星戴月;因为有梦,所以奋不顾身! 个人博客首发:easydb.net 微信公众号:easydb 关注我,不走丢!

image

标签:TiUP,65.41,10.186,机上安装,cluster,tidb,data,tiup
来源: https://www.cnblogs.com/easydb/p/14725976.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有