标签:部署 dev ceph etc client 集群 local admin
master node1 node2 client
192.168.1.31 master
192.168.1.29 node1
192.168.1.156 node2
192.168.1.98 client
yum install wget vim epel-release
配置阿里云的centos7镜像和ceph.repo库
[root@master ceph]# cat /etc/yum.repos.d/ceph.repo
[Ceph]
name=Ceph packages for $basearch
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-jewel/el7/$basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1
[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-jewel/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1
[ceph-source]
name=Ceph source packages
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-jewel/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1
#关闭所有节点防火墙和SELINUX
yum install yum-utils ceph ceph-deploy #安装ceph主程序和管理工具
master节点:将ssh公钥导入其他节点方便调用时输入密码
ceph-deploy new node1 node2 初始化节点
cat /etc/ceph/ceph.conf #插入
osd pool default size = 2
ceph-deploy install node1 node2 #安装ceph
ceph-deploy mon create-initial ##初始化mon节点
------------------------------------------------------------
node1:fdisk -l
fdisk /dev/sdb
mkfs.xfs /dev/sdb1
mkdir /dev/local/osd1
vim /etc/fstab
/dev/sdb1 /dev/local/osd1 xfs defaults 0 0
chown ceph:ceph /dev/local/osd1
node2:fdisk -l
fdisk /dev/sdb
mkfs.xfs /dev/sdb1
mkdir /dev/local/osd1
vim /etc/fstab
/dev/sdb1 /dev/local/osd1 xfs defaults 0 0
chown ceph:ceph /dev/local/osd1
ceph-deploy osd prepare node1:/dev/local/osd1 node2:/dev/local/osd1
chmod +r /etc/ceph/ceph.client.admin.keyring
ceph-deploy osd activate node1:/dev/local/osd1 node2:/dev/local/osd1
ceph quorum_status --format json-pretty ##查看Ceph群集详细信息
ceph health
HEALTH_OK
#这里有一个警告 可以不用太在意
client测试
ceph-deploy install ceph-client ##提示输入密码
ceph-deploy admin ceph-client
chmod +r /etc/ceph/ceph.client.admin.keyring
master: ceph osd pool create cephfs_data 128 ##数据存储池
pool 'cephfs_data' created
master: ceph osd pool create cephfs_metadata 128 ##元数据存储池
pool 'cephfs_metadata' created
master: ceph fs new cephfs cephfs_data cephfs_metadata ##创建文件系统
new fs with metadata pool 1 and data pool 2
挂载
[root@ceph-client ~]# mkdir /mnt/ceph
[root@ceph-client ~]# grep key /etc/ceph/ceph.client.admin.keyring |awk '{print $3}' >>/etc/ceph/admin.secret
[root@ceph-client ~]# cat /etc/ceph/admin.secret
AQCd/x9bsMqKFBAAZRNXpU5QstsPlfe1/FvPtQ==
mount -t ceph 192.168.1.29:6789:/ /mnt/ceph/ -v -o name=admin,secretfile=/etc/ceph/admin.secret
mount -t ceph 192.168.1.156:6789:/ /mnt/ceph1/ -v -o name=admin,secretfile=/etc/ceph/admin.secret
dd if=/dev/zero of=/mnt/ceph/1.file bs=1G count=1
标签:部署,dev,ceph,etc,client,集群,local,admin 来源: https://www.cnblogs.com/AnyChen/p/12053638.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。