ICode9

精准搜索请尝试: 精确搜索
  • nomad-rbd扩容脚本2022-08-30 20:02:32

    #!/bin/bash ## rbd-expand.sh # 获取单位 unit=`echo $2 | tr -d "[0-9]"` # 获取数字 number=`echo $2 | tr -cd "[0-9]"` [[ $unit =~ G ]] && VSIZE=`echo $number*1024 | bc` [[ $unit =~ T ]] && VSIZE=`echo $number*1024*1024 | bc

  • k8s对接Ceph实现持久化存储(16)2022-08-23 19:30:17

    一、Ceph简介 官网:https://ceph.com/en/   https://docs.ceph.com/en/latest/start/intro/ ceph 是一种开源的分布式的存储系统 包含以下几种存储类型: 块存储(rbd),对象存储(RADOS Fateway),文件系统(cephfs) 块存储(rbd):         块是一个字节序列(例如,512 字节的数据块)。 基于块

  • rbd创建快照2022-08-02 16:35:59

     

  • k8s pvc扩容2022-06-01 18:34:28

    #查看是否支持扩容 $ kubectl get sc ** -o yaml ··· allowVolumeExpansion: true #拥有该字段表示允许动态扩容 ··· #找到需要扩容的pvc $ kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AG

  • k8s 使用ceph2022-05-13 23:35:11

    Ceph 块存储客户端通过内核模块或librbd库与 Ceph 集群通信。 块存储 与k8s https://docs.ceph.com/en/latest/rbd/rbd-kubernetes/ 试验步骤 创建存储池 ceph osd pool create kubernetes 32 32 为存储池开启rbd功能 ceph osd pool application enable kubernetes rbd 初始化

  • CEPHADM 操作之客户端密钥环和配置2022-03-05 09:01:59

    Cephadm 可以将ceph.conf文件和客户端密钥环文件的副本分发到主机。通常最好将配置和密钥环的副本存储在 client.admin 用于通过 CLI 管理集群的任何主机上。默认情况下,cephadm 对任何具有 _admin 标签的节点(通常包括引导主机)执行此操作。 当客户端密钥环被置于管理之下时,cephadm

  • 一文了解如何源码编译Rainbond基础组件2022-02-23 12:02:42

    Rainbond 主要由以下三个项目组成,参考官网详细 技术架构 业务端 Rainbond-UI 和 Rainbond-Console 合起来构成了业务层。业务层是前后端分离模式。UI是业务层的前端代码,Console是业务层的后端代码。 Rainbond-UI https://github.com/goodrain/rainbond-ui Rainbond-Console htt

  • 一文了解如何源码编译Rainbond基础组件2022-02-23 11:57:59

    Rainbond 主要由以下三个项目组成,参考官网详细 技术架构 业务端 Rainbond-UI https://github.com/goodrain/rainbond-ui Rainbond-Console https://github.com/goodrain/rainbond-console Rainbond-UI 和 Rainbond-Console 合起来构成了业务层。业务层是前后端分离模式。UI

  • 在Mac上运行Rainbond,10分钟快速安装2022-01-11 11:00:47

    前言 以往安装部署 Rainbond 的方式都无法绕过 Kubernetes 集群的搭建,无论是作为开发环境还是用于生产交付,部署的过程都非常依赖于服务器或云主机。这在体验 Rainbond 云原生应用管理平台的过程中设置了较高的门槛。然而对于个人开发者而言,准备一台服务器甚至多台服务器,才可

  • OpenStack使用Ceph存储,Ceph到底做了什么?2022-01-03 13:34:18

        1 背景知识   1.1 Ceph简介 Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs)。目前也是OpenStack的主流后端存储,和OpenStack亲如兄弟,为OpenStack提供统一共享存储服

  • 安装ceph (快速) 步骤三: Ceph 客户端2021-12-02 16:03:27

    大多数 Ceph 用户不会直接往 Ceph 存储集群里存储对象,他们通常会使用 Ceph 块设备、 Ceph 文件系统、或 Ceph 对象存储这三大功能中的一个或多个。 前提条件 先完成存储集群快速入门 ,并确保 Ceph 存储集群处于 active + clean 状态,这样才能使用 Ceph 块设备。 Ceph 块设备也叫 RB

  • k8s集成ceph(StorageClass方式)2021-11-30 19:02:00

    ceph 集群创建存储池 ceph osd pool create k8s 128 128 获取 key $ ceph auth get-key client.admin | base64 QVFEMjVxVmhiVUNJRHhBQUxwdmVHbUdNTWtXZjB6VXovbWlBY3c9PQ== k8s 集群节点安装 ceph-common,版本需和 ceph 集群一致 rpm -ivh http://download.ceph.com/rpm-l

  • ceph块存储场景2021-11-29 11:35:06

    1、创建rbd使用的存储池。admin节点需要安装ceph才能使用该命令,如果没有,也可以切换到ceph-node1节点去操作。[cephfsd@ceph-admin ceph]$ ceph osd pool create rbd_data 64 64 pool 'rbd_data' created [cephfsd@ceph-admin ceph]$ rbd pool init rbd_data [cephfsd@ceph-admin c

  • 5.3 Ceph存储使用2021-11-27 01:05:29

    5.3 Ceph存储使用 在ceph-deploy节点上操作 1 RBD 块存储 (1) RBD介绍RBD即RADOS Block Device的简称,RBD块存储是最稳定且最常用的存储类型。RBD块设备类似磁盘可以被挂载。RBD块设备具有快照、多副本、克隆和一致性等特性,数据以条带化的方式存储在Ceph集群的多个OSD中。如下是对C

  • 存储和ceph2021-11-22 16:03:33

    存储          DAS(直连存储)ide 线、satu线、sas线 NAS(网络附加存储)Samba、nfs、ftp SAN(存储区域网络)iscsi SDS(软件定义分布式存储网络ceph、glusterfs) 块存储:没格式化的叫块存储 文件存储:格式话的叫文件存储 ceph: 1.ceph是一个分布式文件系统 2.具有高可用、高扩

  • Ceph学习全过程 基于N版2021-11-12 18:00:49

    Ceph学习全过程 1.安装ceph 1.1 ceph概述 ceph monitor 客户端从monitor进程获取整个集群得信息,一般确保是奇数个就好,所以要确保它得高可用性。 osd进程 存储数据得地方,osd会定期把状态上报给monitor,monitor也会定期检测osd。 monitor map 记录集群得状况 osd map 对象得副本

  • ceph块存储rbd常用操作2021-11-04 17:03:34

    pool状态: ceph df  # 查看当前存储的统计信息 ceph osd lspools #查看当前的存储池列表 rbd ls pool-name #查看存储池pool-name中的image列表 rbd info pool-name/image1  #查看image1的详细信息   有关块存储的操作(ceph节点操作): rbd snap create pool-name/image1@image1_sn

  • Ceph集群里Rbd、Cephfs以及高可用性部署2021-08-24 22:03:36

    什么是Ceph FS ?   Ceph FS 即 ceph filesystem,可以实现文件系统共享功能,客户端通过 ceph 协议挂载并使用ceph 集群作为数据存储服务器。 Ceph FS 需要运行 Meta Data Services(MDS)服务,其守护进程为 ceph-mds,ceph-mds 进程管理与 cephFS 上存储的文件相关的元数据,并协调对 ceph

  • Ceph rbd的寻址(rbd块文件的下载)2021-07-31 16:04:19

    1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rb

  • OpenStack集成Ceph2021-07-31 16:02:02

    1. 版本说明2. 前期准备 2.1. 创建keyring2.2. 创建pool2.3. 安装依赖包 3. glance 对接 3.1. glance-api.conf 4. 对接nova 4.1. libvirt配置4.2. nova conf配置 5. 对接cinder 5.1. /etc/cinder/cinder.conf5.2. virsh secret(所有计算节点)5.3. 配置cinder type 6. 测试 6

  • Redis持久化策略2021-07-23 17:34:56

    Redis持久化策略 RDB 原理 RDB是redis默认的持久化策略,当redis的“写操作”达到指定次数,且距离上一次持久化达到指定间隔时间,就会将redis内存中的数据生成数据快照,保存到指定的rbd文件中 默认触发条件 900 1 (解释:当操作次数达到一次,900s就会进行一次持久化) 300 10 60 10000

  • Ceph 与 PV/PVC 集成2021-05-20 23:35:29

    ceph osd lspools rbd create -p kubernetes --image-feature layering demo-1.img --size 5G rbd -p kubernetes ls mkdir -p /data/pv_pvc cd /data/pv_pvc # 创建 pv.yaml vi pv.yaml apiVersion: v1 kind: PersistentVolume metadata: name: rbd-demo spec: access

  • Ceph put 操作与 Volumes 结合使用2021-05-20 23:04:00

    Ceph put 操作 ceph osd pool create mypool 32 32 rados put day.jpg /usr/share/backgrounds/day.jpg -p mypool rados ls -p mypool ceph osd map mypool day.jpg Ceph 与 Volumes 结合使用 mkdir /data/volumes -p cd /data/volumes ceph osd pool create kubernetes 8 c

  • Ceph-12021-05-19 16:03:34

    CephFS: 就是当一个文件系统使用 radowgw: 是一个http的api接口 存储池 3种客户端: radowgw , rbd , CephFS

  • Ceph RBD块存储 快照创建和克隆2021-05-11 12:01:51

    快照其实和虚拟机的快照是一样的,只不过是用一些命令实现的 创建快照 0、创建rbd使用的pool [root@cephnode01 ~]# rbd create --size 10240 image02 rbd: error opening default pool 'rbd' Ensure that the default pool has been created or specify an alternate pool name.

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有