centos7 安装ceph,centos7哪个版本好

大家好,今天来为大家分享centos7 安装ceph的一些知识点,和centos7哪个版本好的问题解析,大家要是都明白,那么可以忽略,如果不太清楚的话可以看看本篇文章,相信很大概率可以解决您的问题,接下来我们就一起来看看吧!

Centos7 k8s 集群 - Rook Ceph 安装

要安装 Centos7 k8s集群并整合 Rook Ceph,首先确保环境具备以下基础配置:安装的 Rook/ceph版本为:ceph:v15.2.11和 rook:1.6.3。此版本组合要求使用裸盘创建集群,避免通过目录创建。

直接添加 sdb硬盘到宿主机,无需进行格式化。确保该硬盘未被其他系统使用。

安装 Rook并下载 Rook operator.yaml和 cluster.yaml。针对国内网络环境,修改 Rook CSI镜像地址,替换为阿里云镜像仓库的镜像路径,以保证访问速度。

对 cluster.yaml进行两处关键配置调整。调整完成后,部署系统,待所有容器运行状态变为'running',方可进行下一步。

使用部署的 Rook创建 Ceph集群。完成创建后,通过查看 pod状态,确认集群部署情况。关注 osd-x容器启动,这是集群安装成功的标志。

安装 Ceph客户端工具后,待容器运行,即可执行相关命令进行 Ceph集群管理。

最后,进行 Rook-CEPH相关资源的清理操作,包括删除 Operator和相关的 Kubernetes资源。此外,删除节点机器上的数据,并擦除节点机器硬盘上的数据,确保无残留信息。

此过程需细心操作,确保每一步的正确性和完整性,以保证 Rook Ceph在 Centos7 k8s集群中的稳定运行。

ceph 块存储rbd的使用,使用普通户创建和挂载rbd

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create rbd1-data 32 32

pool'rbd1-data' created

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool ls

device_health_metrics

mypool

.rgw.root

default.rgw.log

default.rgw.control

default.rgw.meta

myrbd1

cephfs-metadata

cephfs-data

rbd1-data

在存储池启用rbd:

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool application enable rbd1-data rbd

enabled application'rbd' on pool'rbd1-data'

初始化存储池:

ceph@ceph-deploy:~/ceph-cluster$ rbd pool init-p rbd1-data

创建存储池映像文件:

映像文件的管理都是rbd命令来执行,rbd可对映像执行创建,查看,删除,以及创建快照,克隆映像,删除快照,查看快照,快照回滚等管理操作

ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img1--size 3G--pool rbd1-data--image-format 2--image-feature layering

ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img2--size 5G--pool rbd1-data--image-format 2--image-feature layering

查看存储池映像文件

ceph@ceph-deploy:~/ceph-cluster$ rbd list--pool rbd1-data

data-img1

data-img2

列出映像更多信息

ceph@ceph-deploy:~/ceph-cluster$ rbd list--pool rbd1-data-l

NAME    SIZE  PARENT  FMT  PROT  LOCK

data-img1  3 GiB       2      

data-img2  5 GiB       2

ceph@ceph-deploy:~/ceph-cluster$ rbd--image data-img1--pool rbd1-data info

rbd image'data-img1':

size 3 GiB in 768 objects

order 22(4 MiB objects)

snapshot_count: 0

id: 3ab91c6a62f5

block_name_prefix: rbd_data.3ab91c6a62f5

format: 2

features: layering

op_features:

flags:

create_timestamp: Thu Sep  2 06:48:11 2021

access_timestamp: Thu Sep  2 06:48:11 2021

modify_timestamp: Thu Sep  2 06:48:11 2021

ceph@ceph-deploy:~/ceph-cluster$ rbd--image data-img1--pool rbd1-data info--format json--pretty-format

{

  "name":"data-img1",

  "id":"3ab91c6a62f5",

  "size": 3221225472,

  "objects": 768,

  "order": 22,

  "object_size": 4194304,

  "snapshot_count": 0,

  "block_name_prefix":"rbd_data.3ab91c6a62f5",

  "format": 2,

  "features": [

    "layering"

   ],

  "op_features": [],

  "flags": [],

  "create_timestamp":"Thu Sep  2 06:48:11 2021",

  "access_timestamp":"Thu Sep  2 06:48:11 2021",

  "modify_timestamp":"Thu Sep  2 06:48:11 2021"

}

镜像(映像)特性的启用和禁用

特性包括:

layering支持分层快照特性 默认开启

striping条带化

exclusive-lock:支持独占锁 默认开启

object-map支持对象映射,加速数据导入导出及已用空间特性统计等 默认开启

fast-diff快速计算对象和快找数据差异对比 默认开启

deep-flatten 支持快照扁平化操作 默认开启

journaling 是否记录日志

开启:

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable object-map--pool rbd1-data--image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable fast-diff--pool rbd1-data--image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable exclusive-lock--pool rbd1-data--image data-img1

禁止:

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable object-map--pool rbd1-data--image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable fast-diff--pool rbd1-data--image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable exclusive-lock--pool rbd1-data--image data-img1

客户端使用块设备:

首先要安装ceph-comman,配置授权

[root@ceph-client1 ceph_data]# yum install-y

[root@ceph-client1 ceph_data]# yum install ceph-common-y 

授权,

ceph@ceph-deploy:/etc/ceph$ sudo-i

root@ceph-deploy:~# cd/etc/ceph/      

root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.admin.keyring root@192.168.241.21:/etc/ceph

ubuntu系统:

root@ceph-client2:/var/lib/ceph# apt install-y ceph-common

root@ceph-deploy:/etc/ceph# sudo scp ceph.conf ceph.client.admin.keyring ceph@192.168.241.22:/tmp

ceph@192.168.241.22's password:

ceph.conf                                                          100%  270  117.7KB/s  00:00  

ceph.client.admin.keyring

root@ceph-client2:/var/lib/ceph# cd/etc/ceph/

root@ceph-client2:/etc/ceph# cp/tmp/ceph.c*/etc/ceph/

root@ceph-client2:/etc/ceph# ll/etc/ceph/

total 20

drwxr-xr-x  2 root root 4096 Aug 26 07:58./

drwxr-xr-x 84 root root 4096 Aug 26 07:49../

-rw-------  1 root root  151 Sep  2 07:24 ceph.client.admin.keyring

-rw-r--r--  1 root root  270 Sep  2 07:24 ceph.conf

-rw-r--r--  1 root root  92 Jul  8 07:17 rbdmap

-rw-------  1 root root   0 Aug 26 07:58 tmpmhFvZ7

客户端映射镜像

root@ceph-client2:/etc/ceph# rbd-p rbd1-data map data-img1

rbd: sysfs write failed

RBD image feature set mismatch. You can disable features unsupported by the kernel with"rbd feature disable rbd1-data/data-img1 object-map fast-diff".

In some cases useful info is found in syslog- try"dmesg| tail".

rbd: map failed:(6) No such device or address

root@ceph-client2:/etc/ceph# rbd feature disable rbd1-data/data-img1 object-map fast-diff

root@ceph-client2:/etc/ceph# rbd-p rbd1-data map data-img1

/dev/rbd0

root@ceph-client2:/etc/ceph# rbd-p rbd1-data map data-img2

格式化块设备admin映射映像文件

查看块设备

root@ceph-client2:/etc/ceph# lsblk

NAME  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sda    8:0   0  20G  0 disk

└─sda1  8:1   0  20G  0 part/

sr0   11:0   1 1024M  0 rom 

rbd0  252:0   0   3G  0 disk

rbd1  252:16  0   5G  0 disk

root@ceph-client2:/etc/ceph# mkfs.ext4/dev/rbd1

mke2fs 1.44.1(24-Mar-2018)

Discarding device blocks: done              

Creating filesystem with 1310720 4k blocks and 327680 inodes

Filesystem UUID: 168b99e6-a3d7-4dc6-9c69-76ce8b42f636

Superblock backups stored on blocks:

32768, 98304, 163840, 229376, 294912, 819200, 884736

Allocating group tables: done              

Writing inode tables: done              

Creating journal(16384 blocks): done

Writing superblocks and filesystem accounting information: done

挂在挂设备

root@ceph-client2:/etc/ceph# mkdir/data/data1-p

root@ceph-client2:/etc/ceph# mount/dev/rbd1/data/data1/

验证写入数据:

root@ceph-client2:/etc/ceph# cd/data/data1/

root@ceph-client2:/data/data1# cp/var/log/.-r

root@ceph-client2:/data/data1# ceph df

--- RAW STORAGE---

CLASS   SIZE   AVAIL   USED  RAW USED %RAW USED

hdd   220 GiB  213 GiB  7.4 GiB  7.4 GiB    3.37

TOTAL  220 GiB  213 GiB  7.4 GiB  7.4 GiB    3.37

--- POOLS---

POOL          ID  PGS  STORED  OBJECTS   USED %USED  MAX AVAIL

device_health_metrics  1   1    0 B     0    0 B    0   66 GiB

mypool          2  32  1.2 MiB     1  3.5 MiB    0   66 GiB

.rgw.root        3  32  1.3 KiB     4  48 KiB    0   66 GiB

default.rgw.log     4  32  3.6 KiB    209  408 KiB    0   66 GiB

default.rgw.control   5  32    0 B     8    0 B    0   66 GiB

default.rgw.meta     6   8    0 B     0    0 B    0   66 GiB

myrbd1          7  64  829 MiB    223  2.4 GiB  1.20   66 GiB

cephfs-metadata     8  32  563 KiB    23  1.7 MiB    0   66 GiB

cephfs-data       9  64  455 MiB    129  1.3 GiB  0.66   66 GiB

rbd1-data        10  32  124 MiB    51  373 MiB  0.18   66 GiB

创建普通用户并授权

root@ceph-deploy:/etc/ceph# ceph auth add client.huahualin mon"allow rw"  osd"allow rwx pool=rbd1-data"

added key for client.huahualin

root@ceph-deploy:/etc/ceph# ceph-authtool--create-keyring ceph.client.huahualin.keyring

creating ceph.client.huahualin.keyring

root@ceph-deploy:/etc/ceph# ceph auth  get client.huahualin-o ceph.client.huahualin.keyring

exported keyring for client.huahualin

使用普通用户创建rbd

root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.huahualin.keyring  root@192.168.241.21:/etc/ceph/

普通用户映射镜像

[root@ceph-client1~]# rbd--user huahualin--pool rbd1-data map data-img2

/dev/rbd0

使用普通用户挂载rbd

[root@ceph-client1~]# mkfs.ext4/dev/rbd0

[root@ceph-client1~]# fdisk-l/dev/rbd0

[root@ceph-client1~]# mkdir/data

[root@ceph-client1~]# mount /dev/rbd0/data

[root@ceph-client1~]# df-Th

Filesystem        Type    Size  Used Avail Use% Mounted on

devtmpfs         devtmpfs  475M   0  475M  0%/dev

tmpfs          tmpfs   487M   0  487M  0%/dev/shm

tmpfs          tmpfs   487M  7.7M  479M  2%/run

tmpfs          tmpfs   487M   0  487M  0%/sys/fs/cgroup

/dev/mapper/centos-root xfs     37G  1.7G  36G  5%/

/dev/sda1        xfs    1014M  138M  877M  14%/boot

tmpfs          tmpfs    98M   0  98M  0%/run/user/0

192.168.241.12:6789:/  ceph    67G  456M  67G  1%/ceph_data

/dev/rbd0        ext4    4.8G  20M  4.6G  1%/data

挂载rbd后会自动加载模块libceph.ko

[root@ceph-client1~]# lsmod|grep ceph

ceph          363016  1

libceph        306750  2 rbd,ceph

dns_resolver      13140  1 libceph

libcrc32c        12644  4 xfs,libceph,nf_nat,nf_conntrack

[root@ceph-client1~]# modinfo libceph

filename:   /lib/modules/3.10.0-1160.el7.x86_64/kernel/net/ceph/libceph.ko.xz

license:     GPL

description:   Ceph core library

author:     Patience Warnick<patience@newdream.net>

author:     Yehuda Sadeh<yehuda@hq.newdream.net>

author:     Sage Weil<sage@newdream.net>

retpoline:    Y

rhelversion:   7.9

srcversion:   D4ABB648AE8130ECF90AA3F

depends:     libcrc32c,dns_resolver

intree:     Y

vermagic:    3.10.0-1160.el7.x86_64 SMP mod_unload modversions

signer:     CentOS Linux kernel signing key

sig_key:     E1:FD:B0:E2:A7:E8:61:A1:D1:CA:80:A2:3D:CF:0D:BA:3A:A4:AD:F5

sig_hashalgo:  sha256

如果镜像空间不够用了,我们可以做镜像空间的拉伸,一般不建议减小

查看rdb1-data存储池的镜像

[root@ceph-client1~]# rbd ls-p rbd1-data-l

NAME    SIZE  PARENT  FMT  PROT  LOCK

data-img1  3 GiB       2      

data-img2  5 GiB       2 

比如data-img2空间不够了,需要拉伸,将data-img2扩展到8G

[root@ceph-client1~]# rbd resize--pool rbd1-data--image data-img2--size  8G

Resizing image: 100% complete...done.

可以通过fdisk-l查看镜像空间大小,但是通过df-h就看不到

[root@ceph-client1~]# lsblk

NAME       MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sda        8:0   0  40G  0 disk

├─sda1       8:1   0   1G  0 part/boot

└─sda2       8:2   0  39G  0 part

 ├─centos-root 253:0   0  37G  0 lvm /

 └─centos-swap 253:1   0   2G  0 lvm  [SWAP]

sr0        11:0   1 1024M  0 rom 

rbd0       252:0   0   8G  0 disk/data

[root@ceph-client1~]# fdisk-l/dev/rbd0

Disk/dev/rbd0: 8589 MB, 8589934592 bytes, 16777216 sectors

Units= sectors of 1* 512= 512 bytes

Sector size(logical/physical): 512 bytes/ 512 bytes

I/O size(minimum/optimal): 4194304 bytes/ 4194304 bytes

将挂载设置开机启动

[root@ceph-client1~]# vi/etc/rc.d/rc.local

rbd--user huahualin--pool rbd1-data map data-img2

mount/dev/rbd0/data

[root@ceph-client1~]# chmod a+x /etc/rc.d/rc.local

[root@ceph-client1~]# reboot

centos71如何手动安装ceph

下面随小编一起去看看centos7.1手动安装ceph的方法吧!

1.准备环境

centos7.1主机一台

更新yum源

[root@cgsl ]# yum-y update2.安装密钥把密钥加入你系统的可信密钥列表内,以消除安全告警。

[root@cgsl ]# sudo rpm--import'.获取RPM二进制包你需要在/etc/yum.repos.d/目录下新增一个 Ceph库:创建 ceph.repo。些 Ceph包(如 EPEL)必须优先于标准包,所以你必须确保设置了 priority=2。

[root@cgsl ]# vim/etc/yum.repos.d/ceph.repo[ceph]name=Ceph packages for$basearchbaseurl=$basearchenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=[ceph-noarch]name=Ceph noarch packagesbaseurl=[ceph-source]name=Ceph source packagesbaseurl=[apache2-ceph-noarch]name=Apache noarch packages for Cephbaseurl=[apache2-ceph-source]name=Apache source packages for Cephbaseurl=.下载软件包 Ceph依赖一些第三方库。执行下列命令添加 EPEL库:

[root@cgsl ]# su-c'rpm-Uvh ;[root@cgsl ]# su-c'rpm-Uvh .安装 yum-plugin-priorities。

[root@cgsl ]# yum install yum-plugin-priorities6.确认/etc/yum/pluginconf.d/priorities.conf文件存在。

[root@cgsl ]# vim/etc/yum/pluginconf.d/priorities.conf[main]enabled= 17.安装依赖的的软件包:

[root@cgsl ]# yum install snappy leveldb gdisk python-argparse gperftools-libs8.安装ceph

[root@cgsl ]# yum install ceph

阅读剩余
THE END