ceph 集群部署

266 阅读2分钟

github.com/ceph/ceph

docs.ceph.org.cn/install/man… #简要部署过程

部署方式介绍

安装方式

ceph-deploy

是一个 ceph 官方维护的基于 ceph-deploy 命令行部署 ceph 集群的工具。

基于 ssh 执行可以 sudo 权限的 shell 命令以及一些 python 脚本 实现 ceph 集群的部署和管理维护。

Ceph-deploy 只用于部署和管理 ceph 集群,客户端需要访问 ceph,需要部署客户端工具

软件版本选择

docs.ceph.com/en/reef/rel…

服务器准备

机器规划 & 操作系统

Ceph 分布式存储集群规划原则/目标

  • 较低的 TCO (Total Cost of Ownership,总拥有成本)
    • 使用廉价的 X86 服务器。
  • 较高的 IOPS (Input/Output Operations Per Second,每秒可完成的读写次数)
    • 使用 SSD/PCI-E SSD/NVMe 硬盘提高存储集群数据以提高读写性能。
  • 较大的存储空间
    • 使用单块 2T/4T 或更大容量的磁盘,提高单台服务器的总空间,节省服务器总数,降低机柜使用量。
  • 较快的网络吞吐
    • 使用 10G、40G、100G 或更快的光纤网络
  • 更好的数据冗余
    • 数据可以以三副本机制分别保存到不同的主机,宕机 2 台也不会丢失数据。

服务器硬件选型

docs.ceph.org.cn/start/hardw… #官方硬件推荐

monitor、mgr、radosgw

  • 4C 8G~16G(小型,专用虚拟机)
  • 8C 16G~32G(中型,专用虚拟机)
  • 16C-32C 32G~64G(大型/超大型,专用物理机)

MDS(相对配置更高一个等级)

  • 8C 8G~16G(小型,专用虚拟机)
  • 16C 16G~32G(中型,专用虚拟机)
  • 32C-64C 64G~96G(大型、超大型,物理机)

OSD 节点

CPU

每个 OSD 进程至少有一个 CPU 核心或以上,

比如服务器一共 2 颗 CPU 每个 12 核心 24线程,那么服务器总计有 48 核心 CPU,这样最多最多最多可以放 48 块磁盘

要求:

(物理 CPU 数量*每颗 CPU 核心)/OSD 磁盘数量 >= 1

也就是 每 个OSD占用的CPU 核心 >= 1 核心 CPU

OSD 节点内存

OSD 硬盘空间在 2T 或以内的时候每个硬盘 2G 内存,4T 的空间每个 OSD 磁盘 4G 内存, 即大约每 1T 的磁盘空间(最少)分配 1G 的内存空间做数据读写缓存。

要求: (总内存/OSD 磁盘总空间)= X > 1G 内存

比如: (总内存 128G/36T 磁盘总空间 )= 3G/每 T > 1G 内存

ceph 集群规划图

image.png

部署环境

172.31.6.106/192.168.6.106
172.31.6.107/192.168.6.107
172.31.6.108/192.168.6.108
172.31.6.109/192.168.6.109