Ceph
Ceph
目前,
IOPS 密集型:这种类型的场景通常是支撑在虚拟化/ 私有云上运行数据库。如在OpenStack 上运行Mysql 、MariaDB 或PostgreSQL 等。IOPS 密集型场景对磁盘的性能要求较高,最好使用全闪架构。如果使用混合架构,机械盘转速需要1.2 万,并使用高速盘存储频繁写操作的日志或元数据。- 高吞吐量型:这种类型的应用场景主要是大块数据传输,如图像、视频、音频文件等。高吞吐量型磁盘的要求没有
IOPS 密集型高,但需要配置较高的网络。同时也需要配置SSD 来处理写日志。 - 高容量型:这种场景主要用于存储归档、离线数据。它对磁盘的容量要求高,对性能无过多要求。写日志也可以存储在
HDD 上。
Ceph 架构
-
OSD:
OSD 是Ceph 存储数据的空间,通常一个HDD 是一个OSD ,并且不建议做RAID (独立硬盘冗余阵列) 。每个OSD 有一个OSD 守护进程。Ceph OSD 利用Ceph 节点的CPU 、内存和网络资源来执行数据复制、纠删码、数据恢复、监控和报告功能。 -
Monitor:
Monitor 负责维护Ceph 存储集群,主要是集群中数据的主副本以及存储集群的当前状态。注意,多个Monitor 的信息需要强一致性,因此要求Monitor 节点之间的系统时间是一致的,并且网络延时要低。 -
Manager:
Manager 是Ceph 12.8 中的新功能,它维护放置组(PG) 、进程元数据和主机元数据的详细信息。这部分功能此前由Monitor 完成(其目的是提高Ceph 集群的性能) 。Manager 可以处理只读Ceph CLI 查询请求,例如放置组统计信息等。此外,Manager 还提供RESTful 监控API 。
如果要使用
- 元数据服务器(Metadata Server,简称
MDS ) :每个MDS 节点运行MDS 守护程序(Ceph-mds)管理与Ceph 文件系统(CephFS)上存储的文件相关的元数据。 - 对象网关:
Ceph 对象网关节点上运行Ceph RADOS 网关守护程序(Ceph-radosgw) 。它是一个构建在librados 之上的对象存储接口,也是一个为应用程序提供Ceph 存储集群的RESTful 网关。Ceph 对象网关支持两个接口:S3 和OpenStack Swift 。