Ceph分布式存储系统(2)

RADOSGW(RADOS Gmeway),又叫Ceph对象存储网关,是一个底层基于librados向客户端提供RESTful接口的对象存储接口。目前Ceph支持两种API接口:

(1)   S3.compatibleS3兼容的接口,提供与Amazon S3大部分RESTfuI API接口兼容的API接口。

(2)   Swift.compatible:提供与OpenStack Swift大部分接口兼容的API接口。Ceph的对象存储使用网关守护进程(radosgw, radosgw结构图如图所示:

wKiom1cGM2rgB9Q4AAAc4IX9J0w621.png

在实际的Ceph集群中,radosgw是一个监听RESTfulAPI访问的后台进程,s3 APISwift APl使用同一个命名空间,即共享同一个命名空间;所以,你可以用其中一个接口写入数据而又用另外一个接口读出数据。

1.2.2. RBD

一个数据块是一个字节序列(例如,一个512字节的数据块)。基于数据块存储接口最常见的介质,如硬盘,光盘,软盘,甚至是传统的9磁道的磁带的方式来存储数据。块设备接口的普及使得虚拟块设备成为构建像Ceph海量数据存储系统理想选择。

在一个Ceph的集群中, Ceph的块设备支持自动精简配置,调整大小和存储数据。Ceph的块设备可以充分利用 RADOS功能,实现如快照,复制和数据一致性。CephRADOS块设备(即RBD)通过RADOS协议与内核模块或librbd的库进行交互。。RBD的结构如图所示:

wKioL1cGNCTR76miAAAXZSIqhGQ252.png

Ceph中,如果客户端要想使用存储集群服务提供的块存储,必须要先安装相应的Linux内核模块Kernel Module,或者使用librbd编程接口。

1.2.3. Ceph FS

Ceph文件系统(CEPH FS)是一个POSIX兼容的文件系统,使用Ceph的存储集群来存储其数据。Ceph的文件系统使用相同的Ceph的存储集群系统比如Ceph的块设备,CephS3SwiftAPI对象存储,或本机绑定(librados)。CEPH FS的结构图如下所示:

wKiom1cGM43jDfU_AAArhwG4SoY225.png

CEPH FS是一个符合POSIX标准的文件系统接口,同时支持用户空间文件系统FUSE。在CEPH FS中,与对象存储接口与块存储接口最大的不同就是在集群中增加了文件系统元数据服务节点MDS(Ceph Metadata Server)MDS也支持多台机器分布式的部署,以实现系统的高可用性。文件系统客户端需要安装对应的Linux内核模块Ceph FS KernelObject或者Ceph FS FUSE组件。

 

二、Ceph数据存储 2.1. 数据存储过程

Ceph存储集群从客户端接收文件,每个文件都会被客户端切分成一个或多个对象,然后将这些对象进行分组,再根据一定的策略存储到集群的OSD节点中,其存储过程如图所示:

wKioL1cGNE_DOwCCAAAkiLF9tNs725.png

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/8d8809a81e4821d92d8b9e8e1cf0c2e4.html