软件简介

Ceph是加州大学Santa Cruz分校的Sage Weil(DreamHost的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自2007年毕业之后,Sage开始全职投入到Ceph开 发之中,使其能适用于生产环境。Ceph的主要目标是设计成基于POSIX的没有单点故障的分布式文件系统,使数据能容错和无缝的复制。2010年3 月,Linus Torvalds将Ceph client合并到内 核2.6.34中。IBM开发者园地的一篇文章 探讨了Ceph的架构,它的容错实现和简化海量数据管理的功能。

Ceph 中国社区 —— http://www.ceph.org.cn

Ceph 中文文档:http://docs.ceph.org.cn/

Ceph 的 4 个模块:

Ceph 生态系统:

Block diagram showing a simplified layered view of the Ceph ecosystem, including the server, metadata servers, and object storage ddaemon

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (19)

加载中
官方文档链接失效了。
02/01 11:59
回复
举报
现在在高级特性上还有很多问题需要解决,但基本操作已经没什么问题了
2020/05/23 18:20
回复
举报
打分: 推荐
用ceph 其实多数靠万兆网 c存储靠ssd加速、sas为基础。。。。。至少我这边私有云建设在ceph上主要就是这些
2017/04/04 03:31
回复
举报
打分: 还行
Be careful @ukernel I am working on it. Your suggestion could work, but it will cause CDir::commit crashing at assert(want > committed_version); I am still looking at this crashing. [ceph/ceph] mds: don't mark dirty rstat on non-auth inode(#16253)
2017/07/14 10:10
回复
举报
好东西~ Ceph
2013/05/13 16:18
回复
举报
Ceph 这个单词怎么读呢?
2014/03/31 13:05
回复
举报
编译 Ceph 真的要好长时间啊
2014/04/03 16:51
回复
举报
我们内部对 Ceph 的性能测试,读写居然都优于原生磁盘???
2014/05/01 07:51
回复
举报
Ceph 的 MDS 不太靠谱?
2014/09/10 17:55
回复
举报
Ceph 坑惨了!
2014/11/20 13:18
回复
举报
红薯,后来选了哪个分布式文件存储?
2020/06/16 17:42
回复
举报
更多评论
发表了资讯
05/28 07:15

Ceph 15.2.13 Octopus 发布,可扩展的分布式存储系统

Ceph 15.2.13 正式发布,这是 Octopus 系列的第 13 个 backport 版本。 值得关注的变化: RADOS:能够在监视器中动态调整修剪率,并修复了其他的一些错误。 更新日志: blk/kernel:修复 io_uring got (4) 中断的系统调用; ceph.spec.in:在 IBM Power 和 Z 上启用 tcmalloc; cephadm ls 在 SUSE 下游的 alertmanager 容器中被破坏; cephadm:允许在所有 <_devices> drivegroup 部分使用路径; cephadm:在 systemd 单元中添...

0
3
发表于开发技能专区
2020/11/03 11:10

ceph 14.2.13 Nautilus 发布,修复崩溃 BUG

没投过票?千万别说你来过 OSC https://www.oschina.net/project/top_cn_2020 ceph v14.2.13 Nautilus 发布了。这是 Nautilus 系列中的第 13 个 backport 版本。此版本修复了 v14.2.12 中引入的一些问题,并修复了一些 ceph-volume 和 RGW 的问题。官方建议用户及时更新到此版本。 此次更新内容包括: 修复了在 ceph.conf 的 mon_host param 中使用 dns 名称而不是 ip 地址来引用 ceph-mon 主机的集群导致崩溃的问题。 (issue#4...

0
0
发表于服务端专区
2020/07/05 09:23

openEuler 开源社区成立 Ceph 特别兴趣小组

近日,openEuler 开源社区(以下简称“openEuler 社区”)正式成立了 Ceph SIG(Special Interest Group,特别兴趣小组),以完善 openEuler 操作系统在分布式存储场景的适配。openEuler 社区参与者和用户可获得由专业存储团队维护的稳定的 Ceph 版本构建分布式存储系统,并通过 openEuler 社区获得技术支持。 Ceph 是一个具备高性能、可靠性和可扩展性的分布式存储解决方案,可以同时提供块、文件和对象三种服务。目前,Ceph ...

3
3
发表于运维专区
2019/09/05 07:20

Ceph 14.2.3 Nautilus 发布,bug 修复版本

Ceph 14.2.3 Nautilus 发布了。Ceph 是一个可扩展的分布式存储系统,性能卓越、安全可靠,其面向对象、块与文件存储。 这是 Ceph Nautilus 发布系列的第三个 bug 修复版本,修复了一些安全问题。 显著更新包含: CVE-2019-10222-修复了拒绝服务漏洞,其中未经身份验证的 Ceph 对象网关客户端可能会触发未捕获的异常崩溃。 基于 Nautilus 的 librbd 客户端现在可以在 Jewel 集群上打开镜像。 RGW num_rados_handles 已被删除。 ...

1
2
发表于DevOps专区
2019/06/05 07:45

Ceph v13.2.6 Mimic 发布,从 Python 3.4 切换到 3.6

Ceph v13.2.6 Mimic 发布了。Ceph 是一个可扩展的分布式存储系统,性能卓越、安全可靠,其面向对象、块与文件存储。Ceph 是加州大学 Santa Cruz 分校的 Sage Weil(DreamHost 的联合创始人)专为博士论文设计的自由软件分布式文件系统。 此版本显著变更: Ceph v13.2.6 现在为 Python 3.6 而不是 Python 3.4 打包 Python 绑定,因为 EPEL7 最近从 Python 3.4 切换到 Python 3.6 作为原生 Python 3。 详情查看: https://ceph.c...

1
2
发表于DevOps专区
2019/05/01 07:16

Ceph 14.2.1 发布,可扩展分布式存储系统

Ceph 14.2.1 发布了,Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠,面向对象、块与文件存储。Ceph 是加州大学 Santa Cruz 分校的 Sage Weil(DreamHost 的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。 该版本是 Ceph Nautilus 系列的第一个错误修复版本,官方建议所有 nautilus 用户升级到此版本。现在可以通过 Mimic 或 Luminous 升级。 新版本值得注意的变化如下: mon_crush_min_required_ver...

1
9
发表于DevOps专区
2019/02/02 06:52

Ceph 12.2.11 发布,可扩展分布式存储系统

Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠,面向对象、块与文件存储。Ceph 是加州大学 Santa Cruz 分校的 Sage Weil(DreamHost 的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。 该版本主要是进行了 bug 的修复,更新亮点如下: 修复了 v12.2.9 中的 pg log 的硬限制错误(https://tracker.ceph.com/issues/36686)。 具体做法是引入了一个名为 pglog_hardlimit 的标志(默认是关闭状态),这个...

0
5
发表于服务端专区
2019/01/08 07:30

Ceph 13.2.4 Mimic 发布,13.2.x 的第四个长期支持版本

作为第四个 Mimic v13.2.x 的长期支持版本,Ceph 13.2.4 Mimic 发布了。其中包含 13.2.3 的两项安全程序更新。建议所有用户升级。 Ceph 13.2.4 Mimic 更新内容如下 CVE-2018-16846: rgw: enforce bounds on max-keys/max-uploads/max-parts (issue#35994) A new param rgw max listing results controls the upper bound max-keys on Bucket listing operations (ListBucket, ListBucketVersions, ListBucketMultipartUploads(m...

0
2
发表于软件架构专区
2018/11/13 08:09

Ceph 基金会正式成立!接受 Linux 基金会的管理

2018年11月12日,北京时间16:00,Linux基金会在德国柏林“Ceph Day”上正式宣布成立“Ceph基金会”来支持Ceph开源项目。 Ceph基金会接受Linux基金会的管理,它的成立将为Ceph社区的合作和成长提供一个中立的机构。高级会员和一般会员每年缴纳会员费,准会员是教育机构或政府组织,并被邀请免费加入。 理事会由所有高级成员,普通成员代表,准成员代表和Ceph领导团队(技术治理机构)代表组成。董事会负责: 建立并批准用于支持C...

5
5
发表于开发技能专区
2018/09/05 07:38

Ceph Luminous v12.2.8 发布,改进组件稳定性

Ceph Luminous v12.2.8 发布了。此版本包含一系列错误修正和 ceph 的所有组件的稳定性改进。 对于安装了破坏的 12.2.6 版本的集群,12.2.7 修复了回归并引入了一个变通方法选项 `osd distrust data digest = true`,但 12.2.7 集群仍然生成健康警告,如: [ERR] 11.288 shard 207: soid   11:1155c332:::rbd_data.207dce238e1f29.0000000000000527:head data_digest 0xc8997a5b != data_digest 0x2ca15853 12.2.8 改...

0
2
发表于运维专区
2018/07/28 08:02

Ceph 13.2.1 Mimic 发布,13.2.x 的首个 bug 修复版本

Ceph 13.2.1 Mimic 已发布,这是 Mimic v13.2.x 长期稳定版本系列的第一个 bug 修复版本。 此版本包含 Ceph 所有组件的许多修复程序,以及一些安全修复程序。建议所有用户升级。 值得关注的变更,主要是安全方面的修复: CVE 2018-1128: auth: cephx authorizer subject to replay attack (issue#24836, Sage Weil) CVE 2018-1129: auth: cephx signature check is weak (issue#24837, Sage Weil) CVE 2018-10861: mon: auth ch...

0
1
2018/07/12 07:29

Ceph 10.2.11 和 12.2.6 发布,可扩展分布式存储系统

Ceph 10.2.11 和 12.2.6 已发布。更新内容如下: 10.2.11 CVE 2018-1128: auth: cephx authorizer subject to replay attack (issue#24836, Sage Weil) CVE 2018-1129: auth: cephx signature check is weak (issue#24837, Sage Weil) CVE 2018-10861: mon: auth checks not correct for pool ops (issue#24838, Jason Dillaman) The RBD C API’s rbd_discard method and the C++ API’s Image::discard method now enforce a...

3
2
发表于开发技能专区
2018/06/01 07:15

Ceph 13.2.0 发布,可扩展分布式存储系统

Ceph 13.2.0 发布了,目前暂时没有发现该版本相关更新细节,您可以查看发布公告或项目主页了解具体信息。 Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠,面向对象、块与文件存储。Ceph 是加州大学 Santa Cruz 分校的 Sage Weil(DreamHost 的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自 2007 年毕业之后,Sage 开始全职投入到 Ceph 开发之中,使其能适用于生产环境。Ceph 的主要目标是设计成基...

1
6
发表于开发技能专区
2018/05/27 07:26

Ceph 14.0.0 发布,分布式对象、块与文件存储平台

Ceph 14.0.0 发布了,目前暂时没有发现 14.0.0 版本相关更新细节,您可以查看发布公告或项目主页了解具体信息。 Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠,面向对象、块与文件存储。Ceph 是加州大学 Santa Cruz 分校的 Sage Weil(DreamHost 的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自 2007 年毕业之后,Sage 开始全职投入到 Ceph 开发之中,使其能适用于生产环境。Ceph 的主要目标是设...

2
3
发表于开发技能专区
2018/05/12 07:41

Ceph 13.1.0 Mimic RC1 发布,可扩展分布式存储系统

Ceph 13.1.0 Mimic RC1 发布了。这是 mimic 的第一个发布候选版本,是下一个长期版本,但还不是最终的产品发布版本。主要更新内容如下: Core Thepg force-recoverycommand will not work for erasure-coded PGs when a Luminous monitor is running along with a Mimic OSD. Please use the recommended upgrade order of monitors before OSDs to avoid this issue. The sample crush-location-hook script has been removed...

1
3
发表于软件架构专区
2018/04/25 10:33

Ceph 12.2.5 发布,可扩展分布式存储系统

Ceph 12.2.5 已发布,这是 12.2.x LTS 系列的第五个修补版本,包含一系列跨组件的 bug 修复,建议所有 12.2.x 系列的用户更新。 主要亮点: MGR 包含在 ceph-mon 包中的 ceph-rest-api 命令行工具已被 MGR“restful” 模块弃用,并被标记为不推荐使用。 CephFS 升级 MDS 集群到 12.2.3+ 后将导致升级后的 MDS 一旦联机(即使是待机状态),因功能不兼容,会导致所有活动的 MDS 闪退。管理员可忽略错误消息并继续升级/重启,或遵...

1
3
发表于服务端专区
2018/02/21 05:57

Ceph 12.2.3 发布,可扩展分布式存储系统

Ceph 12.2.3 已发布,Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠。 更新内容请关注发布主页。 下载地址: Source code (zip) Source code (tar.gz)

0
5
发表于服务端专区
2018/02/02 07:26

Ceph v13.0.1 发布,分布式文件系统

Ceph v13.0.1 发布了。Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠。 该版本暂未功更新内容。相关内容请参阅提交记录,或关注发布主页。 下载地址: Source code (zip) Source code (tar.gz)

8
9
发表了资讯
2017/10/09 08:04

Ceph v10.2.10 Jewel 发布,分布式文件系统

Ceph 10.2.10 发布了,该版本包含重要的 Bug 修复,建议所有 10.2.x 的用户升级。 值得关注的改进包括: build/ops: Add fix subcommand to ceph-disk, fix SELinux denials, and speed up upgrade from non-SELinux enabled ceph to an SELinux enabled one (issue#20077, issue#20184, issue#19545, pr#14346, Boris Ranto) build/ops: deb: Fix logrotate packaging (issue#19938, pr#15428, Nathan Cutler) build/ops: ext...

3
7
发表了资讯
2017/08/30 07:44

Ceph 12.2.0 发布,可扩展分布式存储系统

Ceph 12.2.0 已发布,这是 v12.2.x(命名为 Luminous) 长期稳定版的首个版本。里面包括自Kraken(v11.2.z)和 Jewel(v10.2.z) 以来发生的一些重大变化。 详情请阅读发行说明 Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠。 下载地址: http://ceph.com/get/

3
2
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表于云计算专区
2014/08/27 16:08

Why Ceph and how to use Ceph?

为什么需要关注Ceph 在目前开源世界里多样的存储项目中,不同的项目都有侧重点,而它们最终都是要为企业的IT基础设施服务。那么企业IT基础设施经理们到底需要怎么样的存储,它们的需求得到满足了吗?作者尝试根据对企业级存储产品的调研归纳出如下图。 图一 从上图我们可以了解到存储接口需求、扩展、运维和成本构成了企业级存储产品的四大中心。几乎所有的存储产品包括硬件(存储一体机,SAN)和软件都致力于在这个方面强调自己的...

1
3
发表了博客
2014/05/13 14:41

Why Ceph and how to use Ceph?

Contents 为什么需要关注Ceph 在目前开源世界里多样的存储项目中,不同的项目都有侧重点,而它们最终都是要为企业的IT基础设施服务。那么企业IT基础设施经理们到底需要怎么样的存储,它们的需求得到满足了吗?作者尝试根据对企业级存储产品的调研归纳出如下图。 图一 从上图我们可以了解到存储接口需求、扩展、运维和成本构成了企业级存储产品的四大中心。几乎所有的存储产品包括硬件(存储一体机,SAN)和软件都致力于在这个方面...

0
2
发表于云计算专区
2016/03/29 09:37

Why Ceph and how to use Ceph?

Why Ceph and how to use Ceph? 在 2013 年 07 月 15 日 上公布 作者为 麦子迈 文章分类 Ceph Contents [hide] 为什么需要关注Ceph Ceph的架构 为什么底层是对象存储模型? RADOS的组件有哪些? RADOS分发策略–CRUSH算法 Ceph的使用场景 Librados RadosGW RBD CephFS Ceph的其他 参考资料 为什么需要关注Ceph 在目前开源世界里多样的存储项目中,不同的项目都有侧重点,而它们最终都是要为企业的IT基础设施服务。那么企业IT基础...

0
0
发表于运维专区
2020/06/25 21:59

ceph-deploy部署ceph

环境说明 节点规划: 主机名 public-ip cluster-ip 角色 磁盘 ceph01 192.168.11.134 10.10.10.2 admin-node,mon,mgr,osd 系统盘: sda; 数据盘:sdb,sdc,sdd ceph02 192.168.11.135 10.10.10.3 mon, mgr, osd 系统盘: sda; 数据盘:sdb,sdc,sdd ceph03 192.168.11.136 10.10.10.4 mon, mgr, osd 系统盘: sda; 数据盘:sdb,sdc,sdd 节点角色: admin-node:ceph集群部署节点,负责集群整体部署,也可以复用cpeh集群中的节点作...

0
0
发表了博客
2018/06/27 09:36

ceph

Ceph 布署 准备工作 安装 在所有机器上安装 ceph 软件包 配置 启动 mon 服务 初始化 osd 目录 启动 osd 服务 创建 pool 读写Obj 块设备操作 CephFS 增加 OSD 节点 集群重启 升级 常用操作 参考 该布署基于 Jewel(2016年)版本的 ceph mimic(2018年)的 ceph 默认 osd 使用 bluestore,在创建 OSD 的时候步骤有些不一样,而且该版本自带 UI 控制台,是以前版本所没有的。 准备工作 需要大于等于3台机器,每台机器大于等于2块数...

0
0
发表了博客
2018/08/05 11:51

ceph

ceph ceph是一个分布式存储系统 Ceph提供了三种存储类型:块存储、文件存储和对象存储,本文主要介绍对象存储的RGW基本原理和应用场景。 CRUSH算法 一般的分布式系统都会采用一个或者多个中心服务用来控制数据的分布,这种机制使得每次IO操作都会先去一个地方查询数据在集群中的元数据信息。当集群的规模变大或者系统的workload比较大时,这些中心服务器必然会成为性能上的瓶颈。Ceph摒弃了这种做法,而是通过引入CRUSH算法,将...

0
0
发表于服务端专区
2020/05/18 11:12

ceph

ceph 配置文件.

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表了问答
2015/09/17 19:18

OpenStack Nova:在一个 Hypervisor 上配置多个 Ceph 后端

使用多个后端配置一个 Nova hypervisor,用来存储实例的根短暂磁盘。 I. 基本原理 这里最主要的是可以充分使用你 hypervisors 上的资源。目前,Nova 不支持多个 image_type后端,也就是说不同的根短暂磁盘依赖于实例的类型,而且只能是单个计算节点。这有点类似 Cinder 多个后端支持,可以分配类型。当我不想为每个后端计算节点,就必须投入到查找适合的解决方案。这个解决方案是可行的,但并不是常规的。但是还是希望对大家 有...

1
0
发表了问答
2020/07/31 09:45

网易分布式存储项目 Curve 专访:凭什么比 Ceph 提升 84%?

大数据时代,分布式存储凭借其较低的拥有成本、灵活的扩展能力、线性增长的性能、统一的资源池管理等诸多先天优势,逐步替代了传统的网络存储,成为越来越多的互联网企业用于有效处理海量业务数据的利器。 在开源领域,目前比较主流的开源分布式存储系统无疑是 Linux 基金会旗下的 Ceph。而近日,网易宣布开源一款名为 Curve 的分布式存储系统,从官方公布的性能测试结果来看,Curve 的性能相比 Ceph 提升了 84% ,引起了国内外...

6
24
发表于AI & 大数据专区
2020/01/16 11:17

【请教】新手部署Ceph问题“创建monitor”报错

环境 OS版本: [root@ceph-node2 ~]# uname -a Linux ceph-node2 3.10.0-1062.9.1.el7.x86_64 #1 SMP Fri Dec 6 15:49:49 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux ceph版本: [root@ceph-node2 ~]# ceph -v ceph version 12.2.12 (1436006594665279fe734b4c15d7e08c13ebd777) luminous (stable) hosts [root@ceph-node1 my-cluster]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhos...

3
0
发表于软件架构专区
2018/11/10 17:25

请问,kubernetes使用storageclass动态创建ceph rbd后,如何扩容pvc?

已经创建了storageclass和pvc,provisioner使用的是ceph.com/rbd,pvc已经是bound状态。使用kubectl edit pvc对pvc进行扩容,报错: Error expanding volume "demo/k8s-pvc" of plugin kubernetes.io/rbd : rbd info failed, error: can not get image size info kubernetes-dynamic-pvc-1331e24c-e4c7-11e8-bf79-0242ac110003: rbd image 'kubernetes-dynamic-pvc-1331e24c-e4c7-11e8-bf79-0242ac110003' 求大神解答,谢谢...

1
0
发表了问答
2014/04/30 16:40

Ceph启动失败:ERROR: unable to open OSD superblock

错误信息如下,而且/data/osd.00/下也确实没有自动生成superblock文件 # /etc/init.d/ceph start osd.00 === osd.00 === Mounting Btrfs on ceph00:/data/osd.00 Scanning for Btrfs filesystems create-or-move updated item name 'osd.0' weight 0.02 at location {host=ceph00,root=default} to crush map Starting Ceph osd.00 on ceph00... 2014-04-30 16:32:39.958530 7f8904e9a800 -1 ** ERROR: unable to open OSD sup...

10
0
发表了问答
2017/06/02 08:50

科大讯飞 招聘 云计算架构师 云存储架构师

对科大讯飞云计算团队感兴趣的朋友,欢迎发送简历至 xiapu@iflytek.com 长期招聘,请随时邮件联系。 地点合肥。 细节在收到简历后会详细沟通的。

14
0
发表了问答
2017/01/08 21:28

Ceph可以配置单副本吗

想采用Ceph搭建对象存储,用于小文件保存,几百TB的级别。但是大部分文件几乎不会被访问,有点儿像一个归档存储。如果使用两副本、三副本,硬盘数量太多了。如果在底层配置RAID组,把VD给Ceph,只做单副本, 这个方案可行吗? 或者有其他更好的建议(比Ceph更适合的方案)?

2
0
发表了问答
2015/08/05 21:11

使用flashcache 加速ceph osd 遇到的性能问题

@壬癸甲乙 你好,想跟你请教个问题: HI ,请问您是怎么在CEPH环境下使用flashcache加速OSD的?是每个OSD盘使用一个SSD分区去加速吗?我在试验中发现,单个加速的盘测试效果很好。但是做成集群,映射出RBD设备,使用fio测试 性能很差,和没用cache一样。 我使用flashcache加速过的盘做OSD,没有将journal单独分开。 请问,您有遇见过吗?

6
0
发表了问答
2016/04/06 10:04

ceph对象存储osd分配不均匀

200TB的集群,导入100来个T的数据就有osd full(95%)是什么情况? 看osd状况,最大92%,最少58%,大部分在60-70%左右。CRUSH算法下为什么会分布不均呢? pg,pgp数量都是调过的,有没有大神求解释。

5
0
发表了问答
2016/10/29 17:21

ceph 里面osd节点down?

如上图 请问为何一台主机里面节点3会down 而节点4没down,还有为何节点都会down了?

1
0
发表了问答
2017/06/03 12:27

ceph在激活OSD的时候提示没有权限是怎么回事?

我是用KVM虚拟机,系统是: Description: Ubuntu 16.04.2 LTS Release: 16.04 Codename: xenial 我是按着官方文档一步一步部署的:http://docs.ceph.com/docs/master/start/quick-ceph-deploy/ 之前都没提示错误,直到最后激活OSD的时候提示没有权限。 ceph-deploy osd activate os0:/var/local/osd0 osd1:/var/local/osd1 部分日志如下: [2017-06-03 11:07:16,805][osd0][WARNING] Traceback (most recent call last): [2017-...

1
0
发表了问答
2017/02/09 18:05

ARM作Ceph分布式存储的案例?

@红薯 你好,想跟你请教个问题:看到您提到用ARM作Ceph分布式存储,是否有demo或试商用案例?(如有,请问芯片的选型)

1
0
发表了问答
2016/12/29 15:27

求助,ceph如何配置mds服务的并发状态

如何配置在ceph集群中同时运行多个mds服务,不是主备状态!

2
0
发表了问答
2016/08/10 16:50

rgw高可用有什么解决方案啊

@秦牧羊 你好,想跟你请教个问题: 场景:一个ceph集群N个节点,每个节点上部署有rgw。 问题:如何让这些rgw组成一个高可用的集群呢?HAproxy? 还望赐教

2
0
发表了问答
2014/01/17 10:53

请问ceph Client有windows下的应用吗

请问我有个windows下的服务,能将文件读、写到ceph文件系统中吗?

3
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
19 评论
542 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部