ceph安装配置完成,pgs degraded; pgs stuck unclean

AndrewSun 发布于 2015/01/08 08:54
阅读 11K+
收藏 0

[root@ceph01 ~]# ceph -s
    cluster 950ff068-1065-4667-977e-c75b6a2ce1dd
     health HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean
     monmap e1: 1 mons at {ceph01=10.1.8.235:6789/0}, election epoch 1, quorum 0 ceph01
     osdmap e15: 2 osds: 2 up, 2 in
      pgmap v24: 192 pgs, 3 pools, 0 bytes data, 0 objects
            12291 MB used, 17560 MB / 31449 MB avail
                 192 active+degraded

环境如下:

centos6.4  安装ceph emperor版本

ceph01 mon

ceph02 osd

ceph03 osd

ceph04 ceph-admin

安装部署按照官方文档操作,是osd物理节点和pg数量不匹配的原因吗?是否需要修改ceph.conf文件?

配置文件如下:

[root@ceph04 my-cluster]# cat ceph.conf 
[global]
auth_service_required = cephx
filestore_xattr_use_omap = true
auth_client_required = cephx
auth_cluster_required = cephx
mon_host = 10.1.8.235
mon_initial_members = ceph01
fsid = 950ff068-1065-4667-977e-c75b6a2ce1dd

希望知道故障原因的回复下,不胜感激!

加载中
1
Yashin
Yashin

配置文件增加下面两行,默认的为 3,2, osd数要>=备份数.或者可以增加一个osd试试

osd pool default size = 2

osd pool default min size =1


AndrewSun
AndrewSun
的确如此,增加一个OSD节点即可,谢谢了!
0
shadowalker911
shadowalker911

你好,我添加了一个osd,还是如此。

       HEALTH_WARN 71 pgs degraded;192pgs stuck unclean;recovery 27/60 objects degraded(45.000%)

,请问,新添加的osd必须在一台新的机器上吗?我目前3个osd其中有两个在同一物理机器上。
0-1
0-1
回复 @guyson : ceph osd tree中查看crush
0-1
0-1
是的,一个节点一个副本,[osd.id]中的host设置为不同(虚拟host)即可被视为不同主机
0
柠檬lemon

你好,我是单节点,用的ceph-deploy配置的,添加了三个osd后,还是出现这个问题

health HEALTH_WARN 33 pgs degraded; 128 pgs stuck unclean 33 pgs undersized

replicated size 2 min_size 1

请问如何处理,谢谢

返回顶部
顶部