ceph 集群 有台机器的节点老是会被踢出来是什么原因

我有5台机器,每台机器上面有24个6T的磁盘,组的集群,发现node3这个节点的所有osd磁盘无法加入到集群上面去,都会被自动踢出来,是什么情况?ceph 是否要求每台机器的osd节点要一样,磁盘大小是否要求一样呢?

[root@node5 yum.repos.d]# ceph -s
** cluster f24adc8b-52ca-4ad2-a51b-db49459e4925
health HEALTH_OK
monmap e1: 1 mons at {node5=10.10.10.5:6789/0}
election epoch 3, quorum 0 node5
osdmap e1549: 120 osds: 96 up, 96 in
flags sortbitwise,require_jewel_osds
pgmap v6184: 1152 pgs, 1 pools, 0 bytes data, 1 objects
15536 MB used, 508 TB / 508 TB avail
1152 active+clean**

35 5.45119 osd.35 up 1.00000 1.00000
38 5.45119 osd.38 up 1.00000 1.00000
** -3 130.82849 host node3**

17 5.45119 osd.17 down 0 1.00000
21 5.45119 osd.21 down 0 1.00000
25 5.45119 osd.25 down 0 1.00000
28 5.45119 osd.28 down 0 1.00000
32 5.45119 osd.32 down 0 1.00000
34 5.45119 osd.34 down 0 1.00000
36 5.45119 osd.36 down 0 1.00000
40 5.45119 osd.40 down 0 1.00000
42 5.45119 osd.42 down 0 1.00000
45 5.45119 osd.45 down 0 1.00000
47 5.45119 osd.47 down 0 1.00000
48 5.45119 osd.48 down 0 1.00000
108 5.45119 osd.108 down 0 1.00000
109 5.45119 osd.109 down 0 1.00000
110 5.45119 osd.110 down 0 1.00000
111 5.45119 osd.111 down 0 1.00000
112 5.45119 osd.112 down 0 1.00000
113 5.45119 osd.113 down 0 1.00000
114 5.45119 osd.114 down 0 1.00000
115 5.45119 osd.115 down 0 1.00000
116 5.45119 osd.116 down 0 1.00000
117 5.45119 osd.117 down 0 1.00000
118 5.45119 osd.118 down 0 1.00000
119 5.45119 osd.119 down 0 1.00000
-4 130.82849 host node2

19 5.45119 osd.19 up 1.00000 1.00000
24 5.45119 osd.24 up 1.00000 1.00000
30 5.45119 osd.30 up 1.00000 1.00000
39 5.45119 osd.39 up 1.00000 1.00000
2018-09-27 16:01 添加评论 分享
已邀请:
0

hudsonzuo - 前行必有风景

赞同来自:

先看看log再说吧

要回复问题请先登录注册

退出全屏模式 全屏模式 回复