ceph osd pool ls detail命令没有在“H3C分布式存储系统_命令参考-6W105-整本手册”里搜索到,这个命令在哪个手册里
你计算的 4096 是针对单个存储池的推荐 PG 数,而 ceph -s 显示的 8832 是你当前集群中所有 15 个存储池的 PG 总数。
你的计算思路是正确的,使用了 Ceph 官方推荐的公式 (OSD_num * 100) / pool_size,并且正确地考虑了纠删码池的 pool_size 为 k+m = 4+2 = 6,得到了 220 * 100 / 6 ≈ 3667,然后向上取整到 4096。这个计算没有问题。
问题在于,你之前可能将这个公式的结果直接对应到了集群总的 PG 数量上。实际上,这个公式通常是为集群中数据量最大、最重要的那个存储池估算 PG 数量的,而非整个集群的总数。一个集群总的 PG 数是其所有存储池 PG 数的总和。
从你的截图来看,集群中存在 15 个存储池。其中,有三个系列的存储池配置了相似的 PG 数量,它们的 PG 加起来,总和就很容易达到 8832。
你实际看到的 8832 低于这个粗略估算,很可能是每个系列中的“data”池 PG 数较大(比如 4096),而“index”和“log”池的 PG 数相对较小(比如 1024),几个池加起来正好是 8832。
总结来说,你之前的计算是针对单个重要存储池的,而系统显示的 8832 是整个集群所有 15 个存储池的 PG 总数。这个总数符合每个 OSD 承载约 40 个 PG 的推荐负载,并且可能受到了 Ceph PG 自动扩展功能的影响。
亲~登录后才可以操作哦!
确定你的邮箱还未认证,请认证邮箱或绑定手机后进行当前操作
举报
×
侵犯我的权益
×
侵犯了我企业的权益
×
抄袭了我的内容
×
原文链接或出处
诽谤我
×
对根叔社区有害的内容
×
不规范转载
×
举报说明
ceph osd pool ls detail命令没有在“H3C分布式存储系统_命令参考-6W105-整本手册”里搜索到,这个命令在哪个手册里