CephFS 常用命令以及问题分析

  • 时间:
  • 浏览:1
  • 来源:uu快3诀窍_uu快3app安卓_导航网

官方文档有明确的说明,不推荐大于 64G,这上边的愿因主假若 Ceph 的 bug,有就说 使用者发现当高于 64g 时,MDS 有较高的概率占用远高于实际配置的内存,目前该 bug 还那么 解决。

但有时 MDS 占用的内存又远远大于配置的缓存,你你是什么愿因是 mds_cache_memory_limit 何必 有有另有两个 固定死能否了突破的上限,程序运行运行运行时将会会在特定情況下突破配置的上限,就说 建议何必 把你你是什么值配置的和系统内存总量太接近。不然有将会会占满整个服务器的内存资源。

mds_cache_reservation 的默认值是 5%,就说 造成了亲戚亲戚让我们都让我们都 看到的大问題。

查看 MDS 组件情況,下面的例子输出的结果表示能否了有另有两个 多 MDS,但会 MDS 将会位于正常工作情況。

经过进一步的派发后,把缓存配置进一步分解为以下两个 小大问題。

你你是什么命令是用来查看文件系统某个目录下与否是脏数据。

不言而喻 ,inodes_expired 的数值将会非常大了。进一步搜索发现,造成你你是什么大问題的主因是 cephfs 不用自动清理过期的 inodes,就说 积累时间久了,就容易出現不足英文用的大问題。解决土办法如下:

最近公司的生产环境将会之前 之前 开始使用 CephFS 作为文件系统存储,记录一下使用过程中遇到的大问題,将会但会 常用的命令。

相关的配置项主要有有有另有两个 :

mds_cache_sizemds_cache_memory_limitmds_cache_size 是老版本的配置参数,单位是 inode,目前的默认值是 0,表示那么 限制;mds_cache_memory_limit 是建议使用的值,单位是 byte,默认值为 1G。就说 要调整 cache 大小,当然是要改 mds_cache_memory_limit

该命令是用来查看 CephFS 的 session 连接。

你你是什么命令是用来查看 Ceph MDS 缓存的使用情況,默认的配置是使用 1G 内存作为缓存,不过这总要有有另有两个 固定的上限,实际用量将会突破配置。

inodes 远小于 inode_max,就说 这里的配置也那么 大问題。继续搜索发现何必 是 inodes 的数量会造成你你是什么大问題,将会过期的 inodes 也是有影响的。

例如将 mds_cache_memory_limit 配置为 30G(mds_cache_memory_limit = 32212254726),而实际运行时,看到的缓存用量却是那我的:

正巧是我修改了 MDS cache 以前出現了你你是什么告警,就说 一之前 之前 开始怀疑是是总要将会改大了 cache 造成了你你是什么大问題,但当我恢复了 cache 的默认值以前,大问題依然位于。于是在 Ceph 的邮件列表中搜索例如大问題,发现该大问題一般总要 inode_max 你你是什么数值设置的不足英文大造成的,于是查看到一下当前的 inode 和 inode_max 信息:

ceph daemon 是有有另有两个 很常用的命令,可需要用来查看 Ceph 的各个守护程序运行运行运行的情況,你你是什么 help 命令可需要看到 MDS daemon 都支持你你是什么子命令:

查看 MDS 的性能指标。

MDS 目前官方推荐的配置还是单活的,也假若说有有另有两个 集群内能否了有另有两个 多提供服务的 MDS,不言而喻 Ceph MDS 性能很高,但毕竟是单点,再添加 MDS 运行的物理机上内存资源还是比较富裕的,自然想到通过使用内存作为缓存来提高 MDS 的性能。但会 MDS 的缓存配置项就说 ,一时还真不选则 应该用哪个选项,但会 配置成多大至少也拿不准。

不言而喻差距不大,但为你你是什么老要用能否了配置的内存量呢?

愿因在于你你是什么参数:mds_cache_reservation,你你是什么参数表示 MDS 预留一每段内存,那么 具体的作用,假若为了留有余地。当 MDS 之前 之前 开始侵占这每段内存时,系统会自动释放掉超过配额的那每段。