云数据库MongoDB实例的空间使⽤率是⼀个⾮常重要的监控指标。如果MongoDB实例的空间被完全使用,将会导致实例不可⽤。本文介绍查看MongoDB实例空间使用情况的方法,以及各种空间使用情况的原因和优化策略。
背景信息
实例空间使用率达到80%~85%以上时,可通过降低数据库实际占用空间或扩容存储空间的方法避免空间占满的风险。
查看空间使用情况
副本集架构
当云数据库MongoDB实例为副本集架构时,您可以登录MongoDB管理控制台通过以下方法查看空间使用情况:
总体概览
在基本信息页面的规格信息区域,查看当前实例的磁盘空间和使用率。
监控图分析
在左侧导航栏中单击监控信息,选择目标节点,查看目标节点的磁盘空间使用量(Bytes)和磁盘空间使用率(%)。
云数据库MongoDB副本集实例提供一个可供读写访问的Primary节点(主节点)、一个或多个提供高可用的Secondary节点(从节点)、一个隐藏的Hidden节点(隐藏节点)和一个或多个可选的ReadOnly节点(只读节点)。MongoDB节点的空间使用量由data_size和log_size组成,即ins_size=data_size+log_size。其中:
data_size:数据磁盘使⽤空间(不包括local库),主要包括collection开头的数据物理⽂件,索引开头的索引物理⽂件和部分元数据物理⽂件,例如WiredTiger.wt。
log_size:local库的物理⼤⼩、mongodb运⾏⽇志⼤⼩和部分审计⽇志⼤⼩。
详细分析
您可以通过以下两种方法详细分析空间使用问题:
通过MongoDB自身提供的命令
db.stats()
和db.$collection_name.stats()
分析。在
页面分析。您可以在
页面查看以下配置信息:数据库和表使用空间情况概览、⽇均增⻓量和预测可⽤天数。
异常数据库和表使用空间情况。
详细业务表使用空间情况,包括索引文件大小、数据文件大小,压缩率分析,平均⾏⻓等。
分⽚集群架构
当云数据库MongoDB实例为分片集群架构时,您可以登录MongoDB管理控制台通过以下方法查看空间使用情况:
监控图分析
在监控信息页面,选择目标节点,查看目标节点的磁盘空间使用量(Bytes)和磁盘空间使用率(%)。
详细分析
通过云数据库MongoDB自身提供的命令
db.stats()
和db.$collection_name.stats()
依次分析各个节点的空间使用情况。
执行compact指令导致数据量过大
compact期间对实例的影响
由于compact执⾏的时间与集合的数据量相关,如果数据量过大,则会使compact的执行时间很长,所以为避免影响业务的读写,建议在业务低峰期执⾏compact。
compact⽅法
首先在备库上执行命令db.runCommand({compact:"collectionName"})
,然后进行主备切换,以减少compact期间对业务的影响。其中collectionName
为集合名称,请根据实际情况替换。
MongoDB 4.2及以前的官方版本,compact命令会阻塞业务正常读写,建议您仅在没有业务流量的Secondary节点上执行该操作。
MongoDB 4.4及以后的官方版本,compact命令将不再阻塞业务读写,但是在Primary节点执行compact命令,有可能会对实例性能产生影响,建议您在Secondary或Hidden节点上执行。如果您必须要在Primary节点执行compact命令,建议您在业务低峰期进行操作。compact命令的使用方法和限制请参见:compact、MongoDB命令详解和回收磁盘碎片以提升磁盘利用率。
MongoDB 4.4.9以前的官方版本,正在执行compact命令的节点会进入RECOVERING状态,如果持续时间过长,该节点会被实例探活组件认定为节点不健康从而触发相应的重搭操作;MongoDB 4.4.9及以后的官方版本,正在执行compact命令的节点则会维持在SECONDARY状态。详细信息,请参见MongoDB官方文档。
如果您的MongoDB实例大版本为4.4但不确定小版本是否大于4.4.9,请提交工单联系阿里云技术支持进行确认。
compact⽆效
compact的基本原理并不是⽴⻢开辟新的空间存放数据来替换原来的⽂件,⽽是将数据不断地往前⾯的空间空洞挪动,所以在某些场景下虽然存在空间空洞,但内部的compact算法并不能保证肯定可以复⽤这些空洞,我们称之为compact无效。compact无效的场景和解决方法如下:
在完成compact后,虽然提示操作成功,但实际上磁盘空间并没有回收,对于该场景,建议您通过重建副本的方式解决。
MongoDB 3.4以前的版本,在删除大量数据后,compact⽆法回收索引文件,只对数据⽂件⽣效,对于该场景,建议您将内核版本升级⾄3.4以上。您可以通过如下方法确认该场景:
执行命令
db.$table_name.stats().indexSizes
。查看索引物理文件大小。
日志过大导致空间上涨
Journal Log过⼤导致主备空间差距巨⼤
云数据库MongoDB 4.0以前的版本,如果宿主机的open files达到设置上限,则会使云数据库MongoDB内部的log server清理线程中断,进而使Journal Log过大导致空间无限上涨,当通过云数据库MongoDB的运行日志查看到类似以下内容时,您可以将内核版本升级到云数据库MongoDB 4.0以上,或者通过重启云数据库mongod进程进行临时解决,详情请参见log-server thread exit quietly on error while the mongodb process still running。
2019-08-25T09:45:16.867+0800 I NETWORK [thread1] Listener: accept() returns -1 Too many open files in system
2019-08-25T09:45:17.000+0800 I - [ftdc] Assertion: 13538:couldn't open [/proc/55692/stat] Too many open files in system src/mongo/util/processinfo_linux.cpp 74
2019-08-25T09:45:17.002+0800 W FTDC [ftdc] Uncaught exception in 'Location13538: couldn't open [/proc/55692/stat] Too many open files in system' in full-time diagnostic data capture subsystem. Shutting down the full-time diagnostic data capture subsystem.
备库延迟和增量备份可能导致从节点⽇志空间持续增⻓
云数据库MongoDB在出现主备延迟的情况下,Oplog可以使用的大小不再受限于配置文件定义的固定集合大小,理论上使得可以达到用户申请磁盘容量的20%,但当备库延迟恢复后,Oplog之前占⽤的物理空间并不会回缩。
云数据库MongoDB使⽤物理备份的⽅式在隐藏节点备份云数据库MongoDB实例期间会有⼤量的checkpoint,进而导致占⽤了更多的数据和⽇志空间。
对于以上两种场景,通过对Oplog单独做compact操作解决,具体如下:
进行compact期间会阻塞所有的写操作。
db.grantRolesToUser("root", [{db: "local", role: "dbAdmin"}])
use local
db.runCommand({ compact: "oplog.rs", force: true })
选择和使用分片不合理导致数据分布不均衡
sharding key类型选择不合理
在⼀个分⽚集群中,⽚键类型的选择⾄关重要,⼀般会使⽤hash分⽚或者ranged分⽚两种类型。通常情况下,在磁盘均衡度⽅⾯,hash分⽚的策略会⽐ranged好很多,因为根据不同的key值,云数据库MongoDB通过内部的哈希函数可以使得数据均匀地分布在不同地分⽚上,⽽range分⽚⼀般是根据key的⼤⼩范围进⾏数据分布,所以往往会造成这样的⼀个现象:新插⼊的数据在⼀个热点的chunk上,不但会引起该chunk所在的shard磁盘I/O过⾼,也会带来短期数据不均匀的场景。
Sharding Key类型的介绍,详情请参见sharding-shard-key、hashed-sharding和ranged-sharding。
sharding key字段选择不合理
各个分⽚上的chunk数量基本⼀致,但实际上绝⼤部分数据都只存储在部分chunk上,导致这些热点chunk所在的分⽚上的数据量远远⼤于其他分⽚上的数据量,执行命令sh.status()
查看云数据库MongoDB的运行日志,从日志中可以查看到以下类似告警信息:
2019-08-27T13:31:22.076+0800 W SHARDING [conn12681919] possible low cardinality key detected in superHotItemPool.haodanku_all - key is { batch: "201908260000" }
2019-08-27T13:31:22.076+0800 W SHARDING [conn12681919] possible low cardinality key detected in superHotItemPool.haodanku_all - key is { batch: "201908260200" }
2019-08-27T13:31:22.076+0800 W SHARDING [conn12681919] possible low cardinality key detected in superHotItemPool.haodanku_all - key is { batch: "201908260230" }
云数据库mongos负载均衡主要考虑的是各个shard的chunk数量保持相当,就认为数据是均衡的,所以就会出现以上的极端场景:虽然各个shard数量相当,但实际数据严重倾斜。因为⼀个chunk内shardKey⼏乎完全相同但⼜触发到64MB的chunk分裂阈值,这时就会分裂出⼀个空的chunk。久⽽久之,虽然chunk的数量变多了并且完成了chunk的迁移,但实际上迁移⾛的chunk都是空的chunk,造成了chunk数量均衡但实际数据不均衡的情况。对于这种情况,需要在架构上重新设计,选择合适的区分度较⾼的列作为sharding key。
spilt的介绍,详情请参见sharding-data-partitioning和split-chunks-in-sharded-cluster。
部分db未做分片
云数据库MongoDB分⽚集群实例允许部分db做分片,部分db不做分片。那么必然会带来这样的⼀个问题:不做分片的db的数据必然只能存在⼀个分⽚上,如果该db数据量很⼤,可能会造成该分⽚的数据量远⼤于其他分⽚。
从⼀个源端mongos集群导⼊到⼀个新的mongos集群,但逻辑导⼊过程中忽略了实现在⽬标端mongos集群做好分片设计的步骤。
针对上述问题,我们建议:
如果是因为⽬标集群初始化导⼊,导⼊之前做好分⽚设计。
如果不做分片的库很多且数据量基本相当,通过云数据库MongoDB提供的命令
movePrimary
将指定数据库迁移到指定分⽚。如果存在某个数据库的数据量极⼤且未做分片,建议对其做分片设计或者将其拆分出来当作单⼀的副本集对待。
如果出现这种情况,但磁盘空间足够大,建议忽略该问题。
⼤规模的movechunk操作可能引起分⽚的磁盘占⽤不均
movechunk的本质是向⽬标端shard写⼊数据后remove源端数据。默认情况下,remove操作不会释放空间,因为对于wiredTiger引擎,每个表都有独⽴的数据⽂件和索引⽂件,如果该⽂件不删除,总的磁盘空间就不可能回缩。通常最容易引起该问题的操作为:之前的sharding集群中未做shard设计,运⾏⼀段时间后才做了Sharding。
从原理上说movechunk引起的空间碎⽚和⼤规模删除⼀样,因此针对出现⼤量movechunk或者remove⽂档的情况,可以针对该分⽚进⾏compact操作来回收碎⽚空间,正常情况下compact后数据会进⾏重组以回收⽂件的碎⽚空间。
movechunk的介绍,详情请参见migrate-chunks-in-sharded-cluster和manage-sharded-cluster-balancer。