在MongoDB副本集的测试中发现了一个丢数据的案例。
1. 概要描述
测试场景为:一主一从一验证
测试案例
step1 :关闭从副本;
step 2 ;向主副本中插入那条数据;
step 3 :关闭主副本;
step 4 :开启辅助副本,此副本升级为主副本,这是后会看到新的主副本没有刚才插入的几笔数据。
----测试时,请注意测试步骤。
step 5 :原主节点 再次加入到集群中后,会变成新的辅助副本。测试插入的数据会产生回滚。
2. 具体的测试步骤
(1)测试服务器,原测试环境
主Server:Port
副Server:Port
见证Server:Port
XXX.XXX.XXX.124:27220
XXX.XXX.XXX.123:27221
XXX.XXX.XXX.134:27220
(2)测试步骤
Step 1 向主数据库(XXX.XXX.XXX.124:27220),插入以下数据,执行时间要长一些。
for(var i = 0; i < 100000; i++) { db.order0522.insert({a: i});};
Step 2 在上述命令执行的过程中,关于副主Server上的mongodb服务,服务命名为mongodboplogtest.service
systemctl stop mongodboplogtest.service
Step 3.查询主副本上数据库insert的数据量,为100000.命令完全插入。
Step 4.关闭主副本上的Mongodb 服务,服务命名为mongodboplogtest.service
systemctl stop mongodboplogtest.service
Step 5 开启辅助节点上的MongoDB服务
systemctl start mongodboplogtest.service
step 6 此时辅助节点(XXX.XXX.XXX.123)升级为主节点,此时数据为30337(100000-30337 笔记录丢失了)
此时 124 (原主节点)为"stateStr" : "(not reachable/healthy)"
step 7 开启原主节点上的服务,集群的状态,关于原主节点的描述短暂处于"stateStr" : "ROLLBACK"
step 8 回滚后,状态变为"stateStr" : "SECONDARY"
step 9 查询原主节点数据,此时数据量为30337(100000-30337 笔也记录丢失了)
3.丢失的数据是否可以找到
我们发现,重启原主节点(XXX.XXX.XXX.124)mongodb服务后,在数据目录下多了一个rollback 目录。
重启前的数据目录
重启后的数据目录
进去这个目录后,我们看到生成了一个以数据库+集合名字+时间的 bson 文件。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。
更新日志
- 群星《歌手2024 第4期》[FLAC/分轨][563.76MB]
- RiffKitten-ChaosParade(2024)[24-44,1]FLAC
- RuneKlakegg-Nattevandrer(2024)[24-96]\FLAC
- 赖冰霞.2006-金嗓典藏辑2IN1(南方金点系列)2CD【南方】【WAV+CUE】
- 群星.1988-国语金曲尽精英VOL.2【瑞成】【WAV+CUE】
- 张宇.1999-雨一直下【EMI百代】【WAV+CUE】
- 袁娅维.2021-月亮失眠了(DELUXE)【华纳】【FLAC分轨】
- AlanBroadbent-JazzFunk(2024)[24-44,1]
- 梅艳芳《绝代芳华》开盘母带[低速原抓WAV+CUE]
- ABC唱片-《外国精逊母带直刻神奇黑胶[APE+CUE].
- 群星《天赐的声音第五季 第6期》[320K/MP3][101.43MB]
- 群星《天赐的声音第五季 第6期》[FLAC/分轨][526.16MB]
- 群星《说唱梦工厂 第2期》[320K/MP3][96.37MB]
- 杨宗宪.1994-留你留袂着【有容唱片】【WAV+CUE】
- 李翊君.2005-勇敢的爱【创意唱片】【WAV+CUE】