环境:
主机A:172.16.160.91
主机B:172.16.160.92
配置主机A
[root@master zhxf]# cat docker-compose.yml version: '3' services: mongo_rs1: image: mongo:3.4.4 container_name: mongo_rs1 volumes: - /zhxf/mongo_rs1/:/mongodb command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync # command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync ulimits: nproc: 65535 hostname: mongo_rs1 restart: always ports: - "27017:27017" [root@master zhxf]# mkdir -p /zhxf/mongo_rs1/
[root@master zhxf]# chmod -R 777 /zhxf/mongo_rs1/
配置主机B
[root@slave1 zhxf]# cat docker-compose.yml version: '3' services: mongo_rs2: image: mongo:3.4.4 container_name: mongo_rs2 volumes: - /zhxf/mongo_rs2/:/mongodb command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync # command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync ulimits: nproc: 65535 hostname: mongo_rs2 restart: always ports: - "27017:27017"
[root@slave1 zhxf]# mkdir -p /zhxf/mongo_rs2/
[root@slave1 zhxf]# chmod -R 777 /zhxf/mongo_rs2/
启动主机A和B
[root@master zhxf]# docker-compose up -d [root@slave1 zhxf]# docker-compose up -d
验证
主机A插入数据
[root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo > db.test.insert({msg: "from master", ts: new Date()}) WriteResult({ "nInserted" : 1 }) > db.test.find() { "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") } > exitexit
主机B不能插入数据,但可以看到主机A之前插入的数据,说明主从模式配置成功
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo > db.test.insert({msg: "from master", ts: new Date()}) WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } }) > db.test.find() Error: error: { "ok" : 0, "errmsg" : "not master and slaveOk=false", "code" : 13435, "codeName" : "NotMasterNoSlaveOk" } > rs.slaveOk()rs.slaveOk() > db.test.find() { "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
上面主从模式配置成功了,下面开始测试主从切换
模拟主机A故障,如何启用主机B做为主模式
主机A
[root@mysql_master zhxf]# docker-compose down Stopping mongo_rs1 ... done Removing mongo_rs1 ... done Removing network zhxf_default
主机B切换启动配置
[root@slave1 zhxf]# docker-compose down Stopping mongo_rs2 ... done Removing mongo_rs2 ... done Removing network zhxf_default [root@slave1 zhxf]# vi docker-compose.yml version: '3' services: mongo_rs2: image: mongo:3.4.4 container_name: mongo_rs2 volumes: - /zhxf/mongo_rs2/:/mongodb # command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync ulimits: nproc: 65535 hostname: mongo_rs2 restart: always ports: - "27017:27017"
[root@slave1 zhxf]# docker-compose up -d
Creating network "zhxf_default" with the default driver Creating mongo_rs2
验证
主机B变成主模式了,可以插入数据了
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo > db.test.find() { "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") } > db.test.insert({msg: 'from slaver', ts: new Date()}) WriteResult({ "nInserted" : 1 }) > db.test.find() { "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") } { "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }
主机A故障恢复后,不能再做为主模式了,
需要修改启动配置为从模式后,再启动。
[root@mysql_master zhxf]# vi docker-compose.yml version: '3' services: mongo_rs1: image: mongo:3.4.4 container_name: mongo_rs1 volumes: - /zhxf/mongo_rs1/:/mongodb # command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync ulimits: nproc: 65535 hostname: mongo_rs1 restart: always ports: - "27017:27017"
验证
[root@mysql_master zhxf]# docker-compose up -d Creating network "zhxf_default" with the default driver Creating mongo_rs1 [root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo > db.test.find() Error: error: { "ok" : 0, "errmsg" : "not master and slaveOk=false", "code" : 13435, "codeName" : "NotMasterNoSlaveOk" } > rs.slaveOk() > db.test.find() { "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") } { "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }
主机A变成从模式后,无法插入数据了。
> db.test.insert({msg: "from master", ts: new Date()}) WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } })
其他配置参数含义
--quiet # 安静输出 --port arg # 指定服务端口号,默认端口27017 --bind_ip arg # 绑定服务IP,若绑定127.0.0.1,则只能本机访问,不指定默认本地所有IP --logpath arg # 指定MongoDB日志文件,注意是指定文件不是目录 --logappend # 使用追加的方式写日志 --pidfilepath arg # PID File 的完整路径,如果没有设置,则没有PID文件 --keyFile arg # 集群的私钥的完整路径,只对于Replica Set 架构有效 --unixSocketPrefix arg # UNIX域套接字替代目录,(默认为 /tmp) --fork # 以守护进程的方式运行MongoDB,创建服务器进程 --auth # 启用验证 --cpu # 定期显示CPU的CPU利用率和iowait --dbpath arg # 指定数据库路径 --diaglog arg # diaglog选项 0=off 1=W 2=R 3=both 7=W+some reads --directoryperdb # 设置每个数据库将被保存在一个单独的目录 --journal # 启用日志选项,MongoDB的数据操作将会写入到journal文件夹的文件里 --journalOptions arg # 启用日志诊断选项 --ipv6 # 启用IPv6选项 --jsonp # 允许JSONP形式通过HTTP访问(有安全影响) --maxConns arg # 最大同时连接数 默认2000 --noauth # 不启用验证 --nohttpinterface # 关闭http接口,默认关闭27018端口访问 --noprealloc # 禁用数据文件预分配(往往影响性能) --noscripting # 禁用脚本引擎 --notablescan # 不允许表扫描 --nounixsocket # 禁用Unix套接字监听 --nssize arg (=16) # 设置信数据库.ns文件大小(MB) --objcheck # 在收到客户数据,检查的有效性, --profile arg # 档案参数 0=off 1=slow, 2=all --quota # 限制每个数据库的文件数,设置默认为8 --quotaFiles arg # number of files allower per db, requires --quota --rest # 开启简单的rest API --repair # 修复所有数据库run repair on all dbs --repairpath arg # 修复库生成的文件的目录,默认为目录名称dbpath --slowms arg (=100) # value of slow for profile and console log --smallfiles # 使用较小的默认文件 --syncdelay arg (=60) # 数据写入磁盘的时间秒数(0=never,不推荐) --sysinfo # 打印一些诊断系统信息 --upgrade # 如果需要升级数据库 * Replicaton 参数 -------------------------------------------------------------------------------- --fastsync # 从一个dbpath里启用从库复制服务,该dbpath的数据库是主库的快照,可用于快速启用同步 --autoresync # 如果从库与主库同步数据差得多,自动重新同步;当发现从服务器的数据不是最新时,开始从主服务器请求同步数据 --oplogSize arg # 主节点的oplog日志大小,单位为M,建议设大点(更改oplog大小时,只需停主库,删除local.*,然后加--oplogSize=* 重新启动即可,*代表大小) * 主/从参数 -------------------------------------------------------------------------------- --master # 主库模式 --slave # 从库模式 --source arg # 从库 端口号 --only arg # 指定单一的数据库复制 --slavedelay arg # 设置从库同步主库的延迟时间 * Replica set(副本集)选项: -------------------------------------------------------------------------------- --replSet arg # 设置副本集名称 * Sharding(分片)选项 -------------------------------------------------------------------------------- --configsvr # 声明这是一个集群的config服务,默认端口27019,默认目录/data/configdb --shardsvr # 声明这是一个集群的分片,默认端口27018 --noMoveParanoia # 关闭偏执为moveChunk数据保存
常用命令
> db.runCommand({"resync":1}) #如果发现主从不同步,从上手动同步 > db.runCommand({"isMaster":1}) #是主还是从 > db.printCollectionStats(); #查看各Collection状态 > db.printReplicationInfo(); #查看主从复制状态 > db.printSlaveReplicationInfo(); #查看主从复制信息 > use local; switched to db local > db.sources.find(); #在丛库上查询主库地址 > db.sources.remove({"host": "10.0.0.11:27001"}); #删除主库地址源 > db.sources.insert({"host": "10.0.0.11:27001"}); #添加新主库地址源