проблема с кластером mongodb версии 4.0 добавить член кластера - PullRequest
1 голос
/ 05 июля 2019

проблема заключается в добавлении члена на основной сервер конфигурации в кластере mongodb 4.0

mongo.conf

storage:
  dbPath: /var/lib/mongodb
  journal:
    enabled: true
systemLog:
  destination: file
  logAppend: true
  path: /var/log/mongodb/mongod.log
net:
  port: 27017
  bindIp: 0.0.0.0

security:
  keyFile: /opt/mongo/keyfile
processManagement:
  timeZoneInfo: /usr/share/zoneinfo
sharding:
  clusterRole: configsvr
replication:
  oplogSizeMB: 2048
  replSetName: configReplSet

при добавлении первого члена проблем нет !! Я использую этот код configReplSet:PRIMARY> rs.add( { host: "mongo-config-1:27017",priority: 1, votes: 1 } )

на этом изображении показать это

enter image description here

при добавлении второго сервера у меня возникает эта проблема !!

> rs.initiate(    {       _id: "configReplSet",       configsvr: true,       version: 1,       members: [          { _id: 0, host : "mongo-config-2:27017" },          { _id: 1, host : "mongo-config-3:27017" }       ]    } )
{
    "ok" : 0,
    "errmsg" : "The hosts mongo-config-2:27017 and mongo-config-3:27017 all map to this node in new configuration version 1 for replica set configReplSet",
    "code" : 93,
    "codeName" : "InvalidReplicaSetConfig",
    "$gleStats" : {
        "lastOpTime" : Timestamp(0, 0),
        "electionId" : ObjectId("000000000000000000000000")
    }
}

>

----- обновление 2

файл хоста:

xxx.xxx.136.16 localhost
xxx.xxx.136.16 mongo-config-1
xxx.xxx.138.105 mongo-config-2
xxx.xxx.193.244 mongo-config-3
xxx.xxx.128.156 mongo-query-router
xxx.xxx.129.70 mongo-shard-1
xxx.xxx.213.164 mongo-shard-2

надеюсь любая идея !!!

----- обновление 3

я пытаюсь с Я устанавливаю Nmap в Ubuntu и пытаюсь вызвать сервер с

nmap -p 27017 mongo-config-2

журнал:

PORT      STATE  SERVICE
27017/tcp closed mongod

в этом случае я использую de bindIp: с «частным IP» ...

У меня проблема с брандмауэром ???? есть идеи ???

------- обновление 4 ----

это rs.status () узел, который может инициировать

configReplSet:PRIMARY> rs.status()
{
    "set" : "configReplSet",
    "date" : ISODate("2019-07-05T20:26:12.828Z"),
    "myState" : 1,
    "term" : NumberLong(7),
    "syncingTo" : "",
    "syncSourceHost" : "",
    "syncSourceId" : -1,
    "configsvr" : true,
    "heartbeatIntervalMillis" : NumberLong(2000),
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1562358369, 1),
            "t" : NumberLong(7)
        },
        "readConcernMajorityOpTime" : {
            "ts" : Timestamp(1562358369, 1),
            "t" : NumberLong(7)
        },
        "appliedOpTime" : {
            "ts" : Timestamp(1562358369, 1),
            "t" : NumberLong(7)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1562358369, 1),
            "t" : NumberLong(7)
        }
    },
    "members" : [
        {
            "_id" : 1,
            "name" : "mongo-config-1:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 2086,
            "optime" : {
                "ts" : Timestamp(1562358369, 1),
                "t" : NumberLong(7)
            },
            "optimeDate" : ISODate("2019-07-05T20:26:09Z"),
            "syncingTo" : "",
            "syncSourceHost" : "",
            "syncSourceId" : -1,
            "infoMessage" : "",
            "electionTime" : Timestamp(1562356287, 1),
            "electionDate" : ISODate("2019-07-05T19:51:27Z"),
            "configVersion" : 1,
            "self" : true,
            "lastHeartbeatMessage" : ""
        }
    ],
    "ok" : 1,
    "operationTime" : Timestamp(1562358369, 1),
    "$gleStats" : {
        "lastOpTime" : Timestamp(0, 0),
        "electionId" : ObjectId("7fffffff0000000000000007")
    },
    "$clusterTime" : {
        "clusterTime" : Timestamp(1562358369, 1),
        "signature" : {
            "hash" : BinData(0,"S8yWijAquqOMGOEW3txNtFK3jmA="),
            "keyId" : NumberLong("6710234690252439578")
        }
    }
}

проблема с брандмауэром в Ubuntu 18.04 lts ....

...