<div dir="ltr">Hi all, <div><br></div><div>Now I have three node CS135f55, CS1145c7 and  CS1227ac as geo-replication source cluster,</div><div><br></div><div>source volume info as follow :</div><div><br></div><div><div>Volume Name: smb1</div><div>Type: Disperse</div><div>Volume ID: ccaf6a49-75ba-48cb-821f-4ced8ed01855</div><div>Status: Started</div><div>Number of Bricks: 1 x (2 + 1) = 3</div><div>Transport-type: tcp</div><div>Bricks:</div><div><b>Brick1: CS135f55:/export/IFT_lvol_LICSLxEIxq/fs</b></div><div><b>Brick2: CS1145c7:/export/IFT_lvol_oDC1AuFQDr/fs</b></div><div><b>Brick3: CS1227ac:/export/IFT_lvol_6JG0HAWa2A/fs</b></div><div>Options Reconfigured:</div><div>changelog.changelog: on</div><div>geo-replication.ignore-pid-check: on</div><div>geo-replication.indexing: on</div><div>storage.batch-fsync-delay-usec: 0</div><div>server.allow-insecure: on</div><div>performance.stat-prefetch: off</div><div>cluster.quorum-type: auto</div><div>cluster.server-quorum-type: server</div><div>disperse.eager-lock: off</div><div>performance.write-behind: off</div><div>performance.read-ahead: off</div><div>performance.quick-read: off</div><div>performance.open-behind: off</div><div>performance.io-cache: off</div><div>nfs.disable: on</div><div>server.manage-gids: on</div><div>performance.readdir-ahead: off</div><div>cluster.enable-shared-storage: enable</div><div>cluster.server-quorum-ratio: 51%</div><div><br></div><div># gluster volume geo-replication status : </div><div><br></div><div>MASTER NODE    MASTER VOL    MASTER BRICK                      SLAVE USER    SLAVE                          SLAVE NODE    STATUS     CRAWL STATUS       LAST_SYNCED</div><div>--------------------------------------------------------------------------------------------------------------------------------------------------------------------------</div><div>CS1227ac       smb1          /export/IFT_lvol_6JG0HAWa2A/fs    root          ssh://110.110.110.14::smb11    CS14b550      Passive    N/A                N/A  </div><div>CS135f55       smb1          /export/IFT_lvol_LICSLxEIxq/fs    root          ssh://110.110.110.14::smb11    CS1630aa      Passive    N/A                N/A  </div><div>CS1145c7       smb1          /export/IFT_lvol_oDC1AuFQDr/fs    root          ssh://110.110.110.14::smb11    CS154d98      Active     Changelog Crawl    2016-08-25 08:49:26</div></div><div><br></div><div><br></div><div>now when I reboot CS135f55, CS1145c7 and  CS1227ac at same time,</div><div><br></div><div>after node all node come back,</div><div><br></div><div>I get  geo-replication status again ,</div><div><br></div><div>and shows :</div><div><br></div><div>&quot;<b>No active geo-replication sessions</b>&quot;<br></div><div><br></div><div>So, if I need to keep my geo-replication conf after source cluster reboot, how can I do?</div><div><br></div><div>or is this a limitation for gluster geo-replication now ?</div><div><br></div><div>thanks.</div><div><br></div><div>Ivan</div></div>