<div dir="ltr">I have a 4-node distributed-replicate setup running 3.5.2 that I am trying to get synced up with an existing NFS solution; I want Gluster to replace NFS once they are both in sync.  The problem that I have is that data is written to the NFS server faster than rsync can copy to Gluster so I&#39;m at a point to where I&#39;m always about a day behind.  I think if I can get this intermediate step of syncing out of the loop, and just have our web application write straight to gluster, then I think I can get caught up and get rolled in to this storage solution.<div><br></div><div>I think that maybe the extra writes to the replication pair might be contributing to this initial problem.  I would like to find out how I could convert it to just be a distributed configuration, get everything caught up and in sync, then bring the replication pair back online and go back to the original setup.</div><div><br></div><div>If I understand it correctly, the self-heal process is what takes care of the replication piece and is something that always runs.  If this is correct, shouldn&#39;t I be able to just power down the pair of servers that are the replication pair, let the sync get caught up by writing to the distributed pair, then restart those servers and let self-heal bring the replication pair back online?</div><div><br></div><div>Does anyone see anything wrong with doing it this way or is there a better way to do something like this?  Are there any potential &quot;gotchas&quot; that I should be aware of?</div><div><br></div><div>-ken</div><div>-- <br><div class="gmail_signature">Have a nice day ... unless you&#39;ve made other plans.</div>
</div></div>