<div dir="ltr">Hi,<div>I&#39;m testing the replicated volume wit a 3 VMs config:</div><div>gfs1:/export/sda3/brick</div><div>gfs2:/export/sda3/brick</div><div>gfsc as client</div><div><br></div><div>The volume name is gfs.</div><div>Gluster version in the test is 3.6.3, on CentOS 6.6.</div><div><br></div><div>A volume of 2 replica is made, and I try to simulate a brick fail by:</div><div>1. stop the glusterd and gluster processes on gfs1</div><div>2. unmount the brick</div><div>3. mkfs.xfs the brick</div><div>4. mount it back</div><div>5. start the gluster service</div><div>6. volume remove-brick gfs replica 1 gfs1:/export/sda3/brick force</div><div>7. volume add-brick gfs replica 2 gfs1:/export/sda3/brick</div><div><br></div><div>To this point, the &quot;volume info gfs&quot; shows the volume to be a 2-bricks replicate volume, which is fine.</div><div>But the gluster somehow thinks the volume doesn&#39;t need healing.</div><div>Issue the &quot;volume heal gfs full&quot; did not heal the volume, data did not copied from the gfs2 brick to gfs1.</div><div>Is the problem in the replace procedures or something else?</div><div>Please advise ;)</div><div><br></div><div>Mike</div></div>