<div dir="ltr"><span style="font-size:12.8000001907349px">Hi Gluster Experts,</span><div style="font-size:12.8000001907349px"><br></div><div style="font-size:12.8000001907349px">How to replace the failed disk on the same mount point in distributed disperse volume? I am following the below steps to replace the disk.</div><div style="font-size:12.8000001907349px"><br></div><div style="font-size:12.8000001907349px">1. Kill the PID of the failed disk</div><div style="font-size:12.8000001907349px">2. unmount the drive</div><div style="font-size:12.8000001907349px">3. insert , format and mount the new drive on the same failed drive mount point</div><div style="font-size:12.8000001907349px">4. start the volume by force.</div><div style="font-size:12.8000001907349px"><br></div><div style="font-size:12.8000001907349px">Is this right approach to replace the failed drive?. After replacing the failed brick using above steps, self healing is not working for creating unavailable data chunks form the available disks to new disk. I am using glusterfs 3.7.2 version.</div><div style="font-size:12.8000001907349px"><br></div><div style="font-size:12.8000001907349px">I am not able to find any proper documentation to replace the disk on same mount point</div><div style="font-size:12.8000001907349px"><br></div><div style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">Regards</span><br></div><div style="font-size:12.8000001907349px">Backer</div><div><br></div>
</div>