<div dir="ltr">Thomas,<div><br></div><div>You seems to be on right track, That is easiest way to replace brick without any hassle.</div><div><br></div><div>Here is the set of steps which I usually follow:</div><div><br></div><div># mkdir -p /bricks/brick1  &lt;--Mountpoint of new brick<br></div><div># mkdir -p /bricks/brick1/.glusterfs/00/00<br></div><div># cd  /bricks/brick1/.glusterfs/00/00<br></div><div># ln -s ../../.. 00000000-0000-0000-0000-000000000001<br></div><div>#  ll should return this:</div><div>lrwxrwxrwx 1 root root &lt;date&gt; &lt;time&gt; 00000000-0000-0000-0000-000000000001 -&gt; ../../..<br></div><div># get the volume id from the replica pair of failed node </div><div>#getfattr -d -m. -e hex /bricks/brick2   ---&gt; replica brick</div><div>trusted.glusterfs.volume-id= &lt;volume id&gt;<br></div><div>set the same vol id to new brick </div><div>#setfattr -n trusted.glusterfs.volume-id -v &lt;volume id&gt; /bricks/brick1<br></div><div>Verify it</div><div>#getfattr -d -m. -e hex /bricks/brick1<br></div><div><div>If volume is in stop state start the volume:</div><div>#gluster volume start VOLNAME</div><div>Check #gluster volume status to check new brick came online  and have pid and portnumber </div><div>If brick is not online restart the volume:<br></div><div>#gluster volume stop VOLNAME force<br></div><div>#gluster volume start VOLNAME</div><div>Run full self-heal:</div><div>#gluster volume heal VOLNAME full<br></div><div>Compare the data from replica brick `/bricks/brick2` to this new brick `/bricks/brick1`, it should have same data.</div></div><div><br></div><div>Thanks,</div><div>Bipin Kunal</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Nov 5, 2015 at 9:55 PM, Thomas Bätzler <span dir="ltr">&lt;<a href="mailto:t.baetzler@bringe.com" target="_blank">t.baetzler@bringe.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="im HOEnZb">Hi,<br>
<br>
A small update: since nothing else worked, I broke down and changed the<br>
replacement system&#39;s IP and hostname to that of the broken system;<br>
replaced its UUID with that of the downed machine and probed it back<br>
into the gluster cluster. Had to restart glusterd several times to make<br>
the other systems pick up the change.<br>
<br>
I then added the volume-id attr to the new bricks as suggested on<br>
<a href="https://joejulian.name/blog/replacing-a-brick-on-glusterfs-340/" rel="noreferrer" target="_blank">https://joejulian.name/blog/replacing-a-brick-on-glusterfs-340/</a>. After<br>
that I was able to trigger a manual heal. By tomorrow I may have some<br>
kind of estimate of how long the repair is going to take.<br>
<br>
<br>
Bye,<br>
</span><div class="HOEnZb"><div class="h5">Thomas<br>
<br>
<br>
<br>
---<br>
Diese E-Mail wurde von Avast Antivirus-Software auf Viren geprüft.<br>
<a href="https://www.avast.com/antivirus" rel="noreferrer" target="_blank">https://www.avast.com/antivirus</a><br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>