<div dir="ltr">Thanks for that advice. It worked. Setting the UUID in <a href="http://glusterd.info">glusterd.info</a> was the bit I missed.<div><br></div><div>It seemed to work without the setfattr step in my particular case.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Sep 22, 2016 at 11:05 AM, Serkan Ă‡oban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Here are the steps for replacing a failed node:<br>
<br>
<br>
1- In one of the other servers run &quot;grep thaila<br>
/var/lib/glusterd/peers/* | cut -d: -f1 | cut -d/ -f6&quot; and note the<br>
UUID<br>
2- stop glusterd on failed server and add &quot;UUID=uuid_from_previous<br>
step&quot; to /var/lib/glusterd/<a href="http://glusterd.info" rel="noreferrer" target="_blank">glusterd.<wbr>info</a> and start glusterd<br>
3- run &quot;gluster peer probe calliope&quot;<br>
4- restart glusterd<br>
5- now gluster peer status should show all the peers. if not probe<br>
them manually as above.<br>
6-for all the bricks run the command &quot;setfattr -n<br>
trusted.glusterfs.volume-id -v 0x$(grep volume-id<br>
/var/lib/glusterd/vols/vol_<wbr>name/info | cut -d= -f2 | sed &#39;s/-//g&#39;)<br>
brick_name&quot;<br>
7 restart glusterd and everythimg should be fine.<br>
<br>
I think I read the steps from this link:<br>
<a href="https://support.rackspace.com/how-to/recover-from-a-failed-server-in-a-glusterfs-array/" rel="noreferrer" target="_blank">https://support.rackspace.com/<wbr>how-to/recover-from-a-failed-<wbr>server-in-a-glusterfs-array/</a><br>
Look to the &quot;keep the ip address&quot; part.<br>
<div><div class="h5"><br>
<br>
On Thu, Sep 22, 2016 at 5:16 PM, Tony Schreiner<br>
&lt;<a href="mailto:anthony.schreiner@bc.edu">anthony.schreiner@bc.edu</a>&gt; wrote:<br>
&gt; I set uo a dispersed volume with 1 x (3 + 1) nodes ( i do know that 3+1 is<br>
&gt; not optimal).<br>
&gt; Originally created in version 3.7 but recently upgraded without issue to<br>
&gt; 3.8.<br>
&gt;<br>
&gt; # gluster vol info<br>
&gt; Volume Name: rvol<br>
&gt; Type: Disperse<br>
&gt; Volume ID: e8f15248-d9de-458e-9896-<wbr>f1a5782dcf74<br>
&gt; Status: Started<br>
&gt; Snapshot Count: 0<br>
&gt; Number of Bricks: 1 x (3 + 1) = 4<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: calliope:/brick/p1<br>
&gt; Brick2: euterpe:/brick/p1<br>
&gt; Brick3: lemans:/brick/p1<br>
&gt; Brick4: thalia:/brick/p1<br>
&gt; Options Reconfigured:<br>
&gt; performance.readdir-ahead: on<br>
&gt; nfs.disable: off<br>
&gt;<br>
&gt; I inadvertently allowed one of the nodes (thalia) to be reinstalled; which<br>
&gt; overwrote the system, but not the brick, and I need guidance in getting it<br>
&gt; back into the volume.<br>
&gt;<br>
&gt; (on lemans)<br>
&gt; gluster peer status<br>
&gt; Number of Peers: 3<br>
&gt;<br>
&gt; Hostname: calliope<br>
&gt; Uuid: 72373eb1-8047-405a-a094-<wbr>891e559755da<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: euterpe<br>
&gt; Uuid: 9fafa5c4-1541-4aa0-9ea2-<wbr>923a756cadbb<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; Hostname: thalia<br>
&gt; Uuid: 843169fa-3937-42de-8fda-<wbr>9819efc75fe8<br>
&gt; State: Peer Rejected (Connected)<br>
&gt;<br>
&gt; the thalia peer is rejected. If I try to peer probe thalia I am told it<br>
&gt; already part of the pool. If from thalia, I try to peer probe one of the<br>
&gt; others, I am told that they are already part of another pool.<br>
&gt;<br>
&gt; I have tried removing the thalia brick with<br>
&gt; gluster vol remove-brick rvol thalia:/brick/p1 start<br>
&gt; but get the error<br>
&gt; volume remove-brick start: failed: Remove brick incorrect brick count of 1<br>
&gt; for disperse 4<br>
&gt;<br>
&gt; I am not finding much guidance for this particular situation. I could use a<br>
&gt; suggestion on how to recover. It&#39;s a lab situation so no biggie if I lose<br>
&gt; it.<br>
&gt; Cheers<br>
&gt;<br>
&gt; Tony Schreiner<br>
&gt;<br>
</div></div>&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>