<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto"><div>Thank you very much for your reply.</div><div><br></div>In fact it is &nbsp;that I use a new node ,of which rootfs is new , to replace the failed node.<div>And the new node has same IP address with the failed one.</div><div><br></div><div>The brick is on a external hard disk.Because the hard disk is mounted on the node ,so the data on the brick of failed node will not be loss but may be async with the brick of good node.And the brick of failed node will be mounted on the new node.</div><div><br></div><div>Now my recovery steps is run some glusterfs command on good node as below, after starting the glusterd on new node.</div><div>1.remove brick of new node from volume(the volume type is changed from replicate to distribute)</div><div>2.peer detach the new node ip(the new node ip is same as failed node)</div><div>3.peer probe the new node ip</div><div>3.add brick of new node to volume(the volume type is change to replicate)</div><div><br></div><div>But many problem,like data async &nbsp;or peer state is error etc, will happen.</div><div><br></div><div>My question is below.</div><div><br></div><div>Could I run some glusterfs command on good node to recover the replicate volume, if I don't copy the files ,including &nbsp;<a href="http://glusterd.info">glusterd.info</a> and other files,from good node to new node.</div><div><br></div><div>Thanks</div><div>Xin</div><div><br></div><div><br></div><div><div><br><br><div>发自我的 iPhone</div></div><div><br>在 2016年3月17日,04:54,Alastair Neil &lt;<a href="mailto:ajneil.tech@gmail.com">ajneil.tech@gmail.com</a>&gt; 写道:<br><br></div><blockquote type="cite"><div><div dir="ltr"><div class="gmail_extra">hopefully you have a back up of /var/lib/glusterd/<a href="http://glusterd.info">glusterd.info</a> and /var/lib/glusterd/peers, if so I think you can copy them back to and restart glusterd and the volume info should get populated from the other node.&nbsp; If not you can probably reconstruct these from &nbsp;these files on the other node.</div><div class="gmail_extra"><br></div><div class="gmail_extra">i.e:</div><div class="gmail_extra">On the unaffected node the peers directory should have an entry for the failed node containing the uuid of the failed node. The &nbsp;<a href="http://glusterd.info">glusterd.info</a> file should enable you to recreate the peer file on the failed node.</div><div class="gmail_extra"><br></div><div class="gmail_extra"><br><div class="gmail_quote">On 16 March 2016 at 09:25, songxin <span dir="ltr">&lt;<a href="mailto:songxin_1980@126.com" target="_blank">songxin_1980@126.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>
        <div style="line-height:1.5;text-align:justify;text-justify:inter-ideograph">
            
            
        <div style="line-height:1.5;text-align:justify;text-justify:inter-ideograph">
            <div>Hi,</div><div>Now I face a problem.</div><div>Reproduc step is as below.</div><div>1.I create a replicate volume using two brick on two board</div><div>2.start the volume</div><div>3.one board is breakdown and all</div><div>files in the rootfs ,including /var/lib/glusterd/*,are lost.</div><div>4.reboot the board and ip is not change.</div><div><br></div><div>My question:</div><div>How to recovery the replicate volume?</div><div><br></div><div>Thanks,</div><div>Xin</div><div><br></div>
        </div>
    
        </div>
    <br><br>
</div><br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div>
</div></blockquote></div></body></html>