<div dir="ltr">I am triying to attach a brick from another server to a local gluster development server. Therfore I have done a dd from a snapshot on production and a dd on the lvm volume on development. Then I deleted the .glusterfs folder on root. <div><br></div><div>Unfortunatelly forming a new brick failed nevertheless with the info that this brick is already part of a volume. (how does gluster know that?!)</div><div><br></div><div>I then issued the following:</div><div>







<p class=""><span class="">







</span></p><p class=""><span class="">sudo setfattr -x trusted.gfid /bricks/staging/brick1/<br></span>sudo setfattr -x trusted.glusterfs.volume-id /bricks/staging/brick1/<br>sudo /etc/init.d/glusterfs-server restart</p></div><div><br></div><div>Magically gluster still seems to know that this brick is from another server as it knows the peered gluster nodes which are aparently different on the dev server:</div><div><br></div><div>







<p class=""><span class="">sudo gluster volume create staging<br></span>node1:/bricks/staging/brick1</p>
<p class=""><span class="">volume create: staging: failed: Staging failed on gs3. Error: Host node1 is not in &#39;Peer in Cluster&#39; state</span></p>
<p class=""><span class="">Staging failed on gs2. Error: Host node1 is not in &#39;Peer in Cluster&#39; state</span></p><p class="">Is there a way to achive a restorage of that brick on a new server? Thank you for any help on this.</p></div></div>