<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">1. sorry, 3.9.0-1<div class="">2. no it does nothing</div><div class="">3. here they are, from gl1 to gl6 :&nbsp;<a href="https://we.tl/EPaMs6geoR" class="">https://we.tl/EPaMs6geoR</a></div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><div class=""><br class=""><div><blockquote type="cite" class=""><div class="">On 13 Dec 2016, at 16:49, Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com" class="">amukherj@redhat.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class="">And 3. In case 2 doesn't work, please provide the glusterd log files from gl1 &amp; gl5<br class=""></div><div class="gmail_extra"><br class=""><div class="gmail_quote">On Tue, Dec 13, 2016 at 9:16 PM, Atin Mukherjee <span dir="ltr" class="">&lt;<a href="mailto:amukherj@redhat.com" target="_blank" class="">amukherj@redhat.com</a>&gt;</span> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr" class=""><div class="">1. Could you mention which gluster version are you running with?<br class=""></div>2. Does restarting glusterd instance on gl1 &amp; gl5 solves the issue (after removing the volume-id xattr from the bricks) ?<br class=""></div><div class="gmail_extra"><div class=""><div class="h5"><br class=""><div class="gmail_quote">On Tue, Dec 13, 2016 at 8:56 PM, Cedric Lemarchand <span dir="ltr" class="">&lt;<a href="mailto:yipikai7@gmail.com" target="_blank" class="">yipikai7@gmail.com</a>&gt;</span> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello,<br class="">
<br class="">
When I try to add 3 bricks to a working cluster composed of 3 nodes / 3 bricks in dispersed mode 2+1, it fails like this :<br class="">
<br class="">
root@gl1:~# gluster volume add-brick vol1 gl4:/data/br1 gl5:/data/br1 gl6:/data/br1<br class="">
volume add-brick: failed: Pre Validation failed on gl4. Host gl5 not connected<br class="">
<br class="">
However all peers are connected and there aren't networking issues :<br class="">
<br class="">
root@gl1:~# gluster peer status<br class="">
Number of Peers: 5<br class="">
<br class="">
Hostname: gl2<br class="">
Uuid: 616f100f-a3f4-46e4-b161-ee5db5<wbr class="">a60e26<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl3<br class="">
Uuid: acb828b8-f4b3-42ab-a9d2-b3e7b9<wbr class="">17dc9a<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl4<br class="">
Uuid: 813ad056-5e84-4fdb-ac13-38d24c<wbr class="">748bc4<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl5<br class="">
Uuid: a7933aeb-b08b-4ebb-a797-b8ecbe<wbr class="">5a03c6<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl6<br class="">
Uuid: 63c9a6c1-0adf-4cf5-af7b-b28a60<wbr class="">911c99<br class="">
State: Peer in Cluster (Connected)<br class="">
&nbsp;:<br class="">
<br class="">
When I try a second time, the error is different :<br class="">
<br class="">
root@gl1:~# gluster volume add-brick vol1 gl4:/data/br1 gl5:/data/br1 gl6:/data/br1<br class="">
volume add-brick: failed: Pre Validation failed on gl5. /data/br1 is already part of a volume<br class="">
Pre Validation failed on gl6. /data/br1 is already part of a volume<br class="">
Pre Validation failed on gl4. /data/br1 is already part of a volume<br class="">
<br class="">
It seems the previous try, even if it has failed, have created the gluster attributes on file system as shown by attr on gl4/5/6 :<br class="">
<br class="">
Attribute "glusterfs.volume-id" has a 16 byte value for /data/br1<br class="">
<br class="">
I already purge gluster and reformat brick on gl4/5/6 but the issue persist, any ideas ? did I miss something ?<br class="">
<br class="">
<br class="">
Some informations :<br class="">
<br class="">
root@gl1:~# gluster volume info<br class="">
<br class="">
Volume Name: vol1<br class="">
Type: Disperse<br class="">
Volume ID: bb563884-0e2a-4757-9fd5-cb851b<wbr class="">a113c3<br class="">
Status: Started<br class="">
Snapshot Count: 0<br class="">
Number of Bricks: 1 x (2 + 1) = 3<br class="">
Transport-type: tcp<br class="">
Bricks:<br class="">
Brick1: gl1:/data/br1<br class="">
Brick2: gl2:/data/br1<br class="">
Brick3: gl3:/data/br1<br class="">
Options Reconfigured:<br class="">
features.scrub-freq: hourly<br class="">
features.scrub: Inactive<br class="">
features.bitrot: off<br class="">
cluster.disperse-self-heal-dae<wbr class="">mon: enable<br class="">
transport.address-family: inet<br class="">
performance.readdir-ahead: on<br class="">
nfs.disable: on, I have the following error :<br class="">
<br class="">
root@gl1:~# gluster volume status<br class="">
Status of volume: vol1<br class="">
Gluster process&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;TCP Port&nbsp; RDMA Port&nbsp; Online&nbsp; Pid<br class="">
------------------------------<wbr class="">------------------------------<wbr class="">------------------<br class="">
Brick gl1:/data/br1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;49152&nbsp; &nbsp; &nbsp;0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;23403<br class="">
Brick gl2:/data/br1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;49152&nbsp; &nbsp; &nbsp;0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;14545<br class="">
Brick gl3:/data/br1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;49152&nbsp; &nbsp; &nbsp;0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;11348<br class="">
Self-heal Daemon on localhost&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;24766<br class="">
Self-heal Daemon on gl4&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;1087<br class="">
Self-heal Daemon on gl5&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;1080<br class="">
Self-heal Daemon on gl3&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;12321<br class="">
Self-heal Daemon on gl2&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;15496<br class="">
Self-heal Daemon on gl6&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp;N/A&nbsp; &nbsp; &nbsp; &nbsp; Y&nbsp; &nbsp; &nbsp; &nbsp;1091<br class="">
<br class="">
Task Status of Volume vol1<br class="">
------------------------------<wbr class="">------------------------------<wbr class="">------------------<br class="">
There are no active volume tasks<br class="">
<br class="">
root@gl1:~# gluster volume info<br class="">
<br class="">
Volume Name: vol1<br class="">
Type: Disperse<br class="">
Volume ID: bb563884-0e2a-4757-9fd5-cb851b<wbr class="">a113c3<br class="">
Status: Started<br class="">
Snapshot Count: 0<br class="">
Number of Bricks: 1 x (2 + 1) = 3<br class="">
Transport-type: tcp<br class="">
Bricks:<br class="">
Brick1: gl1:/data/br1<br class="">
Brick2: gl2:/data/br1<br class="">
Brick3: gl3:/data/br1<br class="">
Options Reconfigured:<br class="">
features.scrub-freq: hourly<br class="">
features.scrub: Inactive<br class="">
features.bitrot: off<br class="">
cluster.disperse-self-heal-dae<wbr class="">mon: enable<br class="">
transport.address-family: inet<br class="">
performance.readdir-ahead: on<br class="">
nfs.disable: on<br class="">
<br class="">
root@gl1:~# gluster peer status<br class="">
Number of Peers: 5<br class="">
<br class="">
Hostname: gl2<br class="">
Uuid: 616f100f-a3f4-46e4-b161-ee5db5<wbr class="">a60e26<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl3<br class="">
Uuid: acb828b8-f4b3-42ab-a9d2-b3e7b9<wbr class="">17dc9a<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl4<br class="">
Uuid: 813ad056-5e84-4fdb-ac13-38d24c<wbr class="">748bc4<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl5<br class="">
Uuid: a7933aeb-b08b-4ebb-a797-b8ecbe<wbr class="">5a03c6<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
Hostname: gl6<br class="">
Uuid: 63c9a6c1-0adf-4cf5-af7b-b28a60<wbr class="">911c99<br class="">
State: Peer in Cluster (Connected)<br class="">
<br class="">
<br class="">
<br class="">
______________________________<wbr class="">_________________<br class="">
Gluster-users mailing list<br class="">
<a href="mailto:Gluster-users@gluster.org" target="_blank" class="">Gluster-users@gluster.org</a><br class="">
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank" class="">http://www.gluster.org/mailman<wbr class="">/listinfo/gluster-users</a><br class="">
</blockquote></div><br class=""><br clear="all" class=""><br class=""></div></div><span class="HOEnZb"><font color="#888888" class="">-- <br class=""><div class="m_-7665095754714168145gmail_signature" data-smartmail="gmail_signature"><div dir="ltr" class=""><div class=""><div dir="ltr" class=""><br class=""></div><div class="">~ Atin (atinm)<br class=""></div></div></div></div>
</font></span></div>
</blockquote></div><br class=""><br clear="all" class=""><br class="">-- <br class=""><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr" class=""><div class=""><div dir="ltr" class=""><br class=""></div><div class="">~ Atin (atinm)<br class=""></div></div></div></div>
</div>
</div></blockquote></div><br class=""></div></div></body></html>