<div dir="ltr">And 3. In case 2 doesn&#39;t work, please provide the glusterd log files from gl1 &amp; gl5<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Dec 13, 2016 at 9:16 PM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>1. Could you mention which gluster version are you running with?<br></div>2. Does restarting glusterd instance on gl1 &amp; gl5 solves the issue (after removing the volume-id xattr from the bricks) ?<br></div><div class="gmail_extra"><div><div class="h5"><br><div class="gmail_quote">On Tue, Dec 13, 2016 at 8:56 PM, Cedric Lemarchand <span dir="ltr">&lt;<a href="mailto:yipikai7@gmail.com" target="_blank">yipikai7@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello,<br>
<br>
When I try to add 3 bricks to a working cluster composed of 3 nodes / 3 bricks in dispersed mode 2+1, it fails like this :<br>
<br>
root@gl1:~# gluster volume add-brick vol1 gl4:/data/br1 gl5:/data/br1 gl6:/data/br1<br>
volume add-brick: failed: Pre Validation failed on gl4. Host gl5 not connected<br>
<br>
However all peers are connected and there aren&#39;t networking issues :<br>
<br>
root@gl1:~# gluster peer status<br>
Number of Peers: 5<br>
<br>
Hostname: gl2<br>
Uuid: 616f100f-a3f4-46e4-b161-ee5db5<wbr>a60e26<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl3<br>
Uuid: acb828b8-f4b3-42ab-a9d2-b3e7b9<wbr>17dc9a<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl4<br>
Uuid: 813ad056-5e84-4fdb-ac13-38d24c<wbr>748bc4<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl5<br>
Uuid: a7933aeb-b08b-4ebb-a797-b8ecbe<wbr>5a03c6<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl6<br>
Uuid: 63c9a6c1-0adf-4cf5-af7b-b28a60<wbr>911c99<br>
State: Peer in Cluster (Connected)<br>
 :<br>
<br>
When I try a second time, the error is different :<br>
<br>
root@gl1:~# gluster volume add-brick vol1 gl4:/data/br1 gl5:/data/br1 gl6:/data/br1<br>
volume add-brick: failed: Pre Validation failed on gl5. /data/br1 is already part of a volume<br>
Pre Validation failed on gl6. /data/br1 is already part of a volume<br>
Pre Validation failed on gl4. /data/br1 is already part of a volume<br>
<br>
It seems the previous try, even if it has failed, have created the gluster attributes on file system as shown by attr on gl4/5/6 :<br>
<br>
Attribute &quot;glusterfs.volume-id&quot; has a 16 byte value for /data/br1<br>
<br>
I already purge gluster and reformat brick on gl4/5/6 but the issue persist, any ideas ? did I miss something ?<br>
<br>
<br>
Some informations :<br>
<br>
root@gl1:~# gluster volume info<br>
<br>
Volume Name: vol1<br>
Type: Disperse<br>
Volume ID: bb563884-0e2a-4757-9fd5-cb851b<wbr>a113c3<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 1 x (2 + 1) = 3<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: gl1:/data/br1<br>
Brick2: gl2:/data/br1<br>
Brick3: gl3:/data/br1<br>
Options Reconfigured:<br>
features.scrub-freq: hourly<br>
features.scrub: Inactive<br>
features.bitrot: off<br>
cluster.disperse-self-heal-dae<wbr>mon: enable<br>
transport.address-family: inet<br>
performance.readdir-ahead: on<br>
nfs.disable: on, I have the following error :<br>
<br>
root@gl1:~# gluster volume status<br>
Status of volume: vol1<br>
Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
Brick gl1:/data/br1                         49152     0          Y       23403<br>
Brick gl2:/data/br1                         49152     0          Y       14545<br>
Brick gl3:/data/br1                         49152     0          Y       11348<br>
Self-heal Daemon on localhost               N/A       N/A        Y       24766<br>
Self-heal Daemon on gl4                     N/A       N/A        Y       1087<br>
Self-heal Daemon on gl5                     N/A       N/A        Y       1080<br>
Self-heal Daemon on gl3                     N/A       N/A        Y       12321<br>
Self-heal Daemon on gl2                     N/A       N/A        Y       15496<br>
Self-heal Daemon on gl6                     N/A       N/A        Y       1091<br>
<br>
Task Status of Volume vol1<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
There are no active volume tasks<br>
<br>
root@gl1:~# gluster volume info<br>
<br>
Volume Name: vol1<br>
Type: Disperse<br>
Volume ID: bb563884-0e2a-4757-9fd5-cb851b<wbr>a113c3<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 1 x (2 + 1) = 3<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: gl1:/data/br1<br>
Brick2: gl2:/data/br1<br>
Brick3: gl3:/data/br1<br>
Options Reconfigured:<br>
features.scrub-freq: hourly<br>
features.scrub: Inactive<br>
features.bitrot: off<br>
cluster.disperse-self-heal-dae<wbr>mon: enable<br>
transport.address-family: inet<br>
performance.readdir-ahead: on<br>
nfs.disable: on<br>
<br>
root@gl1:~# gluster peer status<br>
Number of Peers: 5<br>
<br>
Hostname: gl2<br>
Uuid: 616f100f-a3f4-46e4-b161-ee5db5<wbr>a60e26<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl3<br>
Uuid: acb828b8-f4b3-42ab-a9d2-b3e7b9<wbr>17dc9a<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl4<br>
Uuid: 813ad056-5e84-4fdb-ac13-38d24c<wbr>748bc4<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl5<br>
Uuid: a7933aeb-b08b-4ebb-a797-b8ecbe<wbr>5a03c6<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: gl6<br>
Uuid: 63c9a6c1-0adf-4cf5-af7b-b28a60<wbr>911c99<br>
State: Peer in Cluster (Connected)<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman<wbr>/listinfo/gluster-users</a><br>
</blockquote></div><br><br clear="all"><br></div></div><span class="HOEnZb"><font color="#888888">-- <br><div class="m_-7665095754714168145gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><br></div><div>~ Atin (atinm)<br></div></div></div></div>
</font></span></div>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><br></div><div>~ Atin (atinm)<br></div></div></div></div>
</div>