<div dir="ltr"><div><div><div><div><div>Hi Gaurav,<br><br></div>Thanks for your prompt reply.<br><br></div>I&#39;ll provide the required log to you.<br><br></div>As a workaround you suggested that restart the glusterd service. Could you please tell me the point where I can do this?<br><br></div>Regards,<br></div>Abhishek<br><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Feb 19, 2016 at 6:11 PM, Gaurav Garg <span dir="ltr">&lt;<a href="mailto:ggarg@redhat.com" target="_blank">ggarg@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Abhishek,<br>
<br>
Peer status output looks interesting where it have stale entry, technically it should not happen. Here few thing need to ask<br>
<br>
Did you perform any manual operation with GlusterFS configuration file which resides in /var/lib/glusterd/* folder.<br>
<br>
Can you provide output of &quot;ls /var/lib/glusterd/peers&quot;  from both of your nodes.<br>
<br>
Could you provide output of #gluster peer status command when 2nd node is down<br>
<br>
Can you provide output of #gluster volume info command<br>
<br>
Can you provide full logs details of cmd_history.log and etc-glusterfs-glusterd.vol.log from both the nodes.<br>
<br>
<br>
You can restart your glusterd as of now as a workaround but we need to analysis this issue further.<br>
<span class=""><br>
Thanks,<br>
Gaurav<br>
<br>
----- Original Message -----<br>
From: &quot;ABHISHEK PALIWAL&quot; &lt;<a href="mailto:abhishpaliwal@gmail.com">abhishpaliwal@gmail.com</a>&gt;<br>
To: &quot;Gaurav Garg&quot; &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt;<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
</span><span class="">Sent: Friday, February 19, 2016 5:27:21 PM<br>
Subject: Re: [Gluster-users] Issue in Adding/Removing the gluster node<br>
<br>
Hi Gaurav,<br>
<br>
</span><div><div class="h5">After the failure of add-brick following is outcome &quot;gluster peer status&quot;<br>
command<br>
<br>
Number of Peers: 2<br>
<br>
Hostname: 10.32.1.144<br>
Uuid: bbe2a458-ad3d-406d-b233-b6027c12174e<br>
State: Peer in Cluster (Connected)<br>
<br>
Hostname: 10.32.1.144<br>
Uuid: bbe2a458-ad3d-406d-b233-b6027c12174e<br>
State: Peer in Cluster (Connected)<br>
<br>
Regards,<br>
Abhishek<br>
<br>
On Fri, Feb 19, 2016 at 5:21 PM, ABHISHEK PALIWAL &lt;<a href="mailto:abhishpaliwal@gmail.com">abhishpaliwal@gmail.com</a>&gt;<br>
wrote:<br>
<br>
&gt; Hi Gaurav,<br>
&gt;<br>
&gt; Both are the board connect through the backplane using ethernet.<br>
&gt;<br>
&gt; Even this inconsistency also occurs when I am trying to bringing back the<br>
&gt; node in slot. Means some time add-brick executes without failure but some<br>
&gt; time following error occurs.<br>
&gt;<br>
&gt; volume add-brick c_glusterfs replica 2 10.32.1.144:/opt/lvmdir/c2/brick<br>
&gt; force : FAILED : Another transaction is in progress for c_glusterfs. Please<br>
&gt; try again after sometime.<br>
&gt;<br>
&gt;<br>
&gt; You can also see the attached logs for add-brick failure scenario.<br>
&gt;<br>
&gt; Please let me know if you need more logs.<br>
&gt;<br>
&gt; Regards,<br>
&gt; Abhishek<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Feb 19, 2016 at 5:03 PM, Gaurav Garg &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Hi Abhishek,<br>
&gt;&gt;<br>
&gt;&gt; How are you connecting two board, and how are you removing it manually<br>
&gt;&gt; that need to know because if you are removing your 2nd board from the<br>
&gt;&gt; cluster (abrupt shutdown) then you can&#39;t perform remove brick operation in<br>
&gt;&gt; 2nd node from first node and its happening successfully in your case. could<br>
&gt;&gt; you ensure your network connection once again while removing and bringing<br>
&gt;&gt; back your node again.<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt; Gaurav<br>
&gt;&gt;<br>
</div></div>&gt;&gt; ------------------------------<br>
&gt;&gt; *From: *&quot;ABHISHEK PALIWAL&quot; &lt;<a href="mailto:abhishpaliwal@gmail.com">abhishpaliwal@gmail.com</a>&gt;<br>
&gt;&gt; *To: *&quot;Gaurav Garg&quot; &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt;<br>
&gt;&gt; *Cc: *<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
&gt;&gt; *Sent: *Friday, February 19, 2016 3:36:21 PM<br>
&gt;&gt;<br>
&gt;&gt; *Subject: *Re: [Gluster-users] Issue in Adding/Removing the gluster node<br>
<div class="HOEnZb"><div class="h5">&gt;&gt;<br>
&gt;&gt; Hi Gaurav,<br>
&gt;&gt;<br>
&gt;&gt; Thanks for reply<br>
&gt;&gt;<br>
&gt;&gt; 1. Here, I removed the board manually here but this time it works fine<br>
&gt;&gt;<br>
&gt;&gt; [2016-02-18 10:03:40.601472]  : volume remove-brick c_glusterfs replica 1<br>
&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : SUCCESS<br>
&gt;&gt; [2016-02-18 10:03:40.885973]  : peer detach 10.32.1.144 : SUCCESS<br>
&gt;&gt;<br>
&gt;&gt; Yes this time board is reachable but how? don&#39;t know because board is<br>
&gt;&gt; detached.<br>
&gt;&gt;<br>
&gt;&gt; 2. Here, I attached the board this time its works fine in add-bricks<br>
&gt;&gt;<br>
&gt;&gt; 2016-02-18 10:03:42.065038]  : peer probe 10.32.1.144 : SUCCESS<br>
&gt;&gt; [2016-02-18 10:03:44.563546]  : volume add-brick c_glusterfs replica 2<br>
&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : SUCCESS<br>
&gt;&gt;<br>
&gt;&gt; 3.Here, again I removed the board this time failed occur<br>
&gt;&gt;<br>
&gt;&gt; [2016-02-18 10:37:02.816089]  : volume remove-brick c_glusterfs replica 1<br>
&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : FAILED : Incorrect brick<br>
&gt;&gt; 10.32.1.144:/opt<br>
&gt;&gt; /lvmdir/c2/brick for volume c_glusterfs<br>
&gt;&gt;<br>
&gt;&gt; but here board is not reachable.<br>
&gt;&gt;<br>
&gt;&gt; why this inconsistency is there while doing the same step multiple time.<br>
&gt;&gt;<br>
&gt;&gt; Hope you are getting my point.<br>
&gt;&gt;<br>
&gt;&gt; Regards,<br>
&gt;&gt; Abhishek<br>
&gt;&gt;<br>
&gt;&gt; On Fri, Feb 19, 2016 at 3:25 PM, Gaurav Garg &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Abhishek,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; when sometime its working fine means 2nd board network connection is<br>
&gt;&gt;&gt; reachable to first node. you can conform this by executing same #gluster<br>
&gt;&gt;&gt; peer status command.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thanks,<br>
&gt;&gt;&gt; Gaurav<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ----- Original Message -----<br>
&gt;&gt;&gt; From: &quot;ABHISHEK PALIWAL&quot; &lt;<a href="mailto:abhishpaliwal@gmail.com">abhishpaliwal@gmail.com</a>&gt;<br>
&gt;&gt;&gt; To: &quot;Gaurav Garg&quot; &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt;<br>
&gt;&gt;&gt; Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
&gt;&gt;&gt; Sent: Friday, February 19, 2016 3:12:22 PM<br>
&gt;&gt;&gt; Subject: Re: [Gluster-users] Issue in Adding/Removing the gluster node<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hi Gaurav,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Yes, you are right actually I am force fully detaching the node from the<br>
&gt;&gt;&gt; slave and when we removed the board it disconnected from the another<br>
&gt;&gt;&gt; board.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; but my question is I am doing this process multiple time some time it<br>
&gt;&gt;&gt; works<br>
&gt;&gt;&gt; fine but some time it gave these errors.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; you can see the following logs from cmd_history.log file<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [2016-02-18 10:03:34.497996]  : volume set c_glusterfs nfs.disable on :<br>
&gt;&gt;&gt; SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:34.915036]  : volume start c_glusterfs force : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:40.250326]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:40.273275]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:40.601472]  : volume remove-brick c_glusterfs replica 1<br>
&gt;&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:40.885973]  : peer detach 10.32.1.144 : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:42.065038]  : peer probe 10.32.1.144 : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:03:44.563546]  : volume add-brick c_glusterfs replica 2<br>
&gt;&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:30:53.297415]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:30:53.313096]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:37:02.748714]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:37:02.762091]  : volume status : SUCCESS<br>
&gt;&gt;&gt; [2016-02-18 10:37:02.816089]  : volume remove-brick c_glusterfs replica 1<br>
&gt;&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick force : FAILED : Incorrect brick<br>
&gt;&gt;&gt; 10.32.1.144:/opt/lvmdir/c2/brick for volume c_glusterfs<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Fri, Feb 19, 2016 at 3:05 PM, Gaurav Garg &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; Hi Abhishek,<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Seems your peer 10.32.1.144 have disconnected while doing remove brick.<br>
&gt;&gt;&gt; &gt; see the below logs in glusterd:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; [2016-02-18 10:37:02.816009] E [MSGID: 106256]<br>
&gt;&gt;&gt; &gt; [glusterd-brick-ops.c:1047:__glusterd_handle_remove_brick]<br>
&gt;&gt;&gt; 0-management:<br>
&gt;&gt;&gt; &gt; Incorrect brick 10.32.1.144:/opt/lvmdir/c2/brick for volume<br>
&gt;&gt;&gt; c_glusterfs<br>
&gt;&gt;&gt; &gt; [Invalid argument]<br>
&gt;&gt;&gt; &gt; [2016-02-18 10:37:02.816061] E [MSGID: 106265]<br>
&gt;&gt;&gt; &gt; [glusterd-brick-ops.c:1088:__glusterd_handle_remove_brick]<br>
&gt;&gt;&gt; 0-management:<br>
&gt;&gt;&gt; &gt; Incorrect brick 10.32.1.144:/opt/lvmdir/c2/brick for volume<br>
&gt;&gt;&gt; c_glusterfs<br>
&gt;&gt;&gt; &gt; The message &quot;I [MSGID: 106004]<br>
&gt;&gt;&gt; &gt; [glusterd-handler.c:5065:__glusterd_peer_rpc_notify] 0-management: Peer<br>
&gt;&gt;&gt; &gt; &lt;10.32.1.144&gt; (&lt;6adf57dc-c619-4e56-ae40-90e6aef75fe9&gt;), in state &lt;Peer<br>
&gt;&gt;&gt; in<br>
&gt;&gt;&gt; &gt; Cluster&gt;, has disconnected from glusterd.&quot; repeated 25 times between<br>
&gt;&gt;&gt; &gt; [2016-02-18 10:35:43.131945] and [2016-02-18 10:36:58.160458]<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; If you are facing the same issue now, could you paste your # gluster<br>
&gt;&gt;&gt; peer<br>
&gt;&gt;&gt; &gt; status     command output here.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thanks,<br>
&gt;&gt;&gt; &gt; ~Gaurav<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; ----- Original Message -----<br>
&gt;&gt;&gt; &gt; From: &quot;ABHISHEK PALIWAL&quot; &lt;<a href="mailto:abhishpaliwal@gmail.com">abhishpaliwal@gmail.com</a>&gt;<br>
&gt;&gt;&gt; &gt; To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
&gt;&gt;&gt; &gt; Sent: Friday, February 19, 2016 2:46:35 PM<br>
&gt;&gt;&gt; &gt; Subject: [Gluster-users] Issue in Adding/Removing the gluster node<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Hi,<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; I am working on two board setup connecting to each other. Gluster<br>
&gt;&gt;&gt; version<br>
&gt;&gt;&gt; &gt; 3.7.6 is running and added two bricks in replica 2 mode but when I<br>
&gt;&gt;&gt; manually<br>
&gt;&gt;&gt; &gt; removed (detach) the one board from the setup I am getting the<br>
&gt;&gt;&gt; following<br>
&gt;&gt;&gt; &gt; error.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; volume remove-brick c_glusterfs replica 1 <a href="http://10.32.1.144" rel="noreferrer" target="_blank">10.32.1.144</a>:<br>
&gt;&gt;&gt; /opt/lvmdir/c2/brick<br>
&gt;&gt;&gt; &gt; force : FAILED : Incorrect brick 10.32.1.144:/opt/lvmdir/c2/brick for<br>
&gt;&gt;&gt; &gt; volume c_glusterfs<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Please find the logs file as an attachment.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Regards,<br>
&gt;&gt;&gt; &gt; Abhishek<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt; &gt; Gluster-users mailing list<br>
&gt;&gt;&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Regards<br>
&gt;&gt;&gt; Abhishek Paliwal<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Regards<br>
&gt;&gt; Abhishek Paliwal<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
--<br>
<br>
<br>
<br>
<br>
Regards<br>
Abhishek Paliwal<br>
</div></div></blockquote></div><br><br></div></div>