<div dir="ltr"><span style="font-size:12.8000001907349px">Hi Atin,</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">Thank you so much for your continual assistance. I am using gluster 3.6.2</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">on both servers  and on some of the clients. I have attached the gluster1</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">logs for your reference. The gluster1  log files are empty and the log.1</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">files are the ones that have data.  I couldnt attach all the files as they</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">exceed the 25 MB limit. Please let me know if there are any other files i</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">could attach to help you understand this better.</span><br style="font-size:12.8000001907349px"><div><span style="font-size:12.8000001907349px"><br></span></div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><div>Thank You Kindly,</div><div>Kaamesh</div><div>Bioinformatician</div><div>Novocraft Technologies Sdn Bhd</div><div><div>C-23A-05, 3 Two Square, Section 19, 46300 Petaling Jaya</div><div>Selangor Darul Ehsan</div><div>Malaysia</div></div><div>Mobile: <a value="+60176562635" style="color:rgb(17,85,204)">+60176562635</a></div><div>Ph: <a value="+60379600541" style="color:rgb(17,85,204)">+60379600541</a></div><div>Fax: <a value="+60379600540" style="color:rgb(17,85,204)">+60379600540</a></div></div></div></div>
<br><div class="gmail_quote">On Fri, Mar 20, 2015 at 12:57 PM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I see there is a crash in the brick log.<br>
<br>
patchset: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank">git.gluster.com/glusterfs.git</a><br>
<br>
signal received: 11<br>
<br>
time of crash: 2015-03-19 06:00:35configuration details:<br>
<br>
argp 1<br>
<br>
backtrace 1<br>
<br>
dlfcn 1<br>
<br>
fdatasync 1<br>
<br>
libpthread 1<br>
<br>
llistxattr 1<br>
<br>
setfsid 1<br>
<br>
spinlock 1<br>
<br>
epoll.h 1<br>
<br>
xattr.h 1<br>
<br>
st_atim.tv_nsec 1<br>
<br>
package-string: glusterfs 3.5.0<br>
<br>
/lib/x86_64-linux-gnu/libc.so.6(+0x321e0)[0x7f027c7031e0]<br>
<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/locks.so(__get_entrylk_count+0x40)[0x7f0277fc5d70]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/locks.so(get_entrylk_count+0x4d)[0x7f0277fc5ddd]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/locks.so(pl_entrylk_xattr_fill+0x19)[0x7f0277fc2df9]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/locks.so(pl_lookup_cbk+0x1d0)[0x7f0277fc3390]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/access-control.so(posix_acl_lookup_cbk+0x12b)[0x7f02781d91fb]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/storage/posix.so(posix_lookup+0x331)[0x7f02788046c1]<br>
/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(default_lookup+0x70)[0x7f027d6d1270]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/access-control.so(posix_acl_lookup+0x1b5)[0x7f02781d72f5]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/features/locks.so(pl_lookup+0x211)[0x7f0277fbd391]<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/performance/io-threads.so(iot_lookup_wrapper+0x140)[0x7f0277da82d0]<br>
/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(call_resume+0x126)[0x7f027d6e5f16]<br>
<br>
/usr/lib/x86_64-linux-gnu/glusterfs/3.5.0/xlator/performance/io-threads.so(iot_worker+0x13e)[0x7f0277da86be]<br>
/lib/x86_64-linux-gnu/libpthread.so.0(+0x6b50)[0x7f027ce5bb50]<br>
<br>
/lib/x86_64-linux-gnu/libc.so.6(clone+0x6d)[0x7f027c7ad70d]<br>
<br>
Pranith/Ravi,<br>
<br>
Could you help Kaamesh for it?<br>
<br>
Also at the glusterd side I see there is some RPC related failures<br>
(Probably a corruption). What&#39;s the gluster version are you using? Is<br>
there any surprising logs at the other node?<br>
<br>
~Atin<br>
<div class="HOEnZb"><div class="h5"><br>
On 03/19/2015 12:58 PM, Kaamesh Kamalaaharan wrote:<br>
&gt; Sorry, forgot to include the attachment<br>
&gt;<br>
&gt; Thank You Kindly,<br>
&gt; Kaamesh<br>
&gt; Bioinformatician<br>
&gt; Novocraft Technologies Sdn Bhd<br>
&gt; C-23A-05, 3 Two Square, Section 19, 46300 Petaling Jaya<br>
&gt; Selangor Darul Ehsan<br>
&gt; Malaysia<br>
&gt; Mobile: <a href="tel:%2B60176562635" value="+60176562635">+60176562635</a><br>
&gt; Ph: <a href="tel:%2B60379600541" value="+60379600541">+60379600541</a><br>
&gt; Fax: <a href="tel:%2B60379600540" value="+60379600540">+60379600540</a><br>
&gt;<br>
&gt; On Thu, Mar 19, 2015 at 2:40 PM, Kaamesh Kamalaaharan &lt;<a href="mailto:kaamesh@novocraft.com">kaamesh@novocraft.com</a><br>
&gt;&gt; wrote:<br>
&gt;<br>
&gt;&gt; Hi Atin, Thanks for the reply. Im not sure which logs are relevant so ill<br>
&gt;&gt; just attach them all in a gz file.<br>
&gt;&gt;<br>
&gt;&gt; I ran a sudo gluster volume start gfsvolume force at  2015-03-19 05:49<br>
&gt;&gt; i hope this helps.<br>
&gt;&gt;<br>
&gt;&gt; Thank You Kindly,<br>
&gt;&gt; Kaamesh<br>
&gt;&gt;<br>
&gt;&gt; On Sun, Mar 15, 2015 at 11:41 PM, Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com">amukherj@redhat.com</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Could you attach the logs for the analysis?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ~Atin<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On 03/13/2015 03:29 PM, Kaamesh Kamalaaharan wrote:<br>
&gt;&gt;&gt;&gt; Hi guys. Ive been using gluster for a while now and despite a few<br>
&gt;&gt;&gt; hiccups,<br>
&gt;&gt;&gt;&gt; i find its a great system to use. One of my more persistent hiccups is<br>
&gt;&gt;&gt; an<br>
&gt;&gt;&gt;&gt; issue with one brick going offline.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; My setup is a 2 brick 2 node setup. my main brick is gfs1 which has not<br>
&gt;&gt;&gt;&gt; given me any problem. gfs2 however keeps going offline. Following<br>
&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/pipermail/gluster-users/2014-June/017583.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/2014-June/017583.html</a><br>
&gt;&gt;&gt;&gt; temporarily fixed the error but  the brick goes offline within the hour.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; This is what i get from my volume status command :<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; sudo gluster volume status<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Status of volume: gfsvolume<br>
&gt;&gt;&gt;&gt;&gt; Gluster process Port Online Pid<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt; Brick gfs1:/export/sda/brick 49153 Y 9760<br>
&gt;&gt;&gt;&gt;&gt; Brick gfs2:/export/sda/brick N/A N 13461<br>
&gt;&gt;&gt;&gt;&gt; NFS Server on localhost 2049 Y 13473<br>
&gt;&gt;&gt;&gt;&gt; Self-heal Daemon on localhost N/A Y 13480<br>
&gt;&gt;&gt;&gt;&gt; NFS Server on gfs1 2049 Y 16166<br>
&gt;&gt;&gt;&gt;&gt; Self-heal Daemon on gfs1 N/A Y 16173<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Task Status of Volume gfsvolume<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt; There are no active volume tasks<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; doing sudo gluster volume start gfsvolume force gives me this:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; sudo gluster volume status<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Status of volume: gfsvolume<br>
&gt;&gt;&gt;&gt;&gt; Gluster process Port Online Pid<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt; Brick gfs1:/export/sda/brick 49153 Y 9760<br>
&gt;&gt;&gt;&gt;&gt; Brick gfs2:/export/sda/brick 49153 Y 13461<br>
&gt;&gt;&gt;&gt;&gt; NFS Server on localhost 2049 Y 13473<br>
&gt;&gt;&gt;&gt;&gt; Self-heal Daemon on localhost N/A Y 13480<br>
&gt;&gt;&gt;&gt;&gt; NFS Server on gfs1 2049 Y 16166<br>
&gt;&gt;&gt;&gt;&gt; Self-heal Daemon on gfs1 N/A Y 16173<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Task Status of Volume gfsvolume<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt; There are no active volume tasks<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; half an hour later and my brick goes down again.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; This is my glustershd.log. I snipped it because the rest of the log is<br>
&gt;&gt;&gt; a<br>
&gt;&gt;&gt;&gt; repeat of the same error<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.951556] I [glusterfsd.c:1959:main]<br>
&gt;&gt;&gt;&gt;&gt; 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version<br>
&gt;&gt;&gt; 3.5.0<br>
&gt;&gt;&gt;&gt;&gt; (/usr/sbin/glusterfs -s localhost --volfile-id gluster/glustershd -p<br>
&gt;&gt;&gt;&gt;&gt; /var/lib/glus<br>
&gt;&gt;&gt;&gt;&gt; terd/glustershd/run/glustershd.pid -l<br>
&gt;&gt;&gt; /var/log/glusterfs/glustershd.log -S<br>
&gt;&gt;&gt;&gt;&gt; /var/run/deac2f873d0ac5b6c3e84b23c4790172.socket --xlator-option<br>
&gt;&gt;&gt;&gt;&gt; *replicate*.node-uuid=adbb7505-3342-4c6d-be3d-75938633612c)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.954173] I [socket.c:3561:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-socket.glusterfsd: SSL support is NOT enabled<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.954236] I [socket.c:3576:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-socket.glusterfsd: using system polling thread<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.954421] I [socket.c:3561:socket_init] 0-glusterfs:<br>
&gt;&gt;&gt;&gt;&gt; SSL support is NOT enabled<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.954443] I [socket.c:3576:socket_init] 0-glusterfs:<br>
&gt;&gt;&gt;&gt;&gt; using system polling thread<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.956731] I [graph.c:254:gf_add_cmdline_options]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: adding option &#39;node-uuid&#39; for volume<br>
&gt;&gt;&gt;&gt;&gt; &#39;gfsvolume-replicate-0&#39; with value<br>
&gt;&gt;&gt; &#39;adbb7505-3342-4c6d-be3d-75938633612c&#39;<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.960210] I<br>
&gt;&gt;&gt; [rpc-clnt.c:972:rpc_clnt_connection_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: setting frame-timeout to 90<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.960288] I [socket.c:3561:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: SSL support is NOT enabled<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.960301] I [socket.c:3576:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: using system polling thread<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961095] I<br>
&gt;&gt;&gt; [rpc-clnt.c:972:rpc_clnt_connection_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: setting frame-timeout to 90<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961134] I [socket.c:3561:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: SSL support is NOT enabled<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961145] I [socket.c:3576:socket_init]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: using system polling thread<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961173] I [client.c:2273:notify]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: parent translators are ready, attempting connect<br>
&gt;&gt;&gt; on<br>
&gt;&gt;&gt;&gt;&gt; transport<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961412] I [client.c:2273:notify]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: parent translators are ready, attempting connect<br>
&gt;&gt;&gt; on<br>
&gt;&gt;&gt;&gt;&gt; transport<br>
&gt;&gt;&gt;&gt;&gt; Final graph:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; +------------------------------------------------------------------------------+<br>
&gt;&gt;&gt;&gt;&gt;   1: volume gfsvolume-client-0<br>
&gt;&gt;&gt;&gt;&gt;   2:     type protocol/client<br>
&gt;&gt;&gt;&gt;&gt;   3:     option remote-host gfs1<br>
&gt;&gt;&gt;&gt;&gt;   4:     option remote-subvolume /export/sda/brick<br>
&gt;&gt;&gt;&gt;&gt;   5:     option transport-type socket<br>
&gt;&gt;&gt;&gt;&gt;   6:     option frame-timeout 90<br>
&gt;&gt;&gt;&gt;&gt;   7:     option ping-timeout 30<br>
&gt;&gt;&gt;&gt;&gt;   8: end-volume<br>
&gt;&gt;&gt;&gt;&gt;   9:<br>
&gt;&gt;&gt;&gt;&gt;  10: volume gfsvolume-client-1<br>
&gt;&gt;&gt;&gt;&gt;  11:     type protocol/client<br>
&gt;&gt;&gt;&gt;&gt;  12:     option remote-host gfs2<br>
&gt;&gt;&gt;&gt;&gt;  13:     option remote-subvolume /export/sda/brick<br>
&gt;&gt;&gt;&gt;&gt;  14:     option transport-type socket<br>
&gt;&gt;&gt;&gt;&gt;  15:     option frame-timeout 90<br>
&gt;&gt;&gt;&gt;&gt;  16:     option ping-timeout 30<br>
&gt;&gt;&gt;&gt;&gt;  17: end-volume<br>
&gt;&gt;&gt;&gt;&gt;  18:<br>
&gt;&gt;&gt;&gt;&gt;  19: volume gfsvolume-replicate-0<br>
&gt;&gt;&gt;&gt;&gt;  20:     type cluster/replicate<br>
&gt;&gt;&gt;&gt;&gt;  21:     option node-uuid adbb7505-3342-4c6d-be3d-75938633612c<br>
&gt;&gt;&gt;&gt;&gt;  22:     option background-self-heal-count 0<br>
&gt;&gt;&gt;&gt;&gt;  23:     option metadata-self-heal on<br>
&gt;&gt;&gt;&gt;&gt;  24:     option data-self-heal on<br>
&gt;&gt;&gt;&gt;&gt;  25:     option entry-self-heal on<br>
&gt;&gt;&gt;&gt;&gt;  26:     option self-heal-daemon on<br>
&gt;&gt;&gt;&gt;&gt;  27:     option data-self-heal-algorithm diff<br>
&gt;&gt;&gt;&gt;&gt;  28:     option quorum-type fixed<br>
&gt;&gt;&gt;&gt;&gt;  29:     option quorum-count 1<br>
&gt;&gt;&gt;&gt;&gt;  30:     option iam-self-heal-daemon yes<br>
&gt;&gt;&gt;&gt;&gt;  31:     subvolumes gfsvolume-client-0 gfsvolume-client-1<br>
&gt;&gt;&gt;&gt;&gt;  32: end-volume<br>
&gt;&gt;&gt;&gt;&gt;  33:<br>
&gt;&gt;&gt;&gt;&gt;  34: volume glustershd<br>
&gt;&gt;&gt;&gt;&gt;  35:     type debug/io-stats<br>
&gt;&gt;&gt;&gt;&gt;  36:     subvolumes gfsvolume-replicate-0<br>
&gt;&gt;&gt;&gt;&gt;  37: end-volume<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; +------------------------------------------------------------------------------+<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.961871] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.962129] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1659:select_server_supported_programs]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: Using Program GlusterFS 3.3, Num (1298437),<br>
&gt;&gt;&gt; Version<br>
&gt;&gt;&gt;&gt;&gt; (330)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.962344] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1456:client_setvolume_cbk] 0-gfsvolume-client-1:<br>
&gt;&gt;&gt;&gt;&gt; Connected to <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a>, attached to remote volume<br>
&gt;&gt;&gt;&gt;&gt; &#39;/export/sda/brick&#39;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.962363] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1468:client_setvolume_cbk] 0-gfsvolume-client-1:<br>
&gt;&gt;&gt; Server<br>
&gt;&gt;&gt;&gt;&gt; and Client lk-version numbers are not same, reopening the fds<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.962416] I [afr-common.c:3922:afr_notify]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Subvolume &#39;gfsvolume-client-1&#39; came back up;<br>
&gt;&gt;&gt; going<br>
&gt;&gt;&gt;&gt;&gt; online.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.962487] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:450:client_set_lk_version_cbk]<br>
&gt;&gt;&gt; 0-gfsvolume-client-1:<br>
&gt;&gt;&gt;&gt;&gt; Server lk version = 1<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.963109] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heald.c:1479:afr_find_child_position]<br>
&gt;&gt;&gt; 0-gfsvolume-replicate-0:<br>
&gt;&gt;&gt;&gt;&gt; getxattr failed on gfsvolume-client-0 - (Transport endpoint is not<br>
&gt;&gt;&gt;&gt;&gt; connected)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.963502] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heald.c:1687:afr_dir_exclusive_crawl]<br>
&gt;&gt;&gt; 0-gfsvolume-replicate-0:<br>
&gt;&gt;&gt;&gt;&gt; Another crawl is in progress for gfsvolume-client-1<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.967478] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:66af7dc1-a2e6-4919-9ea1-ad75fe2d40b9&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.968550] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:8a7cfa39-9a12-43cd-a9f3-9142b7403d0e&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.969663] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:3762920e-9631-4a52-9a9f-4f04d09e8d84&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.974345] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:66af7dc1-a2e6-4919-9ea1-ad75fe2d40b9&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.975657] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:8a7cfa39-9a12-43cd-a9f3-9142b7403d0e&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:41.977020] E<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2364:afr_sh_post_nonblocking_entry_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: Non Blocking entrylks failed for<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:3762920e-9631-4a52-9a9f-4f04d09e8d84&gt;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.307219] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.307748] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1659:select_server_supported_programs]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-0: Using Program GlusterFS 3.3, Num (1298437),<br>
&gt;&gt;&gt; Version<br>
&gt;&gt;&gt;&gt;&gt; (330)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.448377] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1456:client_setvolume_cbk] 0-gfsvolume-client-0:<br>
&gt;&gt;&gt;&gt;&gt; Connected to <a href="http://172.20.20.21:49153" target="_blank">172.20.20.21:49153</a>, attached to remote volume<br>
&gt;&gt;&gt;&gt;&gt; &#39;/export/sda/brick&#39;.<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.448418] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:1468:client_setvolume_cbk] 0-gfsvolume-client-0:<br>
&gt;&gt;&gt; Server<br>
&gt;&gt;&gt;&gt;&gt; and Client lk-version numbers are not same, reopening the fds<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.448713] I<br>
&gt;&gt;&gt;&gt;&gt; [client-handshake.c:450:client_set_lk_version_cbk]<br>
&gt;&gt;&gt; 0-gfsvolume-client-0:<br>
&gt;&gt;&gt;&gt;&gt; Server lk version = 1<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.515112] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-common.c:2859:afr_log_self_heal_completion_status]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0:  foreground data self heal  is successfully<br>
&gt;&gt;&gt;&gt;&gt; completed,  data self heal from gfsvolume-client-0  to sinks<br>
&gt;&gt;&gt;&gt;&gt;  gfsvolume-client-1, with 892928 bytes on gfsvolume-client-0, 892928<br>
&gt;&gt;&gt; bytes<br>
&gt;&gt;&gt;&gt;&gt; on gfsvolume-client-1,  data - Pending matrix:  [ [ 0 155762 ] [ 0 0 ]<br>
&gt;&gt;&gt; ]<br>
&gt;&gt;&gt;&gt;&gt;  on &lt;gfid:123536cc-c34b-43d7-b0c6-cf80eefa8322&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.809988] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-common.c:2859:afr_log_self_heal_completion_status]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0:  foreground data self heal  is successfully<br>
&gt;&gt;&gt;&gt;&gt; completed,  data self heal from gfsvolume-client-0  to sinks<br>
&gt;&gt;&gt;&gt;&gt;  gfsvolume-client-1, with 15998976 bytes on gfsvolume-client-0,<br>
&gt;&gt;&gt; 15998976<br>
&gt;&gt;&gt;&gt;&gt; bytes on gfsvolume-client-1,  data - Pending matrix:  [ [ 0 36506 ] [<br>
&gt;&gt;&gt; 0 0 ]<br>
&gt;&gt;&gt;&gt;&gt; ]  on &lt;gfid:b6dc0e74-31bf-469a-b629-ee51ab4cf729&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.946050] W<br>
&gt;&gt;&gt;&gt;&gt; [client-rpc-fops.c:574:client3_3_readlink_cbk] 0-gfsvolume-client-0:<br>
&gt;&gt;&gt; remote<br>
&gt;&gt;&gt;&gt;&gt; operation failed: Stale NFS file handle<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.946097] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:1538:afr_sh_entry_impunge_readlink_sink_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: readlink of<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:66af7dc1-a2e6-4919-9ea1-ad75fe2d40b9&gt;/PB2_corrected.fastq on<br>
&gt;&gt;&gt;&gt;&gt; gfsvolume-client-1 failed (Stale NFS file handle)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:44.951370] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:2321:afr_sh_entry_fix] 0-gfsvolume-replicate-0:<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:8a7cfa39-9a12-43cd-a9f3-9142b7403d0e&gt;: Performing conservative<br>
&gt;&gt;&gt; merge<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:45.149995] W<br>
&gt;&gt;&gt;&gt;&gt; [client-rpc-fops.c:574:client3_3_readlink_cbk] 0-gfsvolume-client-0:<br>
&gt;&gt;&gt; remote<br>
&gt;&gt;&gt;&gt;&gt; operation failed: Stale NFS file handle<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:45.150036] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:1538:afr_sh_entry_impunge_readlink_sink_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: readlink of<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:8a7cfa39-9a12-43cd-a9f3-9142b7403d0e&gt;/Rscript on<br>
&gt;&gt;&gt; gfsvolume-client-1<br>
&gt;&gt;&gt;&gt;&gt; failed (Stale NFS file handle)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:45.214253] W<br>
&gt;&gt;&gt;&gt;&gt; [client-rpc-fops.c:574:client3_3_readlink_cbk] 0-gfsvolume-client-0:<br>
&gt;&gt;&gt; remote<br>
&gt;&gt;&gt;&gt;&gt; operation failed: Stale NFS file handle<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:09:45.214295] I<br>
&gt;&gt;&gt;&gt;&gt; [afr-self-heal-entry.c:1538:afr_sh_entry_impunge_readlink_sink_cbk]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-replicate-0: readlink of<br>
&gt;&gt;&gt;&gt;&gt; &lt;gfid:3762920e-9631-4a52-9a9f-4f04d09e8d84&gt;/ananas_d_tmp on<br>
&gt;&gt;&gt;&gt;&gt; gfsvolume-client-1 failed (Stale NFS file handle)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:27.324856] W [socket.c:522:__socket_rwv]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: readv on <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a> failed (No data<br>
&gt;&gt;&gt;&gt;&gt; available)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:27.324961] I [client.c:2208:client_rpc_notify]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: disconnected from <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a>. Client<br>
&gt;&gt;&gt;&gt;&gt; process will keep trying to connect to glusterd until brick&#39;s port is<br>
&gt;&gt;&gt;&gt;&gt; available<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:37.981531] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:37.981781] E [socket.c:2161:socket_connect_finish]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: connection to <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a> failed<br>
&gt;&gt;&gt; (Connection<br>
&gt;&gt;&gt;&gt;&gt; refused)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:41.982125] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:41.982353] E [socket.c:2161:socket_connect_finish]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: connection to <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a> failed<br>
&gt;&gt;&gt; (Connection<br>
&gt;&gt;&gt;&gt;&gt; refused)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:45.982693] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:45.982926] E [socket.c:2161:socket_connect_finish]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: connection to <a href="http://172.20.20.22:49153" target="_blank">172.20.20.22:49153</a> failed<br>
&gt;&gt;&gt; (Connection<br>
&gt;&gt;&gt;&gt;&gt; refused)<br>
&gt;&gt;&gt;&gt;&gt; [2015-03-13 02:13:49.983309] I [rpc-clnt.c:1685:rpc_clnt_reconfig]<br>
&gt;&gt;&gt;&gt;&gt; 0-gfsvolume-client-1: changing port to 49153 (from 0)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Any help would be greatly appreciated.<br>
&gt;&gt;&gt;&gt; Thank You Kindly,<br>
&gt;&gt;&gt;&gt; Kaamesh<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
<br>
</div></div><span class="HOEnZb"><font color="#888888">--<br>
~Atin<br>
</font></span></blockquote></div><br></div>