<div dir="ltr">Sorry for the delay... they joys of multiple proverbial fires at once. In /var/log/messages I found this for our most recent crash:<div><br></div><div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: pending frames:</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: patchset: git://<a href="http://git.gluster.com/glusterfs.git">git.gluster.com/glusterfs.git</a></font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: signal received: 6</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: time of crash:</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: 2015-10-03 04:26:21</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: configuration details:</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: argp 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: backtrace 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: dlfcn 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: libpthread 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: llistxattr 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: setfsid 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: spinlock 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: epoll.h 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: xattr.h 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: st_atim.tv_nsec 1</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: package-string: glusterfs 3.7.4</font></div><div><font face="monospace, monospace">Oct  3 00:26:21 eapps-gluster01 etc-glusterfs-glusterd.vol[36992]: ---------</font></div></div><div><br></div><div><br></div><div>I have posted etc-glusterfs-glusterd.vol.log to <a href="http://pastebin.com/Pzq1j5J3">http://pastebin.com/Pzq1j5J3</a>. I also put the core file and an sosreport on my web server for you but don&#39;t want to leave them there for long so I&#39;d appreciate it if you&#39;d let me know once you get them. They are at the following url&#39;s:</div><div><a href="http://www.westga.edu/~gliverma/tmp-files/core.36992">http://www.westga.edu/~gliverma/tmp-files/core.36992</a></div><a href="http://www.westga.edu/~gliverma/tmp-files/sosreport-gliverman.gluster-crashing-20151006101239.tar.xz">http://www.westga.edu/~gliverma/tmp-files/sosreport-gliverman.gluster-crashing-20151006101239.tar.xz</a><div><a href="http://www.westga.edu/~gliverma/tmp-files/sosreport-gliverman.gluster-crashing-20151006101239.tar.xz.md5">http://www.westga.edu/~gliverma/tmp-files/sosreport-gliverman.gluster-crashing-20151006101239.tar.xz.md5</a><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div>Thanks again for the help!</div><div class="gmail_extra"><div><div class="gmail_signature"><div dir="ltr"><div dir="ltr"><div style="color:rgb(51,102,255);font-family:tahoma,sans-serif"><font size="4"><b>Gene Liverman</b></font></div><div style="font-family:tahoma,sans-serif">Systems Integration Architect</div><div style="font-family:tahoma,sans-serif">Information Technology Services</div><div style="font-family:tahoma,sans-serif">University of West Georgia</div><div style="font-family:tahoma,sans-serif"><a href="mailto:gliverma@westga.edu" target="_blank">gliverma@westga.edu</a></div><div style="font-family:tahoma,sans-serif"><br></div><div style="font-family:tahoma,sans-serif">ITS: Making Technology Work for You!</div><div style="font-family:tahoma,sans-serif"><br><img src="http://www.westga.edu/assetsDept/ucm/e-sig_wolves.png"><br></div><div style="font-family:tahoma,sans-serif"><br></div></div></div></div></div>
<br><div class="gmail_quote">On Fri, Oct 2, 2015 at 11:18 AM, Gaurav Garg <span dir="ltr">&lt;<a href="mailto:ggarg@redhat.com" target="_blank">ggarg@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">&gt;&gt; Pulling those logs now but how do I generate the core file you are asking<br>
for?<br>
<br>
</span>When there is crash then core file automatically generated based on your *ulimit* set option. you can find location of core file in your root or current working directory or where ever you have set your core dump file location. core file gives you information regarding crash, where exactly crash happened.<br>
you can find appropriate core file by looking at crash time in glusterd log&#39;s by searching &quot;crash&quot; keyword. you can also paste few line&#39;s just above latest &quot;crash&quot; keyword in glusterd logs.<br>
<br>
Just for your curiosity if you willing to look where it crash then you can debug it by #gdb -c &lt;location of core file&gt; glusterd<br>
<br>
Thank you...<br>
<span class=""><br>
Regards,<br>
Gaurav<br>
<br>
----- Original Message -----<br>
From: &quot;Gene Liverman&quot; &lt;<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a>&gt;<br>
</span><span class="">To: &quot;Gaurav Garg&quot; &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt;<br>
Cc: &quot;gluster-users&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Sent: Friday, October 2, 2015 8:28:49 PM<br>
Subject: Re: [Gluster-users] glusterd crashing<br>
<br>
</span><span class="">Pulling those logs now but how do I generate the core file you are asking<br>
for?<br>
<br>
<br>
<br>
<br>
<br>
--<br>
</span>*Gene Liverman*<br>
<span class="im HOEnZb">Systems Integration Architect<br>
Information Technology Services<br>
University of West Georgia<br>
<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a><br>
<a href="tel:678.839.5492" value="+16788395492">678.839.5492</a><br>
<br>
ITS: Making Technology Work for You!<br>
<br>
<br>
<br>
<br>
</span><div class="HOEnZb"><div class="h5">On Fri, Oct 2, 2015 at 2:25 AM, Gaurav Garg &lt;<a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a>&gt; wrote:<br>
<br>
&gt; Hi Gene,<br>
&gt;<br>
&gt; you have paste glustershd log. we asked you to paste glusterd log.<br>
&gt; glusterd and glustershd both are different process. with this information<br>
&gt; we can&#39;t find out why your glusterd crashed. could you paste *glusterd*<br>
&gt; logs (/var/log/glusterfs/usr-local-etc-glusterfs-glusterd.vol.log*) in<br>
&gt; pastebin (not in this mail thread) and give the link of pastebin in this<br>
&gt; mail thread. Can you also attach core file or you can paste backtrace of<br>
&gt; that core dump file.<br>
&gt; It will be great if you give us sos report of the node where the crash<br>
&gt; happen.<br>
&gt;<br>
&gt; Thanx,<br>
&gt;<br>
&gt; ~Gaurav<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: &quot;Gene Liverman&quot; &lt;<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a>&gt;<br>
&gt; To: &quot;gluster-users&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt; Sent: Friday, October 2, 2015 4:47:00 AM<br>
&gt; Subject: Re: [Gluster-users] glusterd crashing<br>
&gt;<br>
&gt; Sorry for the delay. Here is what&#39;s installed:<br>
&gt; # rpm -qa | grep gluster<br>
&gt; glusterfs-geo-replication-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-client-xlators-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-libs-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-api-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-fuse-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-server-3.7.4-2.el6.x86_64<br>
&gt; glusterfs-cli-3.7.4-2.el6.x86_64<br>
&gt;<br>
&gt; The cmd_history.log file is attached.<br>
&gt; In gluster.log I have filtered out a bunch of lines like the one below due<br>
&gt; to make them more readable. I had a node down for multiple days due to<br>
&gt; maintenance and another one went down due to a hardware failure during that<br>
&gt; time too.<br>
&gt; [2015-10-01 00:16:09.643631] W [MSGID: 114031]<br>
&gt; [client-rpc-fops.c:2971:client3_3_lookup_cbk] 0-gv0-client-0: remote<br>
&gt; operation failed. Path: &lt;gfid:31f17f8c-6c96-4440-88c0-f813b3c8d364&gt;<br>
&gt; (31f17f8c-6c96-4440-88c0-f813b3c8d364) [No such file or directory]<br>
&gt;<br>
&gt; I also filtered out a boat load of self heal lines like these two:<br>
&gt; [2015-10-01 15:14:14.851015] I [MSGID: 108026]<br>
&gt; [afr-self-heal-metadata.c:56:__afr_selfheal_metadata_do] 0-gv0-replicate-0:<br>
&gt; performing metadata selfheal on f78a47db-a359-430d-a655-1d217eb848c3<br>
&gt; [2015-10-01 15:14:14.856392] I [MSGID: 108026]<br>
&gt; [afr-self-heal-common.c:651:afr_log_selfheal] 0-gv0-replicate-0: Completed<br>
&gt; metadata selfheal on f78a47db-a359-430d-a655-1d217eb848c3. source=0 sinks=1<br>
&gt;<br>
&gt;<br>
&gt; [root@eapps-gluster01 glusterfs]# cat glustershd.log |grep -v &#39;remote<br>
&gt; operation failed&#39; |grep -v &#39;self-heal&#39;<br>
&gt; [2015-09-27 08:46:56.893125] E [rpc-clnt.c:201:call_bail] 0-glusterfs:<br>
&gt; bailing out frame type(GlusterFS Handshake) op(GETSPEC(2)) xid = 0x6 sent =<br>
&gt; 2015-09-27 08:16:51.742731. timeout = 1800 for <a href="http://127.0.0.1:24007" rel="noreferrer" target="_blank">127.0.0.1:24007</a><br>
&gt; [2015-09-28 12:54:17.524924] W [socket.c:588:__socket_rwv] 0-glusterfs:<br>
&gt; readv on <a href="http://127.0.0.1:24007" rel="noreferrer" target="_blank">127.0.0.1:24007</a> failed (Connection reset by peer)<br>
&gt; [2015-09-28 12:54:27.844374] I [glusterfsd-mgmt.c:1512:mgmt_getspec_cbk]<br>
&gt; 0-glusterfs: No change in volfile, continuing<br>
&gt; [2015-09-28 12:57:03.485027] W [socket.c:588:__socket_rwv] 0-gv0-client-2:<br>
&gt; readv on <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection reset by peer)<br>
&gt; [2015-09-28 12:57:05.872973] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-2: connection to <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection<br>
&gt; refused)<br>
&gt; [2015-09-28 12:57:38.490578] W [socket.c:588:__socket_rwv] 0-glusterfs:<br>
&gt; readv on <a href="http://127.0.0.1:24007" rel="noreferrer" target="_blank">127.0.0.1:24007</a> failed (No data available)<br>
&gt; [2015-09-28 12:57:49.054475] I [glusterfsd-mgmt.c:1512:mgmt_getspec_cbk]<br>
&gt; 0-glusterfs: No change in volfile, continuing<br>
&gt; [2015-09-28 13:01:12.062960] W [glusterfsd.c:1219:cleanup_and_exit]<br>
&gt; (--&gt;/lib64/libpthread.so.0() [0x3c65e07a51]<br>
&gt; --&gt;/usr/sbin/glusterfs(glusterfs_sigwaiter+0xcd) [0x405e4d]<br>
&gt; --&gt;/usr/sbin/glusterfs(cleanup_and_exit+0x65) [0x4059b5] ) 0-: received<br>
&gt; signum (15), shutting down<br>
&gt; [2015-09-28 13:01:12.981945] I [MSGID: 100030] [glusterfsd.c:2301:main]<br>
&gt; 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.7.4<br>
&gt; (args: /usr/sbin/glusterfs -s localhost --volfile-id gluster/glustershd -p<br>
&gt; /var/lib/glusterd/glustershd/run/glustershd.pid -l<br>
&gt; /var/log/glusterfs/glustershd.log -S<br>
&gt; /var/run/gluster/9a9819e90404187e84e67b01614bbe10.socket --xlator-option<br>
&gt; *replicate*.node-uuid=416d712a-06fc-4b3c-a92f-8c82145626ff)<br>
&gt; [2015-09-28 13:01:13.009171] I [MSGID: 101190]<br>
&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br>
&gt; with index 1<br>
&gt; [2015-09-28 13:01:13.092483] I [graph.c:269:gf_add_cmdline_options]<br>
&gt; 0-gv0-replicate-0: adding option &#39;node-uuid&#39; for volume &#39;gv0-replicate-0&#39;<br>
&gt; with value &#39;416d712a-06fc-4b3c-a92f-8c82145626ff&#39;<br>
&gt; [2015-09-28 13:01:13.100856] I [MSGID: 101190]<br>
&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br>
&gt; with index 2<br>
&gt; [2015-09-28 13:01:13.103995] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-0: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-09-28 13:01:13.114745] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-1: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-09-28 13:01:13.115725] I [rpc-clnt.c:1851:rpc_clnt_reconfig]<br>
&gt; 0-gv0-client-0: changing port to 49152 (from 0)<br>
&gt; [2015-09-28 13:01:13.125619] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-2: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-09-28 13:01:13.132316] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-1: connection to <a href="http://160.10.31.64:24007" rel="noreferrer" target="_blank">160.10.31.64:24007</a> failed (Connection<br>
&gt; refused)<br>
&gt; [2015-09-28 13:01:13.132650] I [MSGID: 114057]<br>
&gt; [client-handshake.c:1437:select_server_supported_programs] 0-gv0-client-0:<br>
&gt; Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
&gt; [2015-09-28 13:01:13.133322] I [MSGID: 114046]<br>
&gt; [client-handshake.c:1213:client_setvolume_cbk] 0-gv0-client-0: Connected to<br>
&gt; gv0-client-0, attached to remote volume &#39;/export/sdb1/gv0&#39;.<br>
&gt; [2015-09-28 13:01:13.133365] I [MSGID: 114047]<br>
&gt; [client-handshake.c:1224:client_setvolume_cbk] 0-gv0-client-0: Server and<br>
&gt; Client lk-version numbers are not same, reopening the fds<br>
&gt; [2015-09-28 13:01:13.133782] I [MSGID: 108005]<br>
&gt; [afr-common.c:3998:afr_notify] 0-gv0-replicate-0: Subvolume &#39;gv0-client-0&#39;<br>
&gt; came back up; going online.<br>
&gt; [2015-09-28 13:01:13.133863] I [MSGID: 114035]<br>
&gt; [client-handshake.c:193:client_set_lk_version_cbk] 0-gv0-client-0: Server<br>
&gt; lk version = 1<br>
&gt; Final graph:<br>
&gt;<br>
&gt; +------------------------------------------------------------------------------+<br>
&gt; 1: volume gv0-client-0<br>
&gt; 2: type protocol/client<br>
&gt; 3: option clnt-lk-version 1<br>
&gt; 4: option volfile-checksum 0<br>
&gt; 5: option volfile-key gluster/glustershd<br>
&gt; 6: option client-version 3.7.4<br>
&gt; 7: option process-uuid<br>
&gt; eapps-gluster01-65147-2015/09/28-13:01:12:970131-gv0-client-0-0-0<br>
&gt; 8: option fops-version 1298437<br>
&gt; 9: option ping-timeout 42<br>
&gt; 10: option remote-host <a href="http://eapps-gluster01.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster01.uwg.westga.edu</a><br>
&gt; 11: option remote-subvolume /export/sdb1/gv0<br>
&gt; 12: option transport-type socket<br>
&gt; 13: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 14: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 15: end-volume<br>
&gt; 16:<br>
&gt; 17: volume gv0-client-1<br>
&gt; 18: type protocol/client<br>
&gt; 19: option ping-timeout 42<br>
&gt; 20: option remote-host <a href="http://eapps-gluster02.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster02.uwg.westga.edu</a><br>
&gt; 21: option remote-subvolume /export/sdb1/gv0<br>
&gt; 22: option transport-type socket<br>
&gt; 23: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 24: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 25: end-volume<br>
&gt; 26:<br>
&gt; 27: volume gv0-client-2<br>
&gt; 28: type protocol/client<br>
&gt; 29: option ping-timeout 42<br>
&gt; 30: option remote-host <a href="http://eapps-gluster03.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster03.uwg.westga.edu</a><br>
&gt; 31: option remote-subvolume /export/sdb1/gv0<br>
&gt; 32: option transport-type socket<br>
&gt; 33: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 34: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 35: end-volume<br>
&gt; 36:<br>
&gt; 37: volume gv0-replicate-0<br>
&gt; 38: type cluster/replicate<br>
&gt; 39: option node-uuid 416d712a-06fc-4b3c-a92f-8c82145626ff<br>
&gt; 46: subvolumes gv0-client-0 gv0-client-1 gv0-client-2<br>
&gt; 47: end-volume<br>
&gt; 48:<br>
&gt; 49: volume glustershd<br>
&gt; 50: type debug/io-stats<br>
&gt; 51: subvolumes gv0-replicate-0<br>
&gt; 52: end-volume<br>
&gt; 53:<br>
&gt;<br>
&gt; +------------------------------------------------------------------------------+<br>
&gt; [2015-09-28 13:01:13.154898] E [MSGID: 114058]<br>
&gt; [client-handshake.c:1524:client_query_portmap_cbk] 0-gv0-client-2: failed<br>
&gt; to get the port number for remote subvolume. Please run &#39;gluster volume<br>
&gt; status&#39; on server to see if brick process is running.<br>
&gt; [2015-09-28 13:01:13.155031] I [MSGID: 114018]<br>
&gt; [client.c:2042:client_rpc_notify] 0-gv0-client-2: disconnected from<br>
&gt; gv0-client-2. Client process will keep trying to connect to glusterd until<br>
&gt; brick&#39;s port is available<br>
&gt; [2015-09-28 13:01:13.155080] W [MSGID: 108001]<br>
&gt; [afr-common.c:4081:afr_notify] 0-gv0-replicate-0: Client-quorum is not met<br>
&gt; [2015-09-29 08:11:24.728797] I [MSGID: 100011]<br>
&gt; [glusterfsd.c:1291:reincarnate] 0-glusterfsd: Fetching the volume file from<br>
&gt; server...<br>
&gt; [2015-09-29 08:11:24.763338] I [glusterfsd-mgmt.c:1512:mgmt_getspec_cbk]<br>
&gt; 0-glusterfs: No change in volfile, continuing<br>
&gt; [2015-09-29 12:50:41.915254] E [rpc-clnt.c:201:call_bail] 0-gv0-client-2:<br>
&gt; bailing out frame type(GF-DUMP) op(DUMP(1)) xid = 0xd91f sent = 2015-09-29<br>
&gt; 12:20:36.092734. timeout = 1800 for <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a><br>
&gt; [2015-09-29 12:50:41.923550] W [MSGID: 114032]<br>
&gt; [client-handshake.c:1623:client_dump_version_cbk] 0-gv0-client-2: received<br>
&gt; RPC status error [Transport endpoint is not connected]<br>
&gt; [2015-09-30 23:54:36.547979] W [socket.c:588:__socket_rwv] 0-glusterfs:<br>
&gt; readv on <a href="http://127.0.0.1:24007" rel="noreferrer" target="_blank">127.0.0.1:24007</a> failed (No data available)<br>
&gt; [2015-09-30 23:54:46.812870] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-glusterfs: connection to <a href="http://127.0.0.1:24007" rel="noreferrer" target="_blank">127.0.0.1:24007</a> failed (Connection refused)<br>
&gt; [2015-10-01 00:14:20.997081] I [glusterfsd-mgmt.c:1512:mgmt_getspec_cbk]<br>
&gt; 0-glusterfs: No change in volfile, continuing<br>
&gt; [2015-10-01 00:15:36.770579] W [socket.c:588:__socket_rwv] 0-gv0-client-2:<br>
&gt; readv on <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection reset by peer)<br>
&gt; [2015-10-01 00:15:37.906708] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-2: connection to <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection<br>
&gt; refused)<br>
&gt; [2015-10-01 00:15:53.008130] W [glusterfsd.c:1219:cleanup_and_exit]<br>
&gt; (--&gt;/lib64/libpthread.so.0() [0x3b91807a51]<br>
&gt; --&gt;/usr/sbin/glusterfs(glusterfs_sigwaiter+0xcd) [0x405e4d]<br>
&gt; --&gt;/usr/sbin/glusterfs(cleanup_and_exit+0x65) [0x4059b5] ) 0-: received<br>
&gt; signum (15), shutting down<br>
&gt; [2015-10-01 00:15:53.008697] I [timer.c:48:gf_timer_call_after]<br>
&gt; (--&gt;/usr/lib64/libgfrpc.so.0(rpc_clnt_submit+0x3e2) [0x3b9480f992]<br>
&gt; --&gt;/usr/lib64/libgfrpc.so.0(__save_frame+0x76) [0x3b9480f046]<br>
&gt; --&gt;/usr/lib64/libglusterfs.so.0(gf_timer_call_after+0x1b1) [0x3b93447881] )<br>
&gt; 0-timer: ctx cleanup started<br>
&gt; [2015-10-01 00:15:53.994698] I [MSGID: 100030] [glusterfsd.c:2301:main]<br>
&gt; 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.7.4<br>
&gt; (args: /usr/sbin/glusterfs -s localhost --volfile-id gluster/glustershd -p<br>
&gt; /var/lib/glusterd/glustershd/run/glustershd.pid -l<br>
&gt; /var/log/glusterfs/glustershd.log -S<br>
&gt; /var/run/gluster/9a9819e90404187e84e67b01614bbe10.socket --xlator-option<br>
&gt; *replicate*.node-uuid=416d712a-06fc-4b3c-a92f-8c82145626ff)<br>
&gt; [2015-10-01 00:15:54.020401] I [MSGID: 101190]<br>
&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br>
&gt; with index 1<br>
&gt; [2015-10-01 00:15:54.086777] I [graph.c:269:gf_add_cmdline_options]<br>
&gt; 0-gv0-replicate-0: adding option &#39;node-uuid&#39; for volume &#39;gv0-replicate-0&#39;<br>
&gt; with value &#39;416d712a-06fc-4b3c-a92f-8c82145626ff&#39;<br>
&gt; [2015-10-01 00:15:54.093004] I [MSGID: 101190]<br>
&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br>
&gt; with index 2<br>
&gt; [2015-10-01 00:15:54.098144] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-0: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-10-01 00:15:54.107432] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-1: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-10-01 00:15:54.115962] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt; 0-gv0-client-2: parent translators are ready, attempting connect on<br>
&gt; transport<br>
&gt; [2015-10-01 00:15:54.120474] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-1: connection to <a href="http://160.10.31.64:24007" rel="noreferrer" target="_blank">160.10.31.64:24007</a> failed (Connection<br>
&gt; refused)<br>
&gt; [2015-10-01 00:15:54.120639] I [rpc-clnt.c:1851:rpc_clnt_reconfig]<br>
&gt; 0-gv0-client-0: changing port to 49152 (from 0)<br>
&gt; Final graph:<br>
&gt;<br>
&gt; +------------------------------------------------------------------------------+<br>
&gt; 1: volume gv0-client-0<br>
&gt; 2: type protocol/client<br>
&gt; 3: option ping-timeout 42<br>
&gt; 4: option remote-host <a href="http://eapps-gluster01.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster01.uwg.westga.edu</a><br>
&gt; 5: option remote-subvolume /export/sdb1/gv0<br>
&gt; 6: option transport-type socket<br>
&gt; 7: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 8: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 9: end-volume<br>
&gt; 10:<br>
&gt; 11: volume gv0-client-1<br>
&gt; 12: type protocol/client<br>
&gt; 13: option ping-timeout 42<br>
&gt; 14: option remote-host <a href="http://eapps-gluster02.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster02.uwg.westga.edu</a><br>
&gt; 15: option remote-subvolume /export/sdb1/gv0<br>
&gt; 16: option transport-type socket<br>
&gt; 17: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 18: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 19: end-volume<br>
&gt; 20:<br>
&gt; 21: volume gv0-client-2<br>
&gt; 22: type protocol/client<br>
&gt; 23: option ping-timeout 42<br>
&gt; 24: option remote-host <a href="http://eapps-gluster03.uwg.westga.edu" rel="noreferrer" target="_blank">eapps-gluster03.uwg.westga.edu</a><br>
&gt; 25: option remote-subvolume /export/sdb1/gv0<br>
&gt; 26: option transport-type socket<br>
&gt; 27: option username 0005f8fa-107a-4cc8-ac38-bb821c014c14<br>
&gt; 28: option password 379bae9a-6529-4564-a6f5-f5a9f7424d01<br>
&gt; 29: end-volume<br>
&gt; 30:<br>
&gt; 31: volume gv0-replicate-0<br>
&gt; 32: type cluster/replicate<br>
&gt; 33: option node-uuid 416d712a-06fc-4b3c-a92f-8c82145626ff<br>
&gt; 40: subvolumes gv0-client-0 gv0-client-1 gv0-client-2<br>
&gt; 41: end-volume<br>
&gt; 42:<br>
&gt; 43: volume glustershd<br>
&gt; 44: type debug/io-stats<br>
&gt; 45: subvolumes gv0-replicate-0<br>
&gt; 46: end-volume<br>
&gt; 47:<br>
&gt;<br>
&gt; +------------------------------------------------------------------------------+<br>
&gt; [2015-10-01 00:15:54.135650] I [MSGID: 114057]<br>
&gt; [client-handshake.c:1437:select_server_supported_programs] 0-gv0-client-0:<br>
&gt; Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
&gt; [2015-10-01 00:15:54.136223] I [MSGID: 114046]<br>
&gt; [client-handshake.c:1213:client_setvolume_cbk] 0-gv0-client-0: Connected to<br>
&gt; gv0-client-0, attached to remote volume &#39;/export/sdb1/gv0&#39;.<br>
&gt; [2015-10-01 00:15:54.136262] I [MSGID: 114047]<br>
&gt; [client-handshake.c:1224:client_setvolume_cbk] 0-gv0-client-0: Server and<br>
&gt; Client lk-version numbers are not same, reopening the fds<br>
&gt; [2015-10-01 00:15:54.136410] I [MSGID: 108005]<br>
&gt; [afr-common.c:3998:afr_notify] 0-gv0-replicate-0: Subvolume &#39;gv0-client-0&#39;<br>
&gt; came back up; going online.<br>
&gt; [2015-10-01 00:15:54.136500] I [MSGID: 114035]<br>
&gt; [client-handshake.c:193:client_set_lk_version_cbk] 0-gv0-client-0: Server<br>
&gt; lk version = 1<br>
&gt; [2015-10-01 00:15:54.401702] E [MSGID: 114058]<br>
&gt; [client-handshake.c:1524:client_query_portmap_cbk] 0-gv0-client-2: failed<br>
&gt; to get the port number for remote subvolume. Please run &#39;gluster volume<br>
&gt; status&#39; on server to see if brick process is running.<br>
&gt; [2015-10-01 00:15:54.401834] I [MSGID: 114018]<br>
&gt; [client.c:2042:client_rpc_notify] 0-gv0-client-2: disconnected from<br>
&gt; gv0-client-2. Client process will keep trying to connect to glusterd until<br>
&gt; brick&#39;s port is available<br>
&gt; [2015-10-01 00:15:54.401878] W [MSGID: 108001]<br>
&gt; [afr-common.c:4081:afr_notify] 0-gv0-replicate-0: Client-quorum is not met<br>
&gt; [2015-10-01 03:57:52.755426] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-2: connection to <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection<br>
&gt; refused)<br>
&gt; [2015-10-01 13:50:49.000708] E [socket.c:2278:socket_connect_finish]<br>
&gt; 0-gv0-client-2: connection to <a href="http://160.10.31.227:24007" rel="noreferrer" target="_blank">160.10.31.227:24007</a> failed (Connection<br>
&gt; timed out)<br>
&gt; [2015-10-01 14:36:40.481673] E [MSGID: 114058]<br>
&gt; [client-handshake.c:1524:client_query_portmap_cbk] 0-gv0-client-1: failed<br>
&gt; to get the port number for remote subvolume. Please run &#39;gluster volume<br>
&gt; status&#39; on server to see if brick process is running.<br>
&gt; [2015-10-01 14:36:40.481833] I [MSGID: 114018]<br>
&gt; [client.c:2042:client_rpc_notify] 0-gv0-client-1: disconnected from<br>
&gt; gv0-client-1. Client process will keep trying to connect to glusterd until<br>
&gt; brick&#39;s port is available<br>
&gt; [2015-10-01 14:36:41.982037] I [rpc-clnt.c:1851:rpc_clnt_reconfig]<br>
&gt; 0-gv0-client-1: changing port to 49152 (from 0)<br>
&gt; [2015-10-01 14:36:41.993478] I [MSGID: 114057]<br>
&gt; [client-handshake.c:1437:select_server_supported_programs] 0-gv0-client-1:<br>
&gt; Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
&gt; [2015-10-01 14:36:41.994568] I [MSGID: 114046]<br>
&gt; [client-handshake.c:1213:client_setvolume_cbk] 0-gv0-client-1: Connected to<br>
&gt; gv0-client-1, attached to remote volume &#39;/export/sdb1/gv0&#39;.<br>
&gt; [2015-10-01 14:36:41.994647] I [MSGID: 114047]<br>
&gt; [client-handshake.c:1224:client_setvolume_cbk] 0-gv0-client-1: Server and<br>
&gt; Client lk-version numbers are not same, reopening the fds<br>
&gt; [2015-10-01 14:36:41.994899] I [MSGID: 108002]<br>
&gt; [afr-common.c:4077:afr_notify] 0-gv0-replicate-0: Client-quorum is met<br>
&gt; [2015-10-01 14:36:42.002275] I [MSGID: 114035]<br>
&gt; [client-handshake.c:193:client_set_lk_version_cbk] 0-gv0-client-1: Server<br>
&gt; lk version = 1<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Gene Liverman<br>
&gt; Systems Integration Architect<br>
&gt; Information Technology Services<br>
&gt; University of West Georgia<br>
&gt; <a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a><br>
&gt;<br>
&gt; ITS: Making Technology Work for You!<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Wed, Sep 30, 2015 at 10:54 PM, Gaurav Garg &lt; <a href="mailto:ggarg@redhat.com">ggarg@redhat.com</a> &gt; wrote:<br>
&gt;<br>
&gt;<br>
&gt; Hi Gene,<br>
&gt;<br>
&gt; Could you paste or attach core file/glusterd log file/cmd history to find<br>
&gt; out actual RCA of the crash. What steps you performed for this crash.<br>
&gt;<br>
&gt; &gt;&gt; How can I troubleshoot this?<br>
&gt;<br>
&gt; If you want to troubleshoot this then you can look into the glusterd log<br>
&gt; file, core file.<br>
&gt;<br>
&gt; Thank you..<br>
&gt;<br>
&gt; Regards,<br>
&gt; Gaurav<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: &quot;Gene Liverman&quot; &lt; <a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a> &gt;<br>
&gt; To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
&gt; Sent: Thursday, October 1, 2015 7:59:47 AM<br>
&gt; Subject: [Gluster-users] glusterd crashing<br>
&gt;<br>
&gt; In the last few days I&#39;ve started having issues with my glusterd service<br>
&gt; crashing. When it goes down it seems to do so on all nodes in my replicated<br>
&gt; volume. How can I troubleshoot this? I&#39;m on a mix of CentOS 6 and RHEL 6.<br>
&gt; Thanks!<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Gene Liverman<br>
&gt; Systems Integration Architect<br>
&gt; Information Technology Services<br>
&gt; University of West Georgia<br>
&gt; <a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a><br>
&gt;<br>
&gt;<br>
&gt; Sent from Outlook on my iPhone<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
</div></div></blockquote></div><br></div></div>