<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
Hi Atin,
<div class=""><br class="">
</div>
<div class="">Thank you for the fast responses!</div>
<div class=""><br class="">
</div>
<div class="">So, your fix, worked</div>
<div class=""><br class="">
</div>
<div class="">
<div class="">[root@highlander live]# gluster volume status</div>
<div class="">Status of volume: live</div>
<div class="">Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TCP Port &nbsp;RDMA Port &nbsp;Online &nbsp;Pid</div>
<div class="">------------------------------------------------------------------------------</div>
<div class="">Brick stor104:/zfs/brick0/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49152 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16702</div>
<div class="">Brick stor104:/zfs/brick1/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49153 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16720</div>
<div class="">Brick stor104:/zfs/brick2/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49154 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16738</div>
<div class="">Brick stor106:/zfs/brick0/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49161 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16309</div>
<div class="">Brick stor106:/zfs/brick1/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49162 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16327</div>
<div class="">Brick stor106:/zfs/brick2/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49163 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16345</div>
<div class="">Brick stor105:/zfs/brick0/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49152 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16184</div>
<div class="">Brick stor105:/zfs/brick1/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49153 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16202</div>
<div class="">Brick stor105:/zfs/brick2/brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49154 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16220</div>
<div class=""><br class="">
</div>
<div class="">Task Status of Volume live</div>
<div class="">------------------------------------------------------------------------------</div>
<div class="">There are no active volume tasks</div>
<div class=""><br class="">
</div>
<div class="">I also had a look inside the files, and on the controller, there was this in the node_state.info file</div>
<div class=""><br class="">
</div>
<div class="">
<div class="">[root@highlander live]# cat node_state.info</div>
<div class="">rebalance_status=0</div>
<div class="">status=0</div>
<div class="">rebalance_op=21</div>
<div class="">rebalance-id=ab4f05dd-bb96-4eb5-b0e2-46702a436355</div>
</div>
<div class=""><br class="">
</div>
<div class="">On the actual nodes, the rebalance_op was 0.</div>
<div class=""><br class="">
</div>
<div class="">I did do many rebalance operations in the past, and afaik the last one actually succeeded.</div>
<div class=""><br class="">
</div>
<div class="">Thanks a lot for your help!</div>
<div class=""><br class="">
</div>
<div class="">—</div>
<div class="">Christophe</div>
<div class="">
<div style="color: rgb(0, 0, 0); letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
<p style="font-family: Arial, sans-serif; font-size: 10pt; line-height: 16px; color: rgb(33, 33, 33);" class="">
<span style="font-weight: bold; color: rgb(61, 59, 59); display: inline;" class="">Dr Christophe Trefois, Dipl.-Ing.</span><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><span style="display: inline;" class=""></span><br class="">
<span style="color: rgb(61, 59, 59); display: inline; font-size: 7.5pt;" class="">Technical Specialist / Post-Doc</span></p>
<p style="font-family: Arial, sans-serif; font-size: 7.5pt; line-height: 16px;" class="">
<span style="font-weight: bold; color: rgb(61, 59, 59); display: inline;" class="">UNIVERSITÉ DU LUXEMBOURG</span><br class="">
<span style="display: inline;" class=""><br class="">
</span><span style="font-weight: bold; color: rgb(61, 59, 59); display: inline;" class="">LUXEMBOURG CENTRE FOR SYSTEMS BIOMEDICINE</span><br class="">
<span style="color: rgb(61, 59, 59); display: inline;" class="">Campus Belval | House of Biomedicine<span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><br class="">
<span class="Apple-converted-space">6, avenue du Swing&nbsp;</span><br class="">
L-4367 Belvaux<span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span></span><br class="">
<span style="color: rgb(61, 59, 59); display: inline;" class="">T:<span class="Apple-converted-space">&nbsp;</span></span><span style="color: rgb(61, 59, 59); display: inline;" class="">&#43;352 46 66 44 6124</span><span class="Apple-converted-space">&nbsp;</span><br class="">
<span style="color: rgb(61, 59, 59); display: inline;" class="">F:<span class="Apple-converted-space">&nbsp;</span></span><span style="color: rgb(61, 59, 59); display: inline;" class="">&#43;352 46 66 44 6949</span><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><span style="display: inline;" class=""><br class="">
</span><a href="http://www.uni.lu/lcsb" style="color: rgb(0, 109, 189); display: inline;" class="">http://www.uni.lu/lcsb</a></p>
<p style="font-family: Arial, sans-serif; font-size: 14px; line-height: 16px;" class="">
<a href="https://www.facebook.com/trefex" style="display: inline;" class=""><img width="24" height="24" data-filename="facebook.png" src="https://s3.amazonaws.com/htmlsig-assets/rounded/facebook.png" alt="Facebook" class=""></a><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><a href="https://twitter.com/Trefex" style="display: inline;" class=""><img width="24" height="24" data-filename="twitter.png" src="https://s3.amazonaws.com/htmlsig-assets/rounded/twitter.png" alt="Twitter" class=""></a><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><a href="https://plus.google.com/&#43;ChristopheTrefois/" style="display: inline;" class=""><img width="24" height="24" data-filename="googleplus.png" src="https://s3.amazonaws.com/htmlsig-assets/rounded/googleplus.png" alt="Google Plus" class=""></a><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><a href="https://www.linkedin.com/in/trefoischristophe" style="display: inline;" class=""><img width="24" height="24" data-filename="linkedin.png" src="https://s3.amazonaws.com/htmlsig-assets/rounded/linkedin.png" alt="Linkedin" class=""></a><span class="Apple-converted-space">&nbsp;</span><span class="Apple-converted-space">&nbsp;</span><a href="http://skype:Trefex?call" style="display: inline;" class=""><img width="24" height="24" data-filename="skype.png" src="https://s3.amazonaws.com/htmlsig-assets/rounded/skype.png" alt="skype" class=""></a></p>
<p class="banner-container" style="font-family: Arial, sans-serif; font-size: 14px; line-height: 16px;">
</p>
<p style="font-family: Arial, sans-serif; color: rgb(61, 59, 59); font-size: 9px; line-height: 16px;" class="">
----<br class="">
This message is confidential and may contain privileged information.<span class="Apple-converted-space">&nbsp;</span><br class="">
It is intended for the named recipient only.<span class="Apple-converted-space">&nbsp;</span><br class="">
If you receive it in error please notify me and permanently delete the original message and any copies.<span class="Apple-converted-space">&nbsp;</span><br class="">
----<br class="">
</p>
&nbsp;<span class="Apple-converted-space">&nbsp;</span></div>
</div>
<br class="">
<div>
<blockquote type="cite" class="">
<div class="">On 29 Dec 2015, at 17:59, Atin Mukherjee &lt;<a href="mailto:atin.mukherjee83@gmail.com" class="">atin.mukherjee83@gmail.com</a>&gt; wrote:</div>
<br class="Apple-interchange-newline">
<div class="">
<p dir="ltr" class="">I'll dive into it in detail in some time. Could you provide cli/cmd_history/glusterd log files for further debugging.</p>
<p dir="ltr" class="">-Atin<br class="">
Sent from one plus one</p>
<div class="gmail_quote">On Dec 29, 2015 9:53 PM, &quot;Christophe TREFOIS&quot; &lt;<a href="mailto:christophe.trefois@uni.lu" class="">christophe.trefois@uni.lu</a>&gt; wrote:<br type="attribution" class="">
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Atin,<br class="">
<br class="">
Same issue. I restarted glusterd and glusterfsd everywhere and it seems the thing is still in STATEDUMP.<br class="">
<br class="">
Any other pointers?<br class="">
<br class="">
Kind regards,<br class="">
<br class="">
—<br class="">
Christophe<br class="">
<br class="">
<br class="">
&gt; On 29 Dec 2015, at 16:19, Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com" class="">amukherj@redhat.com</a>&gt; wrote:<br class="">
&gt;<br class="">
&gt;<br class="">
&gt;<br class="">
&gt; On 12/29/2015 07:09 PM, Christophe TREFOIS wrote:<br class="">
&gt;&gt; Hi,<br class="">
&gt;&gt;<br class="">
&gt;&gt;<br class="">
&gt;&gt;&gt; On 29 Dec 2015, at 14:27, Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com" class="">amukherj@redhat.com</a>&gt; wrote:<br class="">
&gt;&gt;&gt;<br class="">
&gt;&gt;&gt; It seems like your opCode is STATEDUMP instead of STATUS which is weird.<br class="">
&gt;&gt;&gt; Are you running a heterogeneous cluster?<br class="">
&gt;&gt;<br class="">
&gt;&gt; What does that mean? In principle no.<br class="">
&gt; This means when all the nodes in the cluster are not running with same bits.<br class="">
&gt;&gt;<br class="">
&gt;&gt;&gt; What is the last version you<br class="">
&gt;&gt;&gt; were running with?<br class="">
&gt;&gt;<br class="">
&gt;&gt; I think it was 3.7.3 or 3.7.something. I’m not sure, but it was in the 3.7 repo.<br class="">
&gt;&gt;<br class="">
&gt;&gt;&gt; What's the current cluster op-version?<br class="">
&gt;&gt;<br class="">
&gt;&gt; [root@highlander ~]# gluster volume get live cluster.op-version<br class="">
&gt;&gt; Option&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Value<br class="">
&gt;&gt; ------&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; -----<br class="">
&gt;&gt; cluster.op-version&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 30600<br class="">
&gt; Can you bump up the op-version with 'gluster volume set all<br class="">
&gt; cluster.op-version 30706 and see if the problem goes away. But you can<br class="">
&gt; only bump this up if all nodes are upgraded to 3.7.6<br class="">
&gt;&gt;<br class="">
&gt;&gt; Thank you,<br class="">
&gt;&gt;<br class="">
&gt;&gt;&gt;<br class="">
&gt;&gt;&gt; Thanks,<br class="">
&gt;&gt;&gt; Atin<br class="">
&gt;&gt;&gt;<br class="">
&gt;&gt;&gt; On 12/29/2015 06:31 PM, Christophe TREFOIS wrote:<br class="">
&gt;&gt;&gt;&gt; Dear all,<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; I have a 3-node distribute setup with a controller of GlusterFS and<br class="">
&gt;&gt;&gt;&gt; upgraded to 3.7.6 today and to CentOS 7.2.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; After the ugprade (reboot), I can start the volume fine and see mounted<br class="">
&gt;&gt;&gt;&gt; volume as well on the controller.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; However, a gluster volume info &lt;volname&gt; results in an<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; [root@stor104 glusterfs]# gluster volume status live<br class="">
&gt;&gt;&gt;&gt; Commit failed on localhost. Please check the log file for more details.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; error.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Below some information and log extracts.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Thank you for any hints on where to start fixing this,<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Kind regards,<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; —<br class="">
&gt;&gt;&gt;&gt; Christophe<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ——————<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Here is the gluster info command for the volume.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; [root@stor104 glusterfs]# gluster volume info live<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Volume Name: live<br class="">
&gt;&gt;&gt;&gt; Type: Distribute<br class="">
&gt;&gt;&gt;&gt; Volume ID: 1328637d-7730-4627-8945-bbe43626d527<br class="">
&gt;&gt;&gt;&gt; Status: Started<br class="">
&gt;&gt;&gt;&gt; Number of Bricks: 9<br class="">
&gt;&gt;&gt;&gt; Transport-type: tcp<br class="">
&gt;&gt;&gt;&gt; Bricks:<br class="">
&gt;&gt;&gt;&gt; Brick1: stor104:/zfs/brick0/brick<br class="">
&gt;&gt;&gt;&gt; Brick2: stor104:/zfs/brick1/brick<br class="">
&gt;&gt;&gt;&gt; Brick3: stor104:/zfs/brick2/brick<br class="">
&gt;&gt;&gt;&gt; Brick4: stor106:/zfs/brick0/brick<br class="">
&gt;&gt;&gt;&gt; Brick5: stor106:/zfs/brick1/brick<br class="">
&gt;&gt;&gt;&gt; Brick6: stor106:/zfs/brick2/brick<br class="">
&gt;&gt;&gt;&gt; Brick7: stor105:/zfs/brick0/brick<br class="">
&gt;&gt;&gt;&gt; Brick8: stor105:/zfs/brick1/brick<br class="">
&gt;&gt;&gt;&gt; Brick9: stor105:/zfs/brick2/brick<br class="">
&gt;&gt;&gt;&gt; Options Reconfigured:<br class="">
&gt;&gt;&gt;&gt; <a href="http://performance.io/" rel="noreferrer" target="_blank" class="">performance.io</a> &lt;<a href="http://performance.io/" rel="noreferrer" target="_blank" class="">http://performance.io</a>&gt;-thread-count: 8<br class="">
&gt;&gt;&gt;&gt; nfs.disable: on<br class="">
&gt;&gt;&gt;&gt; performance.write-behind-window-size: 4MB<br class="">
&gt;&gt;&gt;&gt; performance.client-io-threads: on<br class="">
&gt;&gt;&gt;&gt; performance.cache-size: 1GB<br class="">
&gt;&gt;&gt;&gt; performance.cache-refresh-timeout: 60<br class="">
&gt;&gt;&gt;&gt; performance.cache-max-file-size: 4MB<br class="">
&gt;&gt;&gt;&gt; cluster.data-self-heal-algorithm: full<br class="">
&gt;&gt;&gt;&gt; diagnostics.client-log-level: ERROR<br class="">
&gt;&gt;&gt;&gt; diagnostics.brick-log-level: ERROR<br class="">
&gt;&gt;&gt;&gt; cluster.min-free-disk: 1%<br class="">
&gt;&gt;&gt;&gt; server.allow-insecure: on<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Relevant log parts when carrying out the command:<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cli.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.216998] I [cli.c:721:main] 0-cli: Started running<br class="">
&gt;&gt;&gt;&gt; gluster with version 3.7.6<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.226123] I<br class="">
&gt;&gt;&gt;&gt; [cli-cmd-volume.c:1926:cli_check_gsync_present] 0-: geo-replication not<br class="">
&gt;&gt;&gt;&gt; installed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.226623] I [MSGID: 101190]<br class="">
&gt;&gt;&gt;&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br class="">
&gt;&gt;&gt;&gt; with index 1<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.226723] I [socket.c:2355:socket_event_handler]<br class="">
&gt;&gt;&gt;&gt; 0-transport: disconnecting now<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cmd_history.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.236182]&nbsp; : volume status : SUCCESS<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/etc-glusterfs-glusterd.vol.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.238562] I [MSGID: 106499]<br class="">
&gt;&gt;&gt;&gt; [glusterd-handler.c:4267:__glusterd_handle_status_volume] 0-management:<br class="">
&gt;&gt;&gt;&gt; Received status volume req for volume live<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.246043] E [MSGID: 106396]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:2985:_add_task_to_dict] 0-management: Statedump<br class="">
&gt;&gt;&gt;&gt; operation doesn't have a task_id<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.246081] E [MSGID: 106060]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:3055:glusterd_aggregate_task_status] 0-management:<br class="">
&gt;&gt;&gt;&gt; Failed to add task details to dict<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.246098] E [MSGID: 106123]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1404:gd_commit_op_phase] 0-management: Commit of<br class="">
&gt;&gt;&gt;&gt; operation 'Volume Status' failed on localhost<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cmd_history.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.249364]&nbsp; : volume status : FAILED : Commit failed<br class="">
&gt;&gt;&gt;&gt; on localhost. Please check the log file for more details.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cli.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:51:03.249647] I [input.c:36:cli_batch] 0-: Exiting with: 0<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; All bricks are up<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; [root@highlander glusterfs]# pdsh -g live 'df -h | grep brick*'<br class="">
&gt;&gt;&gt;&gt; stor106: brick0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;50T&nbsp; &nbsp;33T&nbsp; &nbsp;18T&nbsp; 66% /zfs/brick0<br class="">
&gt;&gt;&gt;&gt; stor106: brick1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;50T&nbsp; &nbsp;33T&nbsp; &nbsp;18T&nbsp; 66% /zfs/brick1<br class="">
&gt;&gt;&gt;&gt; stor106: brick2&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;50T&nbsp; &nbsp;33T&nbsp; &nbsp;18T&nbsp; 66% /zfs/brick2<br class="">
&gt;&gt;&gt;&gt; stor105: brick0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick0<br class="">
&gt;&gt;&gt;&gt; stor105: brick1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick1<br class="">
&gt;&gt;&gt;&gt; stor105: brick2&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick2<br class="">
&gt;&gt;&gt;&gt; stor104: brick0&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick0<br class="">
&gt;&gt;&gt;&gt; stor104: brick1&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick1<br class="">
&gt;&gt;&gt;&gt; stor104: brick2&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;40T&nbsp; &nbsp;23T&nbsp; &nbsp;18T&nbsp; 57% /zfs/brick2<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Package details<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; [root@highlander glusterfs]# rpm -qa | grep gluster<br class="">
&gt;&gt;&gt;&gt; glusterfs-client-xlators-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-server-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; samba-vfs-glusterfs-4.2.3-10.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-cli-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-libs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-fuse-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; glusterfs-api-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; [root@highlander glusterfs]# pdsh -g live 'rpm -qa | grep gluster'<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-libs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-api-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-fuse-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-cli-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-client-xlators-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor105: glusterfs-server-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-server-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-libs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-api-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-fuse-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-cli-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor104: glusterfs-client-xlators-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-cli-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-server-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-libs-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-client-xlators-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-api-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt; stor106: glusterfs-fuse-3.7.6-1.el7.x86_64<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; More detailled logs:<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cli.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.520821] I [cli.c:721:main] 0-cli: Started running<br class="">
&gt;&gt;&gt;&gt; gluster with version 3.7.6<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.530898] I<br class="">
&gt;&gt;&gt;&gt; [cli-cmd-volume.c:1926:cli_check_gsync_present] 0-: geo-replication not<br class="">
&gt;&gt;&gt;&gt; installed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.531844] I [MSGID: 101190]<br class="">
&gt;&gt;&gt;&gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started thread<br class="">
&gt;&gt;&gt;&gt; with index 1<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.532004] I [socket.c:2355:socket_event_handler]<br class="">
&gt;&gt;&gt;&gt; 0-transport: disconnecting now<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/etc-glusterfs-glusterd.vol.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.534830] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:214:glusterd_generate_txn_id] 0-management:<br class="">
&gt;&gt;&gt;&gt; Transaction_id = c2886398-03c1-4d32-924a-9f92367be85c<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.534946] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:311:glusterd_set_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully set opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; c2886398-03c1-4d32-924a-9f92367be85c<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.534975] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:318:glusterd_set_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535001] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1767:gd_sync_task_begin] 0-management: Transaction ID<br class="">
&gt;&gt;&gt;&gt; : c2886398-03c1-4d32-924a-9f92367be85c<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535031] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1807:gd_sync_task_begin] 0-glusterd: Failed to get<br class="">
&gt;&gt;&gt;&gt; volume name<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535078] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:1695:glusterd_op_stage_status_volume] 0-management:<br class="">
&gt;&gt;&gt;&gt; Returning: 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535103] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:5515:glusterd_op_stage_validate] 0-management: OP =<br class="">
&gt;&gt;&gt;&gt; 18. Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535555] D<br class="">
&gt;&gt;&gt;&gt; [rpc-clnt-ping.c:98:rpc_clnt_remove_ping_timer_locked] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libglusterfs.so.0(_gf_log_callingfn&#43;0x192)[0x7f410a9d5a82] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_remove_ping_timer_locked&#43;0x8b)[0x7f410a7a587b]<br class="">
&gt;&gt;&gt;&gt; (--&gt; /lib64/libgfrpc.so.0(&#43;0x13e74)[0x7f410a7a5e74] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_submit&#43;0x34f)[0x7f410a7a1c4f] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /usr/lib64/glusterfs/3.7.6/xlator/mgmt/glusterd.so(gd_syncop_submit_request&#43;0x1a5)[0x7f40ff5d24b5]<br class="">
&gt;&gt;&gt;&gt; ))))) 0-: <a href="http://192.168.123.105:24007/" rel="noreferrer" target="_blank" class="">
192.168.123.105:24007</a>: ping timer event already removed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.535935] D<br class="">
&gt;&gt;&gt;&gt; [rpc-clnt-ping.c:98:rpc_clnt_remove_ping_timer_locked] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libglusterfs.so.0(_gf_log_callingfn&#43;0x192)[0x7f410a9d5a82] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_remove_ping_timer_locked&#43;0x8b)[0x7f410a7a587b]<br class="">
&gt;&gt;&gt;&gt; (--&gt; /lib64/libgfrpc.so.0(&#43;0x13e74)[0x7f410a7a5e74] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_submit&#43;0x34f)[0x7f410a7a1c4f] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /usr/lib64/glusterfs/3.7.6/xlator/mgmt/glusterd.so(gd_syncop_submit_request&#43;0x1a5)[0x7f40ff5d24b5]<br class="">
&gt;&gt;&gt;&gt; ))))) 0-: <a href="http://192.168.123.1:24007/" rel="noreferrer" target="_blank" class="">
192.168.123.1:24007</a>: ping timer event already removed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.536279] D<br class="">
&gt;&gt;&gt;&gt; [rpc-clnt-ping.c:98:rpc_clnt_remove_ping_timer_locked] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libglusterfs.so.0(_gf_log_callingfn&#43;0x192)[0x7f410a9d5a82] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_remove_ping_timer_locked&#43;0x8b)[0x7f410a7a587b]<br class="">
&gt;&gt;&gt;&gt; (--&gt; /lib64/libgfrpc.so.0(&#43;0x13e74)[0x7f410a7a5e74] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /lib64/libgfrpc.so.0(rpc_clnt_submit&#43;0x34f)[0x7f410a7a1c4f] (--&gt;<br class="">
&gt;&gt;&gt;&gt; /usr/lib64/glusterfs/3.7.6/xlator/mgmt/glusterd.so(gd_syncop_submit_request&#43;0x1a5)[0x7f40ff5d24b5]<br class="">
&gt;&gt;&gt;&gt; ))))) 0-: <a href="http://192.168.123.106:24007/" rel="noreferrer" target="_blank" class="">
192.168.123.106:24007</a>: ping timer event already removed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.536358] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1312:gd_stage_op_phase] 0-management: Sent stage op<br class="">
&gt;&gt;&gt;&gt; req for 'Volume Status' to 3 peers<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.538064] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.539059] D [logging.c:1952:_gf_msg_internal]<br class="">
&gt;&gt;&gt;&gt; 0-logging-infra: Buffer overflow of a buffer whose size limit is 5.<br class="">
&gt;&gt;&gt;&gt; About to flush least recently used log message to disk<br class="">
&gt;&gt;&gt;&gt; The message &quot;D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster&quot; repeated 2 times between<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.538064] and [2015-12-29 12:57:23.538833]<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.539057] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:7010:glusterd_op_bricks_select] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.539163] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1709:gd_brick_op_phase] 0-management: Sent op req to<br class="">
&gt;&gt;&gt;&gt; 0 bricks<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.539213] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:3360:glusterd_op_status_volume] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.539237] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:5642:glusterd_op_commit_perform] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.541960] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542525] D [logging.c:1952:_gf_msg_internal]<br class="">
&gt;&gt;&gt;&gt; 0-logging-infra: Buffer overflow of a buffer whose size limit is 5.<br class="">
&gt;&gt;&gt;&gt; About to flush least recently used log message to disk<br class="">
&gt;&gt;&gt;&gt; The message &quot;D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster&quot; repeated 2 times between<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.541960] and [2015-12-29 12:57:23.542186]<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542523] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1449:gd_commit_op_phase] 0-management: Sent commit op<br class="">
&gt;&gt;&gt;&gt; req for 'Volume Status' to 3 peers<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542643] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:4487:glusterd_op_modify_op_ctx] 0-management: op_ctx<br class="">
&gt;&gt;&gt;&gt; modification not required for status operation being performed<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542680] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:255:glusterd_get_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully got opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; c2886398-03c1-4d32-924a-9f92367be85c<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542704] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:259:glusterd_get_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542732] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:360:glusterd_clear_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully cleared opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; c2886398-03c1-4d32-924a-9f92367be85c<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542756] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:364:glusterd_clear_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cmd_history.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542781]&nbsp; : volume status : SUCCESS<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/etc-glusterfs-glusterd.vol.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.542847] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-rpc-ops.c:205:glusterd_op_send_cli_response] 0-management:<br class="">
&gt;&gt;&gt;&gt; Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545697] I [MSGID: 106499]<br class="">
&gt;&gt;&gt;&gt; [glusterd-handler.c:4267:__glusterd_handle_status_volume] 0-management:<br class="">
&gt;&gt;&gt;&gt; Received status volume req for volume live<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545818] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:214:glusterd_generate_txn_id] 0-management:<br class="">
&gt;&gt;&gt;&gt; Transaction_id = fd3671e4-fa7a-4913-a6dd-b37884a3a715<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545872] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:311:glusterd_set_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully set opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; fd3671e4-fa7a-4913-a6dd-b37884a3a715<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545905] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:318:glusterd_set_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545926] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1767:gd_sync_task_begin] 0-management: Transaction ID<br class="">
&gt;&gt;&gt;&gt; : fd3671e4-fa7a-4913-a6dd-b37884a3a715<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.545978] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-locks.c:562:glusterd_mgmt_v3_lock] 0-management: Trying to<br class="">
&gt;&gt;&gt;&gt; acquire lock of vol live for 305c0f00-0f11-4da3-a470-50b6e6c14976 as<br class="">
&gt;&gt;&gt;&gt; live_vol<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.546388] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-locks.c:618:glusterd_mgmt_v3_lock] 0-management: Lock for vol<br class="">
&gt;&gt;&gt;&gt; live successfully held by 305c0f00-0f11-4da3-a470-50b6e6c14976<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.546478] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:411:gd_syncop_mgmt_v3_lock] 0-glusterd: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.549943] D [logging.c:1952:_gf_msg_internal]<br class="">
&gt;&gt;&gt;&gt; 0-logging-infra: Buffer overflow of a buffer whose size limit is 5.<br class="">
&gt;&gt;&gt;&gt; About to flush least recently used log message to disk<br class="">
&gt;&gt;&gt;&gt; The message &quot;D [MSGID: 0] [glusterd-syncop.c:411:gd_syncop_mgmt_v3_lock]<br class="">
&gt;&gt;&gt;&gt; 0-glusterd: Returning 0&quot; repeated 2 times between [2015-12-29<br class="">
&gt;&gt;&gt;&gt; 12:57:23.546478] and [2015-12-29 12:57:23.546565]<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.549941] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1205:gd_lock_op_phase] 0-management: Sent lock op req<br class="">
&gt;&gt;&gt;&gt; for 'Volume Status' to 3 peers. Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550063] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1424:glusterd_volinfo_find] 0-management: Volume live<br class="">
&gt;&gt;&gt;&gt; found<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550087] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1431:glusterd_volinfo_find] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550121] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1424:glusterd_volinfo_find] 0-management: Volume live<br class="">
&gt;&gt;&gt;&gt; found<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550140] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1431:glusterd_volinfo_find] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550167] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:1695:glusterd_op_stage_status_volume] 0-management:<br class="">
&gt;&gt;&gt;&gt; Returning: 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550192] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:5515:glusterd_op_stage_validate] 0-management: OP =<br class="">
&gt;&gt;&gt;&gt; 18. Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.550309] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1312:gd_stage_op_phase] 0-management: Sent stage op<br class="">
&gt;&gt;&gt;&gt; req for 'Volume Status' to 3 peers<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.552791] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553395] D [logging.c:1952:_gf_msg_internal]<br class="">
&gt;&gt;&gt;&gt; 0-logging-infra: Buffer overflow of a buffer whose size limit is 5.<br class="">
&gt;&gt;&gt;&gt; About to flush least recently used log message to disk<br class="">
&gt;&gt;&gt;&gt; The message &quot;D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-peer-utils.c:200:glusterd_peerinfo_find_by_uuid] 0-management:<br class="">
&gt;&gt;&gt;&gt; Friend found... state: Peer in Cluster&quot; repeated 2 times between<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.552791] and [2015-12-29 12:57:23.553087]<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553394] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:7010:glusterd_op_bricks_select] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553499] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1709:gd_brick_op_phase] 0-management: Sent op req to<br class="">
&gt;&gt;&gt;&gt; 0 bricks<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553535] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1424:glusterd_volinfo_find] 0-management: Volume live<br class="">
&gt;&gt;&gt;&gt; found<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553556] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-utils.c:1431:glusterd_volinfo_find] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.553786] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-snapshot-utils.c:3595:glusterd_is_snapd_enabled] 0-management:<br class="">
&gt;&gt;&gt;&gt; Key features.uss not present in the dict for volume live<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554065] E [MSGID: 106396]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:2985:_add_task_to_dict] 0-management: Statedump<br class="">
&gt;&gt;&gt;&gt; operation doesn't have a task_id<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554097] E [MSGID: 106060]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:3055:glusterd_aggregate_task_status] 0-management:<br class="">
&gt;&gt;&gt;&gt; Failed to add task details to dict<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554117] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:3360:glusterd_op_status_volume] 0-management: Returning -1<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554135] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:5642:glusterd_op_commit_perform] 0-management:<br class="">
&gt;&gt;&gt;&gt; Returning -1<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554155] E [MSGID: 106123]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1404:gd_commit_op_phase] 0-management: Commit of<br class="">
&gt;&gt;&gt;&gt; operation 'Volume Status' failed on localhost<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.554240] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:510:gd_syncop_mgmt_v3_unlock] 0-glusterd: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557147] D [logging.c:1952:_gf_msg_internal]<br class="">
&gt;&gt;&gt;&gt; 0-logging-infra: Buffer overflow of a buffer whose size limit is 5.<br class="">
&gt;&gt;&gt;&gt; About to flush least recently used log message to disk<br class="">
&gt;&gt;&gt;&gt; The message &quot;D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:510:gd_syncop_mgmt_v3_unlock] 0-glusterd: Returning<br class="">
&gt;&gt;&gt;&gt; 0&quot; repeated 2 times between [2015-12-29 12:57:23.554240] and [2015-12-29<br class="">
&gt;&gt;&gt;&gt; 12:57:23.554319]<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557146] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-syncop.c:1558:gd_unlock_op_phase] 0-management: Sent unlock op<br class="">
&gt;&gt;&gt;&gt; req for 'Volume Status' to 3 peers. Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557255] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-locks.c:669:glusterd_mgmt_v3_unlock] 0-management: Trying to<br class="">
&gt;&gt;&gt;&gt; release lock of vol live for 305c0f00-0f11-4da3-a470-50b6e6c14976 as<br class="">
&gt;&gt;&gt;&gt; live_vol<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557286] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-locks.c:714:glusterd_mgmt_v3_unlock] 0-management: Lock for<br class="">
&gt;&gt;&gt;&gt; vol live successfully released<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557312] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:255:glusterd_get_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully got opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; fd3671e4-fa7a-4913-a6dd-b37884a3a715<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557332] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:259:glusterd_get_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557356] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:360:glusterd_clear_txn_opinfo] 0-management:<br class="">
&gt;&gt;&gt;&gt; Successfully cleared opinfo for transaction ID :<br class="">
&gt;&gt;&gt;&gt; fd3671e4-fa7a-4913-a6dd-b37884a3a715<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557420] D [MSGID: 0]<br class="">
&gt;&gt;&gt;&gt; [glusterd-op-sm.c:364:glusterd_clear_txn_opinfo] 0-management: Returning 0<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ==&gt; /var/log/glusterfs/cmd_history.log &lt;==<br class="">
&gt;&gt;&gt;&gt; [2015-12-29 12:57:23.557447]&nbsp; : volume status : FAILED : Commit failed<br class="">
&gt;&gt;&gt;&gt; on localhost. Please check the log file for more details.<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Dr Christophe Trefois, Dipl.-Ing.<br class="">
&gt;&gt;&gt;&gt; Technical Specialist / Post-Doc<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; UNIVERSITÉ DU LUXEMBOURG<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; LUXEMBOURG CENTRE FOR SYSTEMS BIOMEDICINE<br class="">
&gt;&gt;&gt;&gt; Campus Belval | House of Biomedicine<br class="">
&gt;&gt;&gt;&gt; 6, avenue du Swing<br class="">
&gt;&gt;&gt;&gt; L-4367 Belvaux<br class="">
&gt;&gt;&gt;&gt; T: &#43;352 46 66 44 6124<br class="">
&gt;&gt;&gt;&gt; F: &#43;352 46 66 44 6949<br class="">
&gt;&gt;&gt;&gt; <a href="http://www.uni.lu/lcsb" rel="noreferrer" target="_blank" class="">http://www.uni.lu/lcsb</a><br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; Facebook &lt;<a href="https://www.facebook.com/trefex" rel="noreferrer" target="_blank" class="">https://www.facebook.com/trefex</a>&gt;&nbsp; Twitter<br class="">
&gt;&gt;&gt;&gt; &lt;<a href="https://twitter.com/Trefex" rel="noreferrer" target="_blank" class="">https://twitter.com/Trefex</a>&gt;&nbsp; Google Plus<br class="">
&gt;&gt;&gt;&gt; &lt;<a href="https://plus.google.com/&#43;ChristopheTrefois/" rel="noreferrer" target="_blank" class="">https://plus.google.com/&#43;ChristopheTrefois/</a>&gt;&nbsp; Linkedin<br class="">
&gt;&gt;&gt;&gt; &lt;<a href="https://www.linkedin.com/in/trefoischristophe" rel="noreferrer" target="_blank" class="">https://www.linkedin.com/in/trefoischristophe</a>&gt;&nbsp; skype<br class="">
&gt;&gt;&gt;&gt; &lt;<a href="http://skype:trefex?call" class="">http://skype:Trefex?call</a>&gt;<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; ----<br class="">
&gt;&gt;&gt;&gt; This message is confidential and may contain privileged information.<br class="">
&gt;&gt;&gt;&gt; It is intended for the named recipient only.<br class="">
&gt;&gt;&gt;&gt; If you receive it in error please notify me and permanently delete the<br class="">
&gt;&gt;&gt;&gt; original message and any copies.<br class="">
&gt;&gt;&gt;&gt; ----<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;&gt;&gt; _______________________________________________<br class="">
&gt;&gt;&gt;&gt; Gluster-users mailing list<br class="">
&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org" class="">Gluster-users@gluster.org</a><br class="">
&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank" class="">
http://www.gluster.org/mailman/listinfo/gluster-users</a><br class="">
&gt;&gt;&gt;&gt;<br class="">
&gt;&gt;<br class="">
&gt;&gt;<br class="">
<br class="">
_______________________________________________<br class="">
Gluster-users mailing list<br class="">
<a href="mailto:Gluster-users@gluster.org" class="">Gluster-users@gluster.org</a><br class="">
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank" class="">http://www.gluster.org/mailman/listinfo/gluster-users</a><br class="">
</blockquote>
</div>
</div>
</blockquote>
</div>
<br class="">
</div>
</body>
</html>