<div dir="ltr">Hello Atin,<div><br></div><div>We are running 3.7.0 on our storage nodes and suffer from the same issue. Is it safe to perform the same command or should we first upgrade to 3.7.1?</div></div><div class="gmail_extra"><br><div class="gmail_quote">On 10 June 2015 at 13:45, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
<br>
On 06/10/2015 02:58 PM, Sergio Traldi wrote:<br>
&gt; On 06/10/2015 10:27 AM, Krishnan Parthasarathi wrote:<br>
&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt; I two servers with 3.7.1 and have the same problem of this issue:<br>
&gt;&gt;&gt; <a href="http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20693" target="_blank">http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20693</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; My servers packages:<br>
&gt;&gt;&gt; # rpm -qa | grep gluster | sort<br>
&gt;&gt;&gt; glusterfs-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-api-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-cli-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-client-xlators-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-fuse-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-geo-replication-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-libs-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt; glusterfs-server-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Command:<br>
&gt;&gt;&gt; # gluster volume status<br>
&gt;&gt;&gt; Another transaction is in progress. Please try again after sometime.<br>
</span>The problem is although you are running 3.7.1 binaries the cluster<br>
op-version is set to 30501, because of glusterd still goes for acquiring<br>
cluster lock instead of volume wise lock for every request. Command log<br>
history indicates glusterD is getting multiple volume&#39;s status requests<br>
and because of it fails to acquire cluster lock. Could you bump up your<br>
cluster&#39;s op-version by the following command and recheck?<br>
<br>
gluster volume set all cluster.op-version 30701<br>
<br>
~Atin<br>
<div class="HOEnZb"><div class="h5">&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; In /var/log/gluster/etc-glusterfs-glusterd.vol.log I found:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [2015-06-09 16:12:38.949842] E [glusterd-utils.c:164:glusterd_lock]<br>
&gt;&gt;&gt; 0-management: Unable to get lock for uuid:<br>
&gt;&gt;&gt; 99a41a2a-2ce5-461c-aec0-510bd5b37bf2, lock held by:<br>
&gt;&gt;&gt; 04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt; [2015-06-09 16:12:38.949864] E<br>
&gt;&gt;&gt; [glusterd-syncop.c:1766:gd_sync_task_begin]<br>
&gt;&gt;&gt; 0-management: Unable to acquire lock<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I check the files:<br>
&gt;&gt;&gt;   From server 1:<br>
&gt;&gt;&gt; # cat /var/lib/glusterd/peers/04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt; uuid=04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt; state=3<br>
&gt;&gt;&gt; hostname1=192.168.61.101<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;   From server 2:<br>
&gt;&gt;&gt; # cat /var/lib/glusterd/peers/99a41a2a-2ce5-461c-aec0-510bd5b37bf2<br>
&gt;&gt;&gt; uuid=99a41a2a-2ce5-461c-aec0-510bd5b37bf2<br>
&gt;&gt;&gt; state=3<br>
&gt;&gt;&gt; hostname1=192.168.61.100<br>
&gt;&gt; Could you attach the complete glusterd log file and cmd-history.log<br>
&gt;&gt; file under /var/log/glusterfs directory? Could you provide a more<br>
&gt;&gt; detailed listing of things you did before hitting this issue?<br>
&gt; Hi Krishnan,<br>
&gt; thanks to a quick answer.<br>
&gt; In attach you can found the two log you request:<br>
&gt; cmd_history.log<br>
&gt; etc-glusterfs-glusterd.vol.log<br>
&gt;<br>
&gt; We use the gluster volume as openstack nova, glance, cinder backend.<br>
&gt;<br>
&gt; The volume is configured using 2 bricks mounted by an iscsi device:<br>
&gt; [root@cld-stg-01 glusterfs]# gluster volume info volume-nova-prod<br>
&gt; Volume Name: volume-nova-prod<br>
&gt; Type: Distribute<br>
&gt; Volume ID: 4bbef4c8-0441-4e81-a2c5-559401adadc0<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 2<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: 192.168.61.100:/brickOpenstack/nova-prod/mpathb<br>
&gt; Brick2: 192.168.61.101:/brickOpenstack/nova-prod/mpathb<br>
&gt; Options Reconfigured:<br>
&gt; storage.owner-gid: 162<br>
&gt; storage.owner-uid: 162<br>
&gt;<br>
&gt; Last week we update openstack from havana to icehouse and we rename the<br>
&gt; storage hosts but we didn&#39;t change the IP.<br>
&gt; All volume have been created using ip addresses.<br>
&gt;<br>
&gt; So last week we stop all services (openstack gluster and also iscsi).<br>
&gt; We change the name in DNS of private ip of the 2 nics.<br>
&gt; We reboot the storage servers<br>
&gt; We start agian iscsi, multipath, glusterd process.<br>
&gt; We have to stop and start the volumes, but after that everything works<br>
&gt; fine.<br>
&gt; Now we don&#39;t observe any other problems except this.<br>
&gt;<br>
&gt; We have a nagios probe which check the volume status each 5 minutes to<br>
&gt; ensure all gluster process is working fine and so we find this problem I<br>
&gt; post.<br>
&gt;<br>
&gt; Cheer<br>
&gt; Sergio<br>
&gt;<br>
&gt;<br>
</div></div><span class="im HOEnZb">&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<br>
</span><span class="HOEnZb"><font color="#888888">--<br>
~Atin<br>
</font></span><div class="HOEnZb"><div class="h5">_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">Tiemen Ruiten<br>Systems Engineer<br>R&amp;D Media<br></div></div>
</div>