<div dir="ltr"><div>Thanks, I&#39;ll do that. Is it possible/likely that this lower op-version is also causing the issue I posted on gluster-users earlier: 0-rpcsvc: rpc actor failed to complete successfully<br></div><div><a href="https://www.mail-archive.com/gluster-users@gluster.org/msg20569.html">https://www.mail-archive.com/gluster-users@gluster.org/msg20569.html</a></div><div><br></div><div>Any pointers on that would be greatly appreciated, since we&#39;ve had multiple occurences of this since Sunday, three today only.<br></div><div class="gmail_extra"><div class="gmail_quote"><br></div><div class="gmail_quote">Thanks,</div><div class="gmail_quote"><br></div><div class="gmail_quote">On 10 June 2015 at 14:42, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
<br>
On 06/10/2015 05:32 PM, Tiemen Ruiten wrote:<br>
&gt; Hello Atin,<br>
&gt;<br>
&gt; We are running 3.7.0 on our storage nodes and suffer from the same issue.<br>
&gt; Is it safe to perform the same command or should we first upgrade to 3.7.1?<br>
</span>You should upgrade to 3.7.1<br>
<div class="HOEnZb"><div class="h5">&gt;<br>
&gt; On 10 June 2015 at 13:45, Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com">amukherj@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On 06/10/2015 02:58 PM, Sergio Traldi wrote:<br>
&gt;&gt;&gt; On 06/10/2015 10:27 AM, Krishnan Parthasarathi wrote:<br>
&gt;&gt;&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt;&gt;&gt; I two servers with 3.7.1 and have the same problem of this issue:<br>
&gt;&gt;&gt;&gt;&gt; <a href="http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20693" target="_blank">http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20693</a><br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; My servers packages:<br>
&gt;&gt;&gt;&gt;&gt; # rpm -qa | grep gluster | sort<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-api-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-cli-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-client-xlators-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-fuse-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-geo-replication-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-libs-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt; glusterfs-server-3.7.1-1.el6.x86_64<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Command:<br>
&gt;&gt;&gt;&gt;&gt; # gluster volume status<br>
&gt;&gt;&gt;&gt;&gt; Another transaction is in progress. Please try again after sometime.<br>
&gt;&gt; The problem is although you are running 3.7.1 binaries the cluster<br>
&gt;&gt; op-version is set to 30501, because of glusterd still goes for acquiring<br>
&gt;&gt; cluster lock instead of volume wise lock for every request. Command log<br>
&gt;&gt; history indicates glusterD is getting multiple volume&#39;s status requests<br>
&gt;&gt; and because of it fails to acquire cluster lock. Could you bump up your<br>
&gt;&gt; cluster&#39;s op-version by the following command and recheck?<br>
&gt;&gt;<br>
&gt;&gt; gluster volume set all cluster.op-version 30701<br>
&gt;&gt;<br>
&gt;&gt; ~Atin<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; In /var/log/gluster/etc-glusterfs-glusterd.vol.log I found:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2015-06-09 16:12:38.949842] E [glusterd-utils.c:164:glusterd_lock]<br>
&gt;&gt;&gt;&gt;&gt; 0-management: Unable to get lock for uuid:<br>
&gt;&gt;&gt;&gt;&gt; 99a41a2a-2ce5-461c-aec0-510bd5b37bf2, lock held by:<br>
&gt;&gt;&gt;&gt;&gt; 04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt;&gt;&gt; [2015-06-09 16:12:38.949864] E<br>
&gt;&gt;&gt;&gt;&gt; [glusterd-syncop.c:1766:gd_sync_task_begin]<br>
&gt;&gt;&gt;&gt;&gt; 0-management: Unable to acquire lock<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I check the files:<br>
&gt;&gt;&gt;&gt;&gt;   From server 1:<br>
&gt;&gt;&gt;&gt;&gt; # cat /var/lib/glusterd/peers/04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt;&gt;&gt; uuid=04a7d2bb-bdd9-4e0d-b460-87ad4adbe12c<br>
&gt;&gt;&gt;&gt;&gt; state=3<br>
&gt;&gt;&gt;&gt;&gt; hostname1=192.168.61.101<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;   From server 2:<br>
&gt;&gt;&gt;&gt;&gt; # cat /var/lib/glusterd/peers/99a41a2a-2ce5-461c-aec0-510bd5b37bf2<br>
&gt;&gt;&gt;&gt;&gt; uuid=99a41a2a-2ce5-461c-aec0-510bd5b37bf2<br>
&gt;&gt;&gt;&gt;&gt; state=3<br>
&gt;&gt;&gt;&gt;&gt; hostname1=192.168.61.100<br>
&gt;&gt;&gt;&gt; Could you attach the complete glusterd log file and cmd-history.log<br>
&gt;&gt;&gt;&gt; file under /var/log/glusterfs directory? Could you provide a more<br>
&gt;&gt;&gt;&gt; detailed listing of things you did before hitting this issue?<br>
&gt;&gt;&gt; Hi Krishnan,<br>
&gt;&gt;&gt; thanks to a quick answer.<br>
&gt;&gt;&gt; In attach you can found the two log you request:<br>
&gt;&gt;&gt; cmd_history.log<br>
&gt;&gt;&gt; etc-glusterfs-glusterd.vol.log<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; We use the gluster volume as openstack nova, glance, cinder backend.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The volume is configured using 2 bricks mounted by an iscsi device:<br>
&gt;&gt;&gt; [root@cld-stg-01 glusterfs]# gluster volume info volume-nova-prod<br>
&gt;&gt;&gt; Volume Name: volume-nova-prod<br>
&gt;&gt;&gt; Type: Distribute<br>
&gt;&gt;&gt; Volume ID: 4bbef4c8-0441-4e81-a2c5-559401adadc0<br>
&gt;&gt;&gt; Status: Started<br>
&gt;&gt;&gt; Number of Bricks: 2<br>
&gt;&gt;&gt; Transport-type: tcp<br>
&gt;&gt;&gt; Bricks:<br>
&gt;&gt;&gt; Brick1: 192.168.61.100:/brickOpenstack/nova-prod/mpathb<br>
&gt;&gt;&gt; Brick2: 192.168.61.101:/brickOpenstack/nova-prod/mpathb<br>
&gt;&gt;&gt; Options Reconfigured:<br>
&gt;&gt;&gt; storage.owner-gid: 162<br>
&gt;&gt;&gt; storage.owner-uid: 162<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Last week we update openstack from havana to icehouse and we rename the<br>
&gt;&gt;&gt; storage hosts but we didn&#39;t change the IP.<br>
&gt;&gt;&gt; All volume have been created using ip addresses.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; So last week we stop all services (openstack gluster and also iscsi).<br>
&gt;&gt;&gt; We change the name in DNS of private ip of the 2 nics.<br>
&gt;&gt;&gt; We reboot the storage servers<br>
&gt;&gt;&gt; We start agian iscsi, multipath, glusterd process.<br>
&gt;&gt;&gt; We have to stop and start the volumes, but after that everything works<br>
&gt;&gt;&gt; fine.<br>
&gt;&gt;&gt; Now we don&#39;t observe any other problems except this.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; We have a nagios probe which check the volume status each 5 minutes to<br>
&gt;&gt;&gt; ensure all gluster process is working fine and so we find this problem I<br>
&gt;&gt;&gt; post.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Cheer<br>
&gt;&gt;&gt; Sergio<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; ~Atin<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
--<br>
</div></div><span class="HOEnZb"><font color="#888888">~Atin<br>
</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">Tiemen Ruiten<br>Systems Engineer<br>R&amp;D Media<br></div></div>
</div></div>