<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    responses below<br>
    Ted Miller<br>
    <br>
    <div class="moz-cite-prefix">On 5/26/2015 12:01 AM, Atin Mukherjee
      wrote:<br>
    </div>
    <blockquote cite="mid:5563F00F.8050502@redhat.com" type="cite">
      <pre wrap="">

On 05/26/2015 03:12 AM, Ted Miller wrote:
</pre>
      <blockquote type="cite">
        <pre wrap="">
From: Niels de Vos <a class="moz-txt-link-rfc2396E" href="mailto:ndevos@redhat.com">&lt;ndevos@redhat.com&gt;</a>
Sent: Monday, May 25, 2015 4:44 PM

On Mon, May 25, 2015 at 06:49:26PM +0000, Ted Miller wrote:
</pre>
        <blockquote type="cite">
          <pre wrap="">
________________________________
From: Humble Devassy Chirammal <a class="moz-txt-link-rfc2396E" href="mailto:humble.devassy@gmail.com">&lt;humble.devassy@gmail.com&gt;</a>
Sent: Monday, May 18, 2015 9:37 AM
Hi All,

GlusterFS 3.7.0 RPMs for RHEL, CentOS, Fedora and packages for Debian are available at download.gluster.org<a class="moz-txt-link-rfc2396E" href="http://download.gluster.org">&lt;http://download.gluster.org&gt;</a> [1].

[1] <a class="moz-txt-link-freetext" href="http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.0/">http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.0/</a>

--Humble


On Thu, May 14, 2015 at 2:49 PM, Vijay Bellur &lt;<a class="moz-txt-link-abbreviated" href="mailto:vbellur@redhat.com">vbellur@redhat.com</a><a class="moz-txt-link-rfc2396E" href="mailto:vbellur@redhat.com">&lt;mailto:vbellur@redhat.com&gt;</a>&gt; wrote:

Hi All,

I am happy to announce that Gluster 3.7.0 is now generally available. 3.7.0 contains several

[snip]

Cheers,
Vijay

[snip]

What happened to packages for RHEL/Centos 5?  I have the (probably
unusual--added gluster to existing servers) setup of running a replica
3 cluster where two nodes run on Centos 6 and one is still on Centos
5.  This is a personal setup, and I have been using
<a class="moz-txt-link-freetext" href="http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/epel-5/x86_64/repodata/repomod.xml">http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/epel-5/x86_64/repodata/repomod.xml</a>
as my repo.  It has worked fine for a while, but this time the two
Centos 6 nodes updated to 3.7, but the Centos 5 node got left behind
at 3.6.3.
</pre>
        </blockquote>
        <pre wrap="">
Packages for RHEL/CentOS-5 are not available yet. These will follow
later. Thare are some changes needed to be able to build the packages on
EL5. Because we are currently stabilizing our CI/regression tests, we do
not merge any other changes. Until we provide packages in our
repository, you could apply patch <a class="moz-txt-link-freetext" href="http://review.gluster.org/10803">http://review.gluster.org/10803</a>
yourself and build the EL5 version. I expect that we will do a release
in 2-3 weeks which will have EL5 RPMs too.

I have no idea about the problem below, it sounds like something the
GlusterD developers could help with.

Niels

</pre>
        <blockquote type="cite">
          <pre wrap="">Command 'gluster volume status' on the C5 machine makes everything
look fine:

Status of volume: ISO2
Gluster process                                       Port    Online  Pid
------------------------------------------------------------------------------
Brick 10.x.x.2:/bricks/01/iso2                        49162   Y       4679
Brick 10.x.x.4:/bricks/01/iso2                        49183   Y       6447
Brick 10.x.x.9:/bricks/01/iso2                        49169   Y       1985

But the same command on either of the C6 machines shows the C5 machine
(10.x.x.2) missing in action (though it does recognize that there are
NFS and heal daemons there):

Status of volume: ISO2
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick 10.41.65.4:/bricks/01/iso2            49183     0          Y       6447
Brick 10.41.65.9:/bricks/01/iso2            49169     0          Y       1985
NFS Server on localhost                     2049      0          Y       2279
Self-heal Daemon on localhost               N/A       N/A        Y       2754
NFS Server on 10.41.65.2                    2049      0          Y       4757
Self-heal Daemon on 10.41.65.2              N/A       N/A        Y       4764
NFS Server on 10.41.65.4                    2049      0          Y       6543
Self-heal Daemon on 10.41.65.4              N/A       N/A        Y       6551

So, is this just an oversight (I hope), or has support for C5 been dropped?
If support for C5 is gone, how do I downgrade my Centos6 machines back
to 3.6.x? (I know how to change the repo, but the actual sequence of
yum commands and gluster commands is unknown to me).
</pre>
        </blockquote>
      </blockquote>
      <pre wrap="">Could you attach the glusterd log file of 10.x.x.2 machine</pre>
    </blockquote>
    attached as etc-glusterfs-glusterd.vol.log.newer.2, starting from
    last machine reboot<br>
    <blockquote cite="mid:5563F00F.8050502@redhat.com" type="cite">
      <pre wrap=""> and the node from where you triggered volume status. </pre>
    </blockquote>
    attached as etc-glusterfs-glusterd.vol.log.newer4 starting same time
    as .2 log<br>
    <blockquote cite="mid:5563F00F.8050502@redhat.com" type="cite">
      <pre wrap="">Could you also share gluster volume info output of all the nodes?</pre>
    </blockquote>
    I have several volumes, so I chose the one that shows up first on
    the listings:<br>
    <br>
    <b>from 10.41.65.2:</b><br>
    <br>
    <tt>[root@office2 /var/log/glusterfs]$ gluster volume info</tt><tt><br>
    </tt><tt>                                                      </tt><tt><br>
    </tt><tt>Volume Name: ISO2                                     </tt><tt><br>
    </tt><tt>Type: Replicate                                       </tt><tt><br>
    </tt><tt>Volume ID: 090da4b3-c666-41fe-8283-2c029228b3f7       </tt><tt><br>
    </tt><tt>Status: Started                                       </tt><tt><br>
    </tt><tt>Number of Bricks: 1 x 3 = 3                           </tt><tt><br>
    </tt><tt>Transport-type: tcp                                   </tt><tt><br>
    </tt><tt>Bricks:                                               </tt><tt><br>
    </tt><tt>Brick1: 10.41.65.2:/bricks/01/iso2                    </tt><tt><br>
    </tt><tt>Brick2: 10.41.65.4:/bricks/01/iso2                    </tt><tt><br>
    </tt><tt>Brick3: 10.41.65.9:/bricks/01/iso2                    </tt><tt><br>
    </tt><tt>                                                      </tt><tt><br>
    </tt><tt>[root@office2 /var/log/glusterfs]$ gluster volume status
      ISO2</tt><tt><br>
    </tt><tt>Status of volume: ISO2</tt><tt><br>
    </tt><tt>Gluster process                                        
      Port    Online  Pid</tt><tt><br>
    </tt><tt>------------------------------------------------------------------------------</tt><tt><br>
    </tt><tt>Brick 10.41.65.2:/bricks/01/iso2                       
      49162   Y       4463</tt><tt><br>
    </tt><tt>Brick 10.41.65.4:/bricks/01/iso2                       
      49183   Y       6447</tt><tt><br>
    </tt><tt>Brick 10.41.65.9:/bricks/01/iso2                       
      49169   Y       1985</tt><tt><br>
    </tt><tt>NFS Server on localhost                                
      2049    Y       4536</tt><tt><br>
    </tt><tt>Self-heal Daemon on localhost                          
      N/A     Y       4543</tt><tt><br>
    </tt><tt>NFS Server on 10.41.65.9                               
      2049    Y       2279</tt><tt><br>
    </tt><tt>Self-heal Daemon on 10.41.65.9                         
      N/A     Y       2754</tt><tt><br>
    </tt><tt>NFS Server on 10.41.65.4                               
      2049    Y       6543</tt><tt><br>
    </tt><tt>Self-heal Daemon on 10.41.65.4                         
      N/A     Y       6551</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Task Status of Volume ISO2</tt><tt><br>
    </tt><tt>------------------------------------------------------------------------------</tt><tt><br>
    </tt><tt>There are no active volume tasks</tt><tt><br>
    </tt><tt><br>
    </tt><tt>[root@office2 ~]$ gluster peer status</tt><tt><br>
    </tt><tt>Number of Peers: 2</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.9</tt><tt><br>
    </tt><tt>Uuid: cf2ae9c7-833e-4a73-a996-e72158011c69</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.4</tt><tt><br>
    </tt><tt>Uuid: bd3ca8b7-f2da-44ce-8739-c0db5e40158c</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt><tt><br>
    </tt><font face="Courier New, Courier, monospace"><br>
    </font><br>
    <b>from 10.41.65.4:</b><br>
    <br>
    <tt>[root@office4b ~]# gluster volume info ISO2</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Volume Name: ISO2</tt><tt><br>
    </tt><tt>Type: Replicate</tt><tt><br>
    </tt><tt>Volume ID: 090da4b3-c666-41fe-8283-2c029228b3f7</tt><tt><br>
    </tt><tt>Status: Started</tt><tt><br>
    </tt><tt>Number of Bricks: 1 x 3 = 3</tt><tt><br>
    </tt><tt>Transport-type: tcp</tt><tt><br>
    </tt><tt>Bricks:</tt><tt><br>
    </tt><tt>Brick1: 10.41.65.2:/bricks/01/iso2</tt><tt><br>
    </tt><tt>Brick2: 10.41.65.4:/bricks/01/iso2</tt><tt><br>
    </tt><tt>Brick3: 10.41.65.9:/bricks/01/iso2</tt><tt><br>
    </tt><tt><br>
    </tt><tt>[root@office4b ~]# gluster volume status ISO2</tt><tt><br>
    </tt><tt>Status of volume: ISO2</tt><tt><br>
    </tt><tt>Gluster process                             TCP Port  RDMA
      Port  Online  Pid</tt><tt><br>
    </tt><tt>------------------------------------------------------------------------------</tt><tt><br>
    </tt><tt>Brick 10.41.65.4:/bricks/01/iso2            49183    
      0          Y       6447</tt><tt><br>
    </tt><tt>Brick 10.41.65.9:/bricks/01/iso2            49169    
      0          Y       1985</tt><tt><br>
    </tt><tt>NFS Server on localhost                     2049     
      0          Y       6543</tt><tt><br>
    </tt><tt>Self-heal Daemon on localhost               N/A      
      N/A        Y       6551</tt><tt><br>
    </tt><tt>NFS Server on 10.41.65.2                    2049     
      0          Y       4536</tt><tt><br>
    </tt><tt>Self-heal Daemon on 10.41.65.2              N/A      
      N/A        Y       4543</tt><tt><br>
    </tt><tt>NFS Server on 10.41.65.9                    2049     
      0          Y       2279</tt><tt><br>
    </tt><tt>Self-heal Daemon on 10.41.65.9              N/A      
      N/A        Y       2754</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Task Status of Volume ISO2</tt><tt><br>
    </tt><tt>------------------------------------------------------------------------------</tt><tt><br>
    </tt><tt>There are no active volume tasks</tt><tt><br>
    </tt><tt><br>
    </tt><tt>[root@office4b ~]# gluster peer status</tt><tt><br>
    </tt><tt>Number of Peers: 2</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.2</tt><tt><br>
    </tt><tt>Uuid: 4a53ed8b-2b41-4a3c-acf7-2dabec431f57</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.9</tt><tt><br>
    </tt><tt>Uuid: cf2ae9c7-833e-4a73-a996-e72158011c69</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt><tt><br>
    </tt><font face="Courier New, Courier, monospace"><br>
    </font><br>
    <b>from 10.41.65.9:</b><br>
    <br>
    <tt>[root@office9 ~]$ gluster volume info ISO2<br>
      <br>
      Volume Name: ISO2<br>
      Type: Replicate<br>
      Volume ID: 090da4b3-c666-41fe-8283-2c029228b3f7<br>
      Status: Started<br>
      Number of Bricks: 1 x 3 = 3<br>
      Transport-type: tcp<br>
      Bricks:<br>
      Brick1: 10.41.65.2:/bricks/01/iso2<br>
      Brick2: 10.41.65.4:/bricks/01/iso2<br>
      Brick3: 10.41.65.9:/bricks/01/iso2<br>
      [root@office9 ~]$ gluster volume status ISO2<br>
      Status of volume: ISO2<br>
      Gluster process                             TCP Port  RDMA Port 
      Online  Pid<br>
------------------------------------------------------------------------------<br>
      Brick 10.41.65.4:/bricks/01/iso2            49183     0         
      Y       6447<br>
      Brick 10.41.65.9:/bricks/01/iso2            49169     0         
      Y       1985<br>
      NFS Server on localhost                     2049      0         
      Y       2279<br>
      Self-heal Daemon on localhost               N/A       N/A       
      Y       2754<br>
      NFS Server on 10.41.65.2                    2049      0         
      Y       4536<br>
      Self-heal Daemon on 10.41.65.2              N/A       N/A       
      Y       4543<br>
      NFS Server on 10.41.65.4                    2049      0         
      Y       6543<br>
      Self-heal Daemon on 10.41.65.4              N/A       N/A       
      Y       6551<br>
      <br>
      Task Status of Volume ISO2<br>
------------------------------------------------------------------------------<br>
      There are no active volume tasks<br>
    </tt><tt><br>
    </tt><tt>[root@office9 ~]$ gluster peer status</tt><tt><br>
    </tt><tt>Number of Peers: 2</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.2</tt><tt><br>
    </tt><tt>Uuid: 4a53ed8b-2b41-4a3c-acf7-2dabec431f57</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt><tt><br>
    </tt><tt><br>
    </tt><tt>Hostname: 10.41.65.4</tt><tt><br>
    </tt><tt>Uuid: bd3ca8b7-f2da-44ce-8739-c0db5e40158c</tt><tt><br>
    </tt><tt>State: Peer in Cluster (Connected)</tt>
    <blockquote cite="mid:5563F00F.8050502@redhat.com" type="cite">
      <pre wrap="">
</pre>
      <blockquote type="cite">
        <blockquote type="cite">
          <pre wrap="">
Ted Miller
Elkhart, IN, USA
</pre>
        </blockquote>
        <pre wrap="">

Thanks for the information.  As long as I know it is coming, I can improvise and hang on.

I am assuming that the problem with the .2 machine not being seen is a result of running a cluster with a version split.

Ted Miller
_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a>

</pre>
      </blockquote>
      <pre wrap="">
</pre>
    </blockquote>
    <br>
    <div class="moz-signature">-- <br>
      <font color="#3366ff" face="Helvetica, Arial, sans-serif"><big><font
            color="#000099"><b>Ted Miller</b></font>, Design Engineer<br>
          <b>SonSet Solutions</b></big><br>
        (formerly HCJB Global Technology Center)<br>
        my desk +1 574.970.4272<br>
        receptionist +1 574.972.4252<br>
        <a href="http://sonsetsolutions.org">http://sonsetsolutions.org</a></font><br>
      <br>
      <font color="#996633"><i>Technology for abundant life!</i></font></div>
  </body>
</html>