<html><body><p>Hi Soumya, Kaleb, all:<br><br>Thanks for the response!<br><br><br>Quick follow-up to this question - We tried running ganesha and gluster on two separate machines and the configuration seems to be working without issues. <br><br>Follow-up question I have is this: what changes do I need to make to put the Ganesha in active active HA mode - where backend gluster and ganesha will be on a different node. I am using the instructions here for putting Ganesha in HA mode. <a href="http://www.slideshare.net/SoumyaKoduri/high-49117846">http://www.slideshare.net/SoumyaKoduri/high-49117846</a>.  This presentation refers to commands like gluster cluster.enable-shared-storage to enable HA.<br><br>1. Here is the config I am hoping to achieve: <br>glusterA and glusterB on individual bare metals - both in Trusted pool, with volume gvol0 up and running.<br><br><br><br>Ganesha 1 and 2 on machines ganesha1, and ganesha1. And my gluster storage will be on a third machine gluster1. (with a peer on another machine gluster2).<br><br>Ganesha node1: on a VM ganeshaA.<br>Ganesha node2: on another vm GaneshaB.<br><br>I would like to know what it takes to put ganeshaA and GaneshaB in Active Active HA mode. Is it technically possible?<br><br>a. How do commands like cluster.enable-shared-storage work in this case?<br>b. where does this command need to be run? on the ganesha node, or on the gluster nodes?<br><br><br>2. Also, is it possible to have multiple ganesha servers point to the same gluster volume in the back end? say, in the configuration #1, I have another ganesha server GaneshaC that is not clustered with ganeshaA or ganeshaB. Can it export the volume gvol0 that ganeshaA and ganeshaB are also exporting?<br><br>thank you!<br><br><br>Surya.<br><br>Regards,<br><br>Surya Ghatty<br><br>&quot;This too shall pass&quot;<br>________________________________________________________________________________________________________<br>Surya Ghatty | Software Engineer | IBM Cloud Infrastructure Services Development | tel: (507) 316-0559 | ghatty@us.ibm.com<br><br><br><img width="16" height="16" src="cid:1__=8FBBF59CDFF99C048f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for Soumya Koduri ---11/18/2015 05:08:02 AM---On 11/17/2015 10:21 PM, Surya K Ghatty wrote: &gt; Hi:"><font color="#424282">Soumya Koduri ---11/18/2015 05:08:02 AM---On 11/17/2015 10:21 PM, Surya K Ghatty wrote: &gt; Hi:</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">Soumya Koduri &lt;skoduri@redhat.com&gt;</font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">Surya K Ghatty/Rochester/IBM@IBMUS, gluster-users@gluster.org</font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">11/18/2015 05:08 AM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [Gluster-users] Configuring Ganesha and gluster on separate nodes?</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><tt><br><br>On 11/17/2015 10:21 PM, Surya K Ghatty wrote:<br>&gt; Hi:<br>&gt;<br>&gt; I am trying to understand if it is technically feasible to have gluster<br>&gt; nodes on one machine, and export a volume from one of these nodes using<br>&gt; a nfs-ganesha server installed on a totally different machine? I tried<br>&gt; the below and showmount -e does not show my volume exported. Any<br>&gt; suggestions will be appreciated.<br>&gt;<br>&gt; 1. Here is my configuration:<br>&gt;<br>&gt; Gluster nodes: glusterA and glusterB on individual bare metals - both in<br>&gt; Trusted pool, with volume gvol0 up and running.<br>&gt; Ganesha node: on bare metal ganeshaA.<br>&gt;<br>&gt; 2. my ganesha.conf looks like this with IP address of glusterA in the FSAL.<br>&gt;<br>&gt; FSAL {<br>&gt; Name = GLUSTER;<br>&gt;<br>&gt; # IP of one of the nodes in the trusted pool<br>&gt; *hostname = &quot;WW.ZZ.XX.YY&quot; --&gt; IP address of GlusterA.*<br>&gt;<br>&gt; # Volume name. Eg: &quot;test_volume&quot;<br>&gt; volume = &quot;gvol0&quot;;<br>&gt; }<br>&gt;<br>&gt; 3. I disabled nfs on gvol0. As you can see, *nfs.disable is set to on.*<br>&gt;<br>&gt; [root@glusterA ~]# gluster vol info<br>&gt;<br>&gt; Volume Name: gvol0<br>&gt; Type: Distribute<br>&gt; Volume ID: 16015bcc-1d17-4ef1-bb8b-01b7fdf6efa0<br>&gt; Status: Started<br>&gt; Number of Bricks: 1<br>&gt; Transport-type: tcp<br>&gt; Bricks:<br>&gt; Brick1: glusterA:/data/brick0/gvol0<br>&gt; Options Reconfigured:<br>&gt; *nfs.disable: on*<br>&gt; nfs.export-volumes: off<br>&gt; features.quota-deem-statfs: on<br>&gt; features.inode-quota: on<br>&gt; features.quota: on<br>&gt; performance.readdir-ahead: on<br>&gt;<br>&gt; 4. I then ran ganesha.nfsd -f /etc/ganesha/ganesha.conf -L<br>&gt; /var/log/ganesha.log -N NIV_FULL_DEBUG<br>&gt; Ganesha server was put in grace, no errors.<br>&gt;<br>&gt; 17/11/2015 10:44:40 : epoch 564b5964 : ganeshaA:<br>&gt; nfs-ganesha-26426[reaper] fridgethr_freeze :RW LOCK :F_DBG :Released<br>&gt; mutex 0x7f21a92818d0 (&amp;fr-&gt;mtx) at<br>&gt; /builddir/build/BUILD/nfs-ganesha-2.2.0/src/support/fridgethr.c:484<br>&gt; 17/11/2015 10:44:40 : epoch 564b5964 : ganeshaA:<br>&gt; nfs-ganesha-26426[reaper] nfs_in_grace :RW LOCK :F_DBG :Acquired mutex<br>&gt; 0x7f21ad1f18e0 (&amp;grace.g_mutex) at<br>&gt; /builddir/build/BUILD/nfs-ganesha-2.2.0/src/SAL/nfs4_recovery.c:129<br>&gt; *17/11/2015 10:44:40 : epoch 564b5964 : ganeshaA :<br>&gt; nfs-ganesha-26426[reaper] nfs_in_grace :STATE :DEBUG :NFS Server IN GRACE*<br>&gt; 17/11/2015 10:44:40 : epoch 564b5964 : ganeshaA :<br>&gt; nfs-ganesha-26426[reaper] nfs_in_grace :RW LOCK :F_DBG :Released mutex<br>&gt; 0x7f21ad1f18e0 (&amp;grace.g_mutex) at<br>&gt; /builddir/build/BUILD/nfs-ganesha-2.2.0/src/SAL/nfs4_recovery.c:141<br>&gt;<br><br>You shall still need gluster-client bits on the machine where <br>nfs-ganesha server is installed to export a gluster volume. Check if you <br>have got libgfapi.so installed on that machine.<br><br>Also, ganesha server does log the warnings if its unable to process the <br>EXPORT/FSAL block. Please recheck the logs if you have got any.<br><br>Thanks,<br>Soumya<br><br>&gt; 5. [root@ganeshaA glusterfs]# showmount -e<br>&gt; Export list for ganeshaA:<br>&gt; &lt;empty&gt;<br>&gt;<br>&gt; Any suggestions on what I am missing?<br>&gt;<br>&gt; Regards,<br>&gt;<br>&gt; Surya Ghatty<br>&gt;<br>&gt; &quot;This too shall pass&quot;<br>&gt; ________________________________________________________________________________________________________<br>&gt; Surya Ghatty | Software Engineer | IBM Cloud Infrastructure Services<br>&gt; Development | tel: (507) 316-0559 | ghatty@us.ibm.com<br>&gt;<br>&gt;<br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </tt><tt><a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></tt><tt><br>&gt;<br><br></tt><br><BR>
</body></html>