<div dir="ltr">Whoops, replied off-list.<div><br></div><div>Additionally I noticed that the generated corosync config is not valid, as there is no interface section:</div><div><br></div><div>/etc/corosync/corosync.conf</div><div><br></div><div><div>totem {</div><div>version: 2</div><div>secauth: off</div><div>cluster_name: rd-ganesha-ha</div><div>transport: udpu</div><div>}</div><div><br></div><div>nodelist {</div><div>  node {</div><div>        ring0_addr: cobalt</div><div>        nodeid: 1</div><div>       }</div><div>  node {</div><div>        ring0_addr: iron</div><div>        nodeid: 2</div><div>       }</div><div>}</div><div><br></div><div>quorum {</div><div>provider: corosync_votequorum</div><div>two_node: 1</div><div>}</div><div><br></div><div>logging {</div><div>to_syslog: yes</div><div>}</div></div><div><br></div><div><br></div><div><br></div><div><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Tiemen Ruiten</b> <span dir="ltr">&lt;<a href="mailto:t.ruiten@rdmedia.com">t.ruiten@rdmedia.com</a>&gt;</span><br>Date: 21 September 2015 at 17:16<br>Subject: Re: [Gluster-users] nfs-ganesha HA with arbiter volume<br>To: Jiffin Tony Thottan &lt;<a href="mailto:jthottan@redhat.com">jthottan@redhat.com</a>&gt;<br><br><br><div dir="ltr">Could you point me to the latest documentation? I&#39;ve been struggling to find something up-to-date. I believe I have all the prerequisites:<div><br></div><div>- shared storage volume exists and is mounted</div><div>- all nodes in hosts files</div><div>- Gluster-NFS disabled</div><div>- corosync, pacemaker and nfs-ganesha rpm&#39;s installed</div><div><br></div><div>Anything I missed?</div><div><br></div><div>Everything has been installed by RPM so is in the default locations:</div><div>/usr/libexec/ganesha/ganesha-ha.sh<br></div><div>/etc/ganesha/ganesha.conf (empty)<br></div><div>/etc/ganesha/ganesha-ha.conf<br></div><div><br></div><div>After I started the pcsd service manually, nfs-ganesha could be enabled successfully, but there was no virtual IP present on the interfaces and looking at the system log, I noticed corosync failed to start:</div><div><br></div><div>- on the host where I issued the gluster nfs-ganesha enable command:</div><div><br></div><div><div>Sep 21 17:07:18 iron systemd: Starting NFS-Ganesha file server...</div><div>Sep 21 17:07:19 iron systemd: Started NFS-Ganesha file server.</div><div>Sep 21 17:07:19 iron rpc.statd[2409]: Received SM_UNMON_ALL request from <a href="http://iron.int.rdmedia.com" target="_blank">iron.int.rdmedia.com</a> while not monitoring any hosts</div><div>Sep 21 17:07:20 iron systemd: Starting Corosync Cluster Engine...</div><div>Sep 21 17:07:20 iron corosync[3426]: [MAIN  ] Corosync Cluster Engine (&#39;2.3.4&#39;): started and ready to provide service.</div><div>Sep 21 17:07:20 iron corosync[3426]: [MAIN  ] Corosync built-in features: dbus systemd xmlconf snmp pie relro bindnow</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] Initializing transport (UDP/IP Unicast).</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: none hash: none</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] The network interface [10.100.30.38] is now up.</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync configuration map access [0]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cmap</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync configuration service [1]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cfg</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01 [2]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cpg</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync profile loading service [4]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QUORUM] Using quorum provider corosync_votequorum</div><div>Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync vote quorum service v1.0 [5]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: votequorum</div><div>Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded: corosync cluster quorum service v0.1 [3]</div><div>Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: quorum</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] adding new UDPU member {10.100.30.38}</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] adding new UDPU member {10.100.30.37}</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] A new membership (<a href="http://10.100.30.38:104" target="_blank">10.100.30.38:104</a>) was formed. Members joined: 1</div><div>Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:20 iron corosync[3427]: [QUORUM] Members[1]: 1</div><div>Sep 21 17:07:20 iron corosync[3427]: [MAIN  ] Completed service synchronization, ready to provide service.</div><div>Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] A new membership (<a href="http://10.100.30.37:108" target="_blank">10.100.30.37:108</a>) was formed. Members joined: 1</div><div>Sep 21 17:08:21 iron corosync: Starting Corosync Cluster Engine (corosync): [FAILED]</div><div>Sep 21 17:08:21 iron systemd: corosync.service: control process exited, code=exited status=1</div><div>Sep 21 17:08:21 iron systemd: Failed to start Corosync Cluster Engine.</div><div>Sep 21 17:08:21 iron systemd: Unit corosync.service entered failed state.</div></div><div><br></div><div><br></div><div>- on the other host:</div><div><br></div><div><div>Sep 21 17:07:19 cobalt systemd: Starting Preprocess NFS configuration...</div><div>Sep 21 17:07:19 cobalt systemd: Starting RPC Port Mapper.</div><div>Sep 21 17:07:19 cobalt systemd: Reached target RPC Port Mapper.</div><div>Sep 21 17:07:19 cobalt systemd: Starting Host and Network Name Lookups.</div><div>Sep 21 17:07:19 cobalt systemd: Reached target Host and Network Name Lookups.</div><div>Sep 21 17:07:19 cobalt systemd: Starting RPC bind service...</div><div>Sep 21 17:07:19 cobalt systemd: Started Preprocess NFS configuration.</div><div>Sep 21 17:07:19 cobalt systemd: Started RPC bind service.</div><div>Sep 21 17:07:19 cobalt systemd: Starting NFS status monitor for NFSv2/3 locking....</div><div>Sep 21 17:07:19 cobalt rpc.statd[2662]: Version 1.3.0 starting</div><div>Sep 21 17:07:19 cobalt rpc.statd[2662]: Flags: TI-RPC</div><div>Sep 21 17:07:19 cobalt systemd: Started NFS status monitor for NFSv2/3 locking..</div><div>Sep 21 17:07:19 cobalt systemd: Starting NFS-Ganesha file server...</div><div>Sep 21 17:07:19 cobalt systemd: Started NFS-Ganesha file server.</div><div>Sep 21 17:07:19 cobalt kernel: warning: `ganesha.nfsd&#39; uses 32-bit capabilities (legacy support in use)</div><div>Sep 21 17:07:19 cobalt logger: setting up rd-ganesha-ha</div><div>Sep 21 17:07:19 cobalt rpc.statd[2662]: Received SM_UNMON_ALL request from <a href="http://cobalt.int.rdmedia.com" target="_blank">cobalt.int.rdmedia.com</a> while not monitoring any hosts</div><div>Sep 21 17:07:19 cobalt logger: setting up cluster rd-ganesha-ha with the following cobalt iron</div><div>Sep 21 17:07:20 cobalt systemd: Stopped Pacemaker High Availability Cluster Manager.</div><div>Sep 21 17:07:20 cobalt systemd: Stopped Corosync Cluster Engine.</div><div>Sep 21 17:07:20 cobalt systemd: Reloading.</div><div>Sep 21 17:07:20 cobalt systemd: [/usr/lib/systemd/system/dm-event.socket:10] Unknown lvalue &#39;RemoveOnStop&#39; in section &#39;Socket&#39;</div><div>Sep 21 17:07:20 cobalt systemd: [/usr/lib/systemd/system/lvm2-lvmetad.socket:9] Unknown lvalue &#39;RemoveOnStop&#39; in section &#39;Socket&#39;</div><div>Sep 21 17:07:20 cobalt systemd: Reloading.</div><div>Sep 21 17:07:20 cobalt systemd: [/usr/lib/systemd/system/dm-event.socket:10] Unknown lvalue &#39;RemoveOnStop&#39; in section &#39;Socket&#39;</div><div>Sep 21 17:07:20 cobalt systemd: [/usr/lib/systemd/system/lvm2-lvmetad.socket:9] Unknown lvalue &#39;RemoveOnStop&#39; in section &#39;Socket&#39;</div><div>Sep 21 17:07:20 cobalt systemd: Starting Corosync Cluster Engine...</div><div>Sep 21 17:07:20 cobalt corosync[2816]: [MAIN  ] Corosync Cluster Engine (&#39;2.3.4&#39;): started and ready to provide service.</div><div>Sep 21 17:07:20 cobalt corosync[2816]: [MAIN  ] Corosync built-in features: dbus systemd xmlconf snmp pie relro bindnow</div><div>Sep 21 17:07:20 cobalt corosync[2817]: [TOTEM ] Initializing transport (UDP/IP Unicast).</div><div>Sep 21 17:07:20 cobalt corosync[2817]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: none hash: none</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] The network interface [10.100.30.37] is now up.</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync configuration map access [0]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cmap</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync configuration service [1]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cfg</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01 [2]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cpg</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync profile loading service [4]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Using quorum provider corosync_votequorum</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync vote quorum service v1.0 [5]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: votequorum</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded: corosync cluster quorum service v0.1 [3]</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: quorum</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] adding new UDPU member {10.100.30.37}</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] adding new UDPU member {10.100.30.38}</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] A new membership (<a href="http://10.100.30.37:100" target="_blank">10.100.30.37:100</a>) was formed. Members joined: 1</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Members[1]: 1</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [MAIN  ] Completed service synchronization, ready to provide service.</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] A new membership (<a href="http://10.100.30.37:108" target="_blank">10.100.30.37:108</a>) was formed. Members joined: 1</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all cluster members. Current votes: 1 expected_votes: 2</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Members[1]: 1</div><div>Sep 21 17:07:21 cobalt corosync[2817]: [MAIN  ] Completed service synchronization, ready to provide service.</div><div>Sep 21 17:08:50 cobalt systemd: corosync.service operation timed out. Terminating.</div><div>Sep 21 17:08:50 cobalt corosync: Starting Corosync Cluster Engine (corosync):</div><div>Sep 21 17:08:50 cobalt systemd: Failed to start Corosync Cluster Engine.</div><div>Sep 21 17:08:50 cobalt systemd: Unit corosync.service entered failed state.</div><div>Sep 21 17:08:55 cobalt logger: warning: pcs property set no-quorum-policy=ignore failed</div><div>Sep 21 17:08:55 cobalt logger: warning: pcs property set stonith-enabled=false failed</div><div>Sep 21 17:08:55 cobalt logger: warning: pcs resource create nfs_start ganesha_nfsd ha_vol_mnt=/var/run/gluster/shared_storage --clone failed</div><div>Sep 21 17:08:56 cobalt logger: warning: pcs resource delete nfs_start-clone failed</div><div>Sep 21 17:08:56 cobalt logger: warning: pcs resource create nfs-mon ganesha_mon --clone failed</div><div>Sep 21 17:08:56 cobalt logger: warning: pcs resource create nfs-grace ganesha_grace --clone failed</div><div>Sep 21 17:08:57 cobalt logger: warning pcs resource create cobalt-cluster_ip-1 ocf:heartbeat:IPaddr ip= cidr_netmask=32 op monitor interval=15s failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs resource create cobalt-trigger_ip-1 ocf:heartbeat:Dummy failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs constraint colocation add cobalt-cluster_ip-1 with cobalt-trigger_ip-1 failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs constraint order cobalt-trigger_ip-1 then nfs-grace-clone failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs constraint order nfs-grace-clone then cobalt-cluster_ip-1 failed</div><div>Sep 21 17:08:57 cobalt logger: warning pcs resource create iron-cluster_ip-1 ocf:heartbeat:IPaddr ip= cidr_netmask=32 op monitor interval=15s failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs resource create iron-trigger_ip-1 ocf:heartbeat:Dummy failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs constraint colocation add iron-cluster_ip-1 with iron-trigger_ip-1 failed</div><div>Sep 21 17:08:57 cobalt logger: warning: pcs constraint order iron-trigger_ip-1 then nfs-grace-clone failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint order nfs-grace-clone then iron-cluster_ip-1 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location cobalt-cluster_ip-1 rule score=-INFINITY ganesha-active ne 1 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location cobalt-cluster_ip-1 prefers iron=1000 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location cobalt-cluster_ip-1 prefers cobalt=2000 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location iron-cluster_ip-1 rule score=-INFINITY ganesha-active ne 1 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location iron-cluster_ip-1 prefers cobalt=1000 failed</div><div>Sep 21 17:08:58 cobalt logger: warning: pcs constraint location iron-cluster_ip-1 prefers iron=2000 failed</div><div>Sep 21 17:08:58 cobalt logger: warning pcs cluster cib-push /tmp/tmp.nXTfyA1GMR failed</div><div>Sep 21 17:08:58 cobalt logger: warning: scp ganesha-ha.conf to cobalt failed</div></div><div><br></div><div>BTW, I&#39;m using CentOS 7. There are multiple network interfaces on the servers, could that be a problem? <br></div><div><br></div><div><br></div><div><br></div></div><div class=""><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On 21 September 2015 at 11:48, Jiffin Tony Thottan <span dir="ltr">&lt;<a href="mailto:jthottan@redhat.com" target="_blank">jthottan@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
  
    
  
  <div text="#000000" bgcolor="#FFFFFF"><span>
    <br>
    <br>
    <div>On 21/09/15 13:56, Tiemen Ruiten wrote:<br>
    </div>
    <blockquote type="cite">
      <div dir="ltr">Hello Soumya, Kaleb, list,
        <div><br>
        </div>
        <div>This Friday I created the gluster_shared_storage volume
          manually, I just tried it with the command you supplied, but
          both have the same result:</div>
        <div><br>
        </div>
        <div>from etc-glusterfs-glusterd.vol.log on the node where I
          issued the command:</div>
        <div><br>
        </div>
        <div>
          <div>[2015-09-21 07:59:47.756845] I [MSGID: 106474]
            [glusterd-ganesha.c:403:check_host_list] 0-management:
            ganesha host found Hostname is cobalt</div>
          <div>[2015-09-21 07:59:48.071755] I [MSGID: 106474]
            [glusterd-ganesha.c:349:is_ganesha_host] 0-management:
            ganesha host found Hostname is cobalt</div>
          <div>[2015-09-21 07:59:48.653879] E [MSGID: 106470]
            [glusterd-ganesha.c:264:glusterd_op_set_ganesha]
            0-management: Initial NFS-Ganesha set up failed</div>
        </div>
      </div>
    </blockquote>
    <br></span>
    As far as what I understand from the logs, it called
    setup_cluser()[calls `ganesha-ha.sh` script ] but script failed.<br>
    Can u please provide following details :<br>
    -Location of ganesha.sh file??<br>
    -Location of ganesha-ha.conf, ganesha.conf files ?<br>
    <br>
    <br>
    And also can u cross check whether all the prerequisites before HA
    setup satisfied ?<br>
    <br>
    --<br>
    With Regards,<br>
    Jiffin<div><div><br>
    <br>
    <blockquote type="cite">
      <div dir="ltr">
        <div>
          <div>[2015-09-21 07:59:48.653912] E [MSGID: 106123]
            [glusterd-syncop.c:1404:gd_commit_op_phase] 0-management:
            Commit of operation &#39;Volume (null)&#39; failed on localhost :
            Failed to set up HA config for NFS-Ganesha. Please check the
            log file for details</div>
          <div>[2015-09-21 07:59:45.402458] I [MSGID: 106006]
            [glusterd-svc-mgmt.c:323:glusterd_svc_common_rpc_notify]
            0-management: nfs has disconnected from glusterd.</div>
          <div>[2015-09-21 07:59:48.071578] I [MSGID: 106474]
            [glusterd-ganesha.c:403:check_host_list] 0-management:
            ganesha host found Hostname is cobalt</div>
        </div>
        <div><br>
        </div>
        <div>from etc-glusterfs-glusterd.vol.log on the other node:</div>
        <div><br>
        </div>
        <div>
          <div>[2015-09-21 08:12:50.111877] E [MSGID: 106062]
            [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:
            Unable to acquire volname</div>
          <div>[2015-09-21 08:14:50.548087] E [MSGID: 106062]
            [glusterd-op-sm.c:3635:glusterd_op_ac_lock] 0-management:
            Unable to acquire volname</div>
          <div>[2015-09-21 08:14:50.654746] I [MSGID: 106132]
            [glusterd-proc-mgmt.c:83:glusterd_proc_stop] 0-management:
            nfs already stopped</div>
          <div>[2015-09-21 08:14:50.655095] I [MSGID: 106474]
            [glusterd-ganesha.c:403:check_host_list] 0-management:
            ganesha host found Hostname is cobalt</div>
          <div>[2015-09-21 08:14:51.287156] E [MSGID: 106062]
            [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:
            Unable to acquire volname</div>
        </div>
        <div><br>
        </div>
        <div><br>
        </div>
        <div>from etc-glusterfs-glusterd.vol.log on the arbiter node:</div>
        <div><br>
        </div>
        <div>
          <div>[2015-09-21 08:18:50.934713] E [MSGID: 101075]
            [common-utils.c:3127:gf_is_local_addr] 0-management: error
            in getaddrinfo: Name or service not known</div>
          <div>[2015-09-21 08:18:51.504694] E [MSGID: 106062]
            [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:
            Unable to acquire volname<br>
          </div>
        </div>
        <div><br>
        </div>
        <div>I have put the hostnames of all servers in my /etc/hosts
          file, including the arbiter node.</div>
        <div><br>
        </div>
      </div>
      <div class="gmail_extra"><br>
        <div class="gmail_quote">On 18 September 2015 at 16:52, Soumya
          Koduri <span dir="ltr">&lt;<a href="mailto:skoduri@redhat.com" target="_blank">skoduri@redhat.com</a>&gt;</span>
          wrote:<br>
          <blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">Hi Tiemen,<br>
            <br>
            One of the pre-requisites before setting up nfs-ganesha HA
            is to create and mount shared_storage volume. Use below CLI
            for that<br>
            <br>
            &quot;gluster volume set all cluster.enable-shared-storage
            enable&quot;<br>
            <br>
            It shall create the volume and mount in all the nodes
            (including the arbiter node). Note this volume shall be
            mounted on all the nodes of the gluster storage pool (though
            in this case it may not be part of nfs-ganesha cluster).<br>
            <br>
            So instead of manually creating those directory paths,
            please use above CLI and try re-configuring the setup.<br>
            <br>
            Thanks,<br>
            Soumya<span><br>
              <br>
              On 09/18/2015 07:29 PM, Tiemen Ruiten wrote:<br>
            </span>
            <blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span>
                Hello Kaleb,<br>
                <br>
                I don&#39;t:<br>
                <br>
                # Name of the HA cluster created.<br>
                # must be unique within the subnet<br>
                HA_NAME=&quot;rd-ganesha-ha&quot;<br>
                #<br>
                # The gluster server from which to mount the shared data
                volume.<br>
                HA_VOL_SERVER=&quot;iron&quot;<br>
                #<br>
                # N.B. you may use short names or long names; you may
                not use IP addrs.<br>
                # Once you select one, stay with it as it will be mildly
                unpleasant to<br>
                # clean up if you switch later on. Ensure that all names
                - short and/or<br>
                # long - are in DNS or /etc/hosts on all machines in the
                cluster.<br>
                #<br>
                # The subset of nodes of the Gluster Trusted Pool that
                form the ganesha<br>
                # HA cluster. Hostname is specified.<br>
                HA_CLUSTER_NODES=&quot;cobalt,iron&quot;<br>
                #HA_CLUSTER_NODES=&quot;<a href="http://server1.lab.redhat.com" rel="noreferrer" target="_blank">server1.lab.redhat.com</a><br>
              </span>
              &lt;<a href="http://server1.lab.redhat.com" rel="noreferrer" target="_blank">http://server1.lab.redhat.com</a>&gt;,<a href="http://server2.lab.redhat.com" rel="noreferrer" target="_blank">server2.lab.redhat.com</a><br>
              &lt;<a href="http://server2.lab.redhat.com" rel="noreferrer" target="_blank">http://server2.lab.redhat.com</a>&gt;,...&quot;<span><br>
                #<br>
                # Virtual IPs for each of the nodes specified above.<br>
                VIP_server1=&quot;10.100.30.101&quot;<br>
                VIP_server2=&quot;10.100.30.102&quot;<br>
                #VIP_server1_lab_redhat_com=&quot;10.0.2.1&quot;<br>
                #VIP_server2_lab_redhat_com=&quot;10.0.2.2&quot;<br>
                <br>
                hosts cobalt &amp; iron are the data nodes, the arbiter
                ip/hostname (neon)<br>
                isn&#39;t mentioned anywhere in this config file.<br>
                <br>
                <br>
                On 18 September 2015 at 15:56, Kaleb S. KEITHLEY &lt;<a href="mailto:kkeithle@redhat.com" target="_blank"></a><a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a><br>
              </span>
              <div>
                <div>
                  &lt;mailto:<a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a>&gt;&gt;
                  wrote:<br>
                  <br>
                      On 09/18/2015 09:46 AM, Tiemen Ruiten wrote:<br>
                      &gt; Hello,<br>
                      &gt;<br>
                      &gt; I have a Gluster cluster with a single
                  replica 3, arbiter 1 volume (so<br>
                      &gt; two nodes with actual data, one arbiter
                  node). I would like to setup<br>
                      &gt; NFS-Ganesha HA for this volume but I&#39;m having
                  some difficulties.<br>
                      &gt;<br>
                      &gt; - I needed to create a directory
                  /var/run/gluster/shared_storage<br>
                      &gt; manually on all nodes, or the command
                  &#39;gluster nfs-ganesha enable would<br>
                      &gt; fail with the following error:<br>
                      &gt; [2015-09-18 13:13:34.690416] E [MSGID:
                  106032]<br>
                      &gt; [glusterd-ganesha.c:708:pre_setup]
                  0-THIS-&gt;name: mkdir() failed on path<br>
                      &gt; /var/run/gluster/shared_storage/nfs-ganesha,
                  [No such file or directory]<br>
                      &gt;<br>
                      &gt; - Then I found out that the command connects
                  to the arbiter node as<br>
                      &gt; well, but obviously I don&#39;t want to set up
                  NFS-Ganesha there. Is it<br>
                      &gt; actually possible to setup NFS-Ganesha HA
                  with an arbiter node? If it&#39;s<br>
                      &gt; possible, is there any documentation on how
                  to do that?<br>
                      &gt;<br>
                  <br>
                      Please send the /etc/ganesha/ganesha-ha.conf file
                  you&#39;re using.<br>
                  <br>
                      Probably you have included the arbiter in your HA
                  config; that would be<br>
                      a mistake.<br>
                  <br>
                      --<br>
                  <br>
                      Kaleb<br>
                  <br>
                  <br>
                  <br>
                  <br>
                  --<br>
                  Tiemen Ruiten<br>
                  Systems Engineer<br>
                  R&amp;D Media<br>
                  <br>
                  <br>
                </div>
              </div>
              _______________________________________________<br>
              Gluster-users mailing list<br>
              <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
              <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
              <br>
            </blockquote>
          </blockquote>
        </div>
        <br>
        <br clear="all">
        <div><br>
        </div>
        -- <br>
        <div>
          <div dir="ltr">Tiemen Ruiten<br>
            Systems Engineer<br>
            R&amp;D Media<br>
          </div>
        </div>
      </div>
      <br>
      <fieldset></fieldset>
      <br>
      <pre>_______________________________________________
Gluster-users mailing list
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </div></div></div>

<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div><div dir="ltr">Tiemen Ruiten<br>Systems Engineer<br>R&amp;D Media<br></div></div>
</div>
</div></div></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">Tiemen Ruiten<br>Systems Engineer<br>R&amp;D Media<br></div></div>
</div></div>