<div dir="ltr">That&#39;s correct and my original question was actually if a two node + arbiter setup is possible. The documentation provided by Soumya only mentions two servers in the example ganesha-ha.sh script. Perhaps that could be updated as well then, to not give the wrong impression. <div><br></div><div>I could try to change the script to disable quorum, but wouldn&#39;t that defeat the purpose? What will happen in case one node goes down unexpectedly?</div></div><div class="gmail_extra"><br><div class="gmail_quote">On 22 September 2015 at 12:47, Kaleb Keithley <span dir="ltr">&lt;<a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
Hi,<br>
<br>
IIRC, the setup is two nodes gluster+ganesha nodes plus the arbiter node for gluster quorum.<br>
<br>
Have I remembered that correctly?<br>
<br>
The Ganesha HA in 3.7 requires a minimum of three servers running ganesha and pacemaker. Two might work if you change the ganesha-ha.sh to not enable pacemaker quorum, but I haven&#39;t tried that myself. I&#39;ll try and find time in the next couple of days to update the documentation or write a blog post.<br>
<div><div class="h5"><br>
<br>
<br>
----- Original Message ----<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On 21/09/15 21:21, Tiemen Ruiten wrote:<br>
&gt; &gt; Whoops, replied off-list.<br>
&gt; &gt;<br>
&gt; &gt; Additionally I noticed that the generated corosync config is not<br>
&gt; &gt; valid, as there is no interface section:<br>
&gt; &gt;<br>
&gt; &gt; /etc/corosync/corosync.conf<br>
&gt; &gt;<br>
&gt; &gt; totem {<br>
&gt; &gt; version: 2<br>
&gt; &gt; secauth: off<br>
&gt; &gt; cluster_name: rd-ganesha-ha<br>
&gt; &gt; transport: udpu<br>
&gt; &gt; }<br>
&gt; &gt;<br>
&gt; &gt; nodelist {<br>
&gt; &gt;   node {<br>
&gt; &gt;         ring0_addr: cobalt<br>
&gt; &gt;         nodeid: 1<br>
&gt; &gt;        }<br>
&gt; &gt;   node {<br>
&gt; &gt;         ring0_addr: iron<br>
&gt; &gt;         nodeid: 2<br>
&gt; &gt;        }<br>
&gt; &gt; }<br>
&gt; &gt;<br>
&gt; &gt; quorum {<br>
&gt; &gt; provider: corosync_votequorum<br>
&gt; &gt; two_node: 1<br>
&gt; &gt; }<br>
&gt; &gt;<br>
&gt; &gt; logging {<br>
&gt; &gt; to_syslog: yes<br>
&gt; &gt; }<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt;<br>
&gt; May be Kaleb can help you out.<br>
&gt; &gt;<br>
&gt; &gt; ---------- Forwarded message ----------<br>
</div></div><span class="">&gt; &gt; From: *Tiemen Ruiten* &lt;<a href="mailto:t.ruiten@rdmedia.com">t.ruiten@rdmedia.com</a> &lt;mailto:<a href="mailto:t.ruiten@rdmedia.com">t.ruiten@rdmedia.com</a>&gt;&gt;<br>
&gt; &gt; Date: 21 September 2015 at 17:16<br>
&gt; &gt; Subject: Re: [Gluster-users] nfs-ganesha HA with arbiter volume<br>
</span><div><div class="h5">&gt; &gt; To: Jiffin Tony Thottan &lt;<a href="mailto:jthottan@redhat.com">jthottan@redhat.com</a> &lt;mailto:<a href="mailto:jthottan@redhat.com">jthottan@redhat.com</a>&gt;&gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; Could you point me to the latest documentation? I&#39;ve been struggling<br>
&gt; &gt; to find something up-to-date. I believe I have all the prerequisites:<br>
&gt; &gt;<br>
&gt; &gt; - shared storage volume exists and is mounted<br>
&gt; &gt; - all nodes in hosts files<br>
&gt; &gt; - Gluster-NFS disabled<br>
&gt; &gt; - corosync, pacemaker and nfs-ganesha rpm&#39;s installed<br>
&gt; &gt;<br>
&gt; &gt; Anything I missed?<br>
&gt; &gt;<br>
&gt; &gt; Everything has been installed by RPM so is in the default locations:<br>
&gt; &gt; /usr/libexec/ganesha/ganesha-ha.sh<br>
&gt; &gt; /etc/ganesha/ganesha.conf (empty)<br>
&gt; &gt; /etc/ganesha/ganesha-ha.conf<br>
&gt; &gt;<br>
&gt;<br>
&gt; Looks fine for me.<br>
&gt;<br>
&gt; &gt; After I started the pcsd service manually, nfs-ganesha could be<br>
&gt; &gt; enabled successfully, but there was no virtual IP present on the<br>
&gt; &gt; interfaces and looking at the system log, I noticed corosync failed to<br>
&gt; &gt; start:<br>
&gt; &gt;<br>
&gt; &gt; - on the host where I issued the gluster nfs-ganesha enable command:<br>
&gt; &gt;<br>
&gt; &gt; Sep 21 17:07:18 iron systemd: Starting NFS-Ganesha file server...<br>
&gt; &gt; Sep 21 17:07:19 iron systemd: Started NFS-Ganesha file server.<br>
&gt; &gt; Sep 21 17:07:19 iron rpc.statd[2409]: Received SM_UNMON_ALL request<br>
</div></div>&gt; &gt; from <a href="http://iron.int.rdmedia.com" rel="noreferrer" target="_blank">iron.int.rdmedia.com</a> &lt;<a href="http://iron.int.rdmedia.com" rel="noreferrer" target="_blank">http://iron.int.rdmedia.com</a>&gt; while not<br>
<div><div class="h5">&gt; &gt; monitoring any hosts<br>
&gt; &gt; Sep 21 17:07:20 iron systemd: Starting Corosync Cluster Engine...<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3426]: [MAIN  ] Corosync Cluster Engine<br>
&gt; &gt; (&#39;2.3.4&#39;): started and ready to provide service.<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3426]: [MAIN  ] Corosync built-in<br>
&gt; &gt; features: dbus systemd xmlconf snmp pie relro bindnow<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] Initializing transport<br>
&gt; &gt; (UDP/IP Unicast).<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] Initializing<br>
&gt; &gt; transmit/receive security (NSS) crypto: none hash: none<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] The network interface<br>
&gt; &gt; [10.100.30.38] is now up.<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync configuration map access [0]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cmap<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync configuration service [1]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cfg<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync cluster closed process group service v1.01 [2]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: cpg<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync profile loading service [4]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QUORUM] Using quorum provider<br>
&gt; &gt; corosync_votequorum<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster<br>
&gt; &gt; members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync vote quorum service v1.0 [5]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: votequorum<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync cluster quorum service v0.1 [3]<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QB    ] server name: quorum<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] adding new UDPU member<br>
&gt; &gt; {10.100.30.38}<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] adding new UDPU member<br>
&gt; &gt; {10.100.30.37}<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] A new membership<br>
</div></div>&gt; &gt; (<a href="http://10.100.30.38:104" rel="noreferrer" target="_blank">10.100.30.38:104</a> &lt;<a href="http://10.100.30.38:104" rel="noreferrer" target="_blank">http://10.100.30.38:104</a>&gt;) was formed. Members joined: 1<br>
<span class="">&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster<br>
&gt; &gt; members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster<br>
&gt; &gt; members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [VOTEQ ] Waiting for all cluster<br>
&gt; &gt; members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [QUORUM] Members[1]: 1<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [MAIN  ] Completed service<br>
&gt; &gt; synchronization, ready to provide service.<br>
&gt; &gt; Sep 21 17:07:20 iron corosync[3427]: [TOTEM ] A new membership<br>
</span>&gt; &gt; (<a href="http://10.100.30.37:108" rel="noreferrer" target="_blank">10.100.30.37:108</a> &lt;<a href="http://10.100.30.37:108" rel="noreferrer" target="_blank">http://10.100.30.37:108</a>&gt;) was formed. Members joined: 1<br>
<div><div class="h5">&gt; &gt; Sep 21 17:08:21 iron corosync: Starting Corosync Cluster Engine<br>
&gt; &gt; (corosync): [FAILED]<br>
&gt; &gt; Sep 21 17:08:21 iron systemd: corosync.service: control process<br>
&gt; &gt; exited, code=exited status=1<br>
&gt; &gt; Sep 21 17:08:21 iron systemd: Failed to start Corosync Cluster Engine.<br>
&gt; &gt; Sep 21 17:08:21 iron systemd: Unit corosync.service entered failed state.<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; - on the other host:<br>
&gt; &gt;<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting Preprocess NFS configuration...<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting RPC Port Mapper.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Reached target RPC Port Mapper.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting Host and Network Name Lookups.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Reached target Host and Network Name<br>
&gt; &gt; Lookups.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting RPC bind service...<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Started Preprocess NFS configuration.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Started RPC bind service.<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting NFS status monitor for<br>
&gt; &gt; NFSv2/3 locking....<br>
&gt; &gt; Sep 21 17:07:19 cobalt rpc.statd[2662]: Version 1.3.0 starting<br>
&gt; &gt; Sep 21 17:07:19 cobalt rpc.statd[2662]: Flags: TI-RPC<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Started NFS status monitor for NFSv2/3<br>
&gt; &gt; locking..<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Starting NFS-Ganesha file server...<br>
&gt; &gt; Sep 21 17:07:19 cobalt systemd: Started NFS-Ganesha file server.<br>
&gt; &gt; Sep 21 17:07:19 cobalt kernel: warning: `ganesha.nfsd&#39; uses 32-bit<br>
&gt; &gt; capabilities (legacy support in use)<br>
&gt; &gt; Sep 21 17:07:19 cobalt logger: setting up rd-ganesha-ha<br>
&gt; &gt; Sep 21 17:07:19 cobalt rpc.statd[2662]: Received SM_UNMON_ALL request<br>
</div></div>&gt; &gt; from <a href="http://cobalt.int.rdmedia.com" rel="noreferrer" target="_blank">cobalt.int.rdmedia.com</a> &lt;<a href="http://cobalt.int.rdmedia.com" rel="noreferrer" target="_blank">http://cobalt.int.rdmedia.com</a>&gt; while not<br>
<div><div class="h5">&gt; &gt; monitoring any hosts<br>
&gt; &gt; Sep 21 17:07:19 cobalt logger: setting up cluster rd-ganesha-ha with<br>
&gt; &gt; the following cobalt iron<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd: Stopped Pacemaker High Availability<br>
&gt; &gt; Cluster Manager.<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd: Stopped Corosync Cluster Engine.<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd: Reloading.<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd:<br>
&gt; &gt; [/usr/lib/systemd/system/dm-event.socket:10] Unknown lvalue<br>
&gt; &gt; &#39;RemoveOnStop&#39; in section &#39;Socket&#39;<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd:<br>
&gt; &gt; [/usr/lib/systemd/system/lvm2-lvmetad.socket:9] Unknown lvalue<br>
&gt; &gt; &#39;RemoveOnStop&#39; in section &#39;Socket&#39;<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd: Reloading.<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd:<br>
&gt; &gt; [/usr/lib/systemd/system/dm-event.socket:10] Unknown lvalue<br>
&gt; &gt; &#39;RemoveOnStop&#39; in section &#39;Socket&#39;<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd:<br>
&gt; &gt; [/usr/lib/systemd/system/lvm2-lvmetad.socket:9] Unknown lvalue<br>
&gt; &gt; &#39;RemoveOnStop&#39; in section &#39;Socket&#39;<br>
&gt; &gt; Sep 21 17:07:20 cobalt systemd: Starting Corosync Cluster Engine...<br>
&gt; &gt; Sep 21 17:07:20 cobalt corosync[2816]: [MAIN  ] Corosync Cluster<br>
&gt; &gt; Engine (&#39;2.3.4&#39;): started and ready to provide service.<br>
&gt; &gt; Sep 21 17:07:20 cobalt corosync[2816]: [MAIN  ] Corosync built-in<br>
&gt; &gt; features: dbus systemd xmlconf snmp pie relro bindnow<br>
&gt; &gt; Sep 21 17:07:20 cobalt corosync[2817]: [TOTEM ] Initializing transport<br>
&gt; &gt; (UDP/IP Unicast).<br>
&gt; &gt; Sep 21 17:07:20 cobalt corosync[2817]: [TOTEM ] Initializing<br>
&gt; &gt; transmit/receive security (NSS) crypto: none hash: none<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] The network interface<br>
&gt; &gt; [10.100.30.37] is now up.<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync configuration map access [0]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cmap<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync configuration service [1]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cfg<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync cluster closed process group service v1.01 [2]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: cpg<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync profile loading service [4]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Using quorum provider<br>
&gt; &gt; corosync_votequorum<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all<br>
&gt; &gt; cluster members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync vote quorum service v1.0 [5]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: votequorum<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [SERV  ] Service engine loaded:<br>
&gt; &gt; corosync cluster quorum service v0.1 [3]<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QB    ] server name: quorum<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] adding new UDPU member<br>
&gt; &gt; {10.100.30.37}<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] adding new UDPU member<br>
&gt; &gt; {10.100.30.38}<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] A new membership<br>
</div></div>&gt; &gt; (<a href="http://10.100.30.37:100" rel="noreferrer" target="_blank">10.100.30.37:100</a> &lt;<a href="http://10.100.30.37:100" rel="noreferrer" target="_blank">http://10.100.30.37:100</a>&gt;) was formed. Members joined: 1<br>
<span class="">&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all<br>
&gt; &gt; cluster members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all<br>
&gt; &gt; cluster members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all<br>
&gt; &gt; cluster members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Members[1]: 1<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [MAIN  ] Completed service<br>
&gt; &gt; synchronization, ready to provide service.<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [TOTEM ] A new membership<br>
</span>&gt; &gt; (<a href="http://10.100.30.37:108" rel="noreferrer" target="_blank">10.100.30.37:108</a> &lt;<a href="http://10.100.30.37:108" rel="noreferrer" target="_blank">http://10.100.30.37:108</a>&gt;) was formed. Members joined: 1<br>
<div><div class="h5">&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [VOTEQ ] Waiting for all<br>
&gt; &gt; cluster members. Current votes: 1 expected_votes: 2<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [QUORUM] Members[1]: 1<br>
&gt; &gt; Sep 21 17:07:21 cobalt corosync[2817]: [MAIN  ] Completed service<br>
&gt; &gt; synchronization, ready to provide service.<br>
&gt; &gt; Sep 21 17:08:50 cobalt systemd: corosync.service operation timed out.<br>
&gt; &gt; Terminating.<br>
&gt; &gt; Sep 21 17:08:50 cobalt corosync: Starting Corosync Cluster Engine<br>
&gt; &gt; (corosync):<br>
&gt; &gt; Sep 21 17:08:50 cobalt systemd: Failed to start Corosync Cluster Engine.<br>
&gt; &gt; Sep 21 17:08:50 cobalt systemd: Unit corosync.service entered failed<br>
&gt; &gt; state.<br>
&gt; &gt; Sep 21 17:08:55 cobalt logger: warning: pcs property set<br>
&gt; &gt; no-quorum-policy=ignore failed<br>
&gt; &gt; Sep 21 17:08:55 cobalt logger: warning: pcs property set<br>
&gt; &gt; stonith-enabled=false failed<br>
&gt; &gt; Sep 21 17:08:55 cobalt logger: warning: pcs resource create nfs_start<br>
&gt; &gt; ganesha_nfsd ha_vol_mnt=/var/run/gluster/shared_storage --clone failed<br>
&gt; &gt; Sep 21 17:08:56 cobalt logger: warning: pcs resource delete<br>
&gt; &gt; nfs_start-clone failed<br>
&gt; &gt; Sep 21 17:08:56 cobalt logger: warning: pcs resource create nfs-mon<br>
&gt; &gt; ganesha_mon --clone failed<br>
&gt; &gt; Sep 21 17:08:56 cobalt logger: warning: pcs resource create nfs-grace<br>
&gt; &gt; ganesha_grace --clone failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning pcs resource create<br>
&gt; &gt; cobalt-cluster_ip-1 ocf:heartbeat:IPaddr ip= cidr_netmask=32 op<br>
&gt; &gt; monitor interval=15s failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs resource create<br>
&gt; &gt; cobalt-trigger_ip-1 ocf:heartbeat:Dummy failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs constraint colocation add<br>
&gt; &gt; cobalt-cluster_ip-1 with cobalt-trigger_ip-1 failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs constraint order<br>
&gt; &gt; cobalt-trigger_ip-1 then nfs-grace-clone failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs constraint order<br>
&gt; &gt; nfs-grace-clone then cobalt-cluster_ip-1 failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning pcs resource create<br>
&gt; &gt; iron-cluster_ip-1 ocf:heartbeat:IPaddr ip= cidr_netmask=32 op monitor<br>
&gt; &gt; interval=15s failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs resource create<br>
&gt; &gt; iron-trigger_ip-1 ocf:heartbeat:Dummy failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs constraint colocation add<br>
&gt; &gt; iron-cluster_ip-1 with iron-trigger_ip-1 failed<br>
&gt; &gt; Sep 21 17:08:57 cobalt logger: warning: pcs constraint order<br>
&gt; &gt; iron-trigger_ip-1 then nfs-grace-clone failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint order<br>
&gt; &gt; nfs-grace-clone then iron-cluster_ip-1 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; cobalt-cluster_ip-1 rule score=-INFINITY ganesha-active ne 1 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; cobalt-cluster_ip-1 prefers iron=1000 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; cobalt-cluster_ip-1 prefers cobalt=2000 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; iron-cluster_ip-1 rule score=-INFINITY ganesha-active ne 1 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; iron-cluster_ip-1 prefers cobalt=1000 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: pcs constraint location<br>
&gt; &gt; iron-cluster_ip-1 prefers iron=2000 failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning pcs cluster cib-push<br>
&gt; &gt; /tmp/tmp.nXTfyA1GMR failed<br>
&gt; &gt; Sep 21 17:08:58 cobalt logger: warning: scp ganesha-ha.conf to cobalt<br>
&gt; &gt; failed<br>
&gt; &gt;<br>
&gt; &gt; BTW, I&#39;m using CentOS 7. There are multiple network interfaces on the<br>
&gt; &gt; servers, could that be a problem?<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; On 21 September 2015 at 11:48, Jiffin Tony Thottan<br>
</div></div><div><div class="h5">&gt; &gt; &lt;<a href="mailto:jthottan@redhat.com">jthottan@redhat.com</a> &lt;mailto:<a href="mailto:jthottan@redhat.com">jthottan@redhat.com</a>&gt;&gt; wrote:<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;     On 21/09/15 13:56, Tiemen Ruiten wrote:<br>
&gt; &gt;&gt;     Hello Soumya, Kaleb, list,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     This Friday I created the gluster_shared_storage volume manually,<br>
&gt; &gt;&gt;     I just tried it with the command you supplied, but both have the<br>
&gt; &gt;&gt;     same result:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     from etc-glusterfs-glusterd.vol.log on the node where I issued<br>
&gt; &gt;&gt;     the command:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     [2015-09-21 07:59:47.756845] I [MSGID: 106474]<br>
&gt; &gt;&gt;     [glusterd-ganesha.c:403:check_host_list] 0-management: ganesha<br>
&gt; &gt;&gt;     host found Hostname is cobalt<br>
&gt; &gt;&gt;     [2015-09-21 07:59:48.071755] I [MSGID: 106474]<br>
&gt; &gt;&gt;     [glusterd-ganesha.c:349:is_ganesha_host] 0-management: ganesha<br>
&gt; &gt;&gt;     host found Hostname is cobalt<br>
&gt; &gt;&gt;     [2015-09-21 07:59:48.653879] E [MSGID: 106470]<br>
&gt; &gt;&gt;     [glusterd-ganesha.c:264:glusterd_op_set_ganesha] 0-management:<br>
&gt; &gt;&gt;     Initial NFS-Ganesha set up failed<br>
&gt; &gt;<br>
&gt; &gt;     As far as what I understand from the logs, it called<br>
&gt; &gt;     setup_cluser()[calls `ganesha-ha.sh` script ] but script failed.<br>
&gt; &gt;     Can u please provide following details :<br>
&gt; &gt;     -Location of ganesha.sh file??<br>
&gt; &gt;     -Location of ganesha-ha.conf, ganesha.conf files ?<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;     And also can u cross check whether all the prerequisites before HA<br>
&gt; &gt;     setup satisfied ?<br>
&gt; &gt;<br>
&gt; &gt;     --<br>
&gt; &gt;     With Regards,<br>
&gt; &gt;     Jiffin<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;&gt;     [2015-09-21 07:59:48.653912] E [MSGID: 106123]<br>
&gt; &gt;&gt;     [glusterd-syncop.c:1404:gd_commit_op_phase] 0-management: Commit<br>
&gt; &gt;&gt;     of operation &#39;Volume (null)&#39; failed on localhost : Failed to set<br>
&gt; &gt;&gt;     up HA config for NFS-Ganesha. Please check the log file for details<br>
&gt; &gt;&gt;     [2015-09-21 07:59:45.402458] I [MSGID: 106006]<br>
&gt; &gt;&gt;     [glusterd-svc-mgmt.c:323:glusterd_svc_common_rpc_notify]<br>
&gt; &gt;&gt;     0-management: nfs has disconnected from glusterd.<br>
&gt; &gt;&gt;     [2015-09-21 07:59:48.071578] I [MSGID: 106474]<br>
&gt; &gt;&gt;     [glusterd-ganesha.c:403:check_host_list] 0-management: ganesha<br>
&gt; &gt;&gt;     host found Hostname is cobalt<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     from etc-glusterfs-glusterd.vol.log on the other node:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     [2015-09-21 08:12:50.111877] E [MSGID: 106062]<br>
&gt; &gt;&gt;     [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:<br>
&gt; &gt;&gt;     Unable to acquire volname<br>
&gt; &gt;&gt;     [2015-09-21 08:14:50.548087] E [MSGID: 106062]<br>
&gt; &gt;&gt;     [glusterd-op-sm.c:3635:glusterd_op_ac_lock] 0-management: Unable<br>
&gt; &gt;&gt;     to acquire volname<br>
&gt; &gt;&gt;     [2015-09-21 08:14:50.654746] I [MSGID: 106132]<br>
&gt; &gt;&gt;     [glusterd-proc-mgmt.c:83:glusterd_proc_stop] 0-management: nfs<br>
&gt; &gt;&gt;     already stopped<br>
&gt; &gt;&gt;     [2015-09-21 08:14:50.655095] I [MSGID: 106474]<br>
&gt; &gt;&gt;     [glusterd-ganesha.c:403:check_host_list] 0-management: ganesha<br>
&gt; &gt;&gt;     host found Hostname is cobalt<br>
&gt; &gt;&gt;     [2015-09-21 08:14:51.287156] E [MSGID: 106062]<br>
&gt; &gt;&gt;     [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:<br>
&gt; &gt;&gt;     Unable to acquire volname<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     from etc-glusterfs-glusterd.vol.log on the arbiter node:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     [2015-09-21 08:18:50.934713] E [MSGID: 101075]<br>
&gt; &gt;&gt;     [common-utils.c:3127:gf_is_local_addr] 0-management: error in<br>
&gt; &gt;&gt;     getaddrinfo: Name or service not known<br>
&gt; &gt;&gt;     [2015-09-21 08:18:51.504694] E [MSGID: 106062]<br>
&gt; &gt;&gt;     [glusterd-op-sm.c:3698:glusterd_op_ac_unlock] 0-management:<br>
&gt; &gt;&gt;     Unable to acquire volname<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     I have put the hostnames of all servers in my /etc/hosts file,<br>
&gt; &gt;&gt;     including the arbiter node.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     On 18 September 2015 at 16:52, Soumya Koduri &lt;<a href="mailto:skoduri@redhat.com">skoduri@redhat.com</a><br>
</div></div><div><div class="h5">&gt; &gt;&gt;     &lt;mailto:<a href="mailto:skoduri@redhat.com">skoduri@redhat.com</a>&gt;&gt; wrote:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         Hi Tiemen,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         One of the pre-requisites before setting up nfs-ganesha HA is<br>
&gt; &gt;&gt;         to create and mount shared_storage volume. Use below CLI for that<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         &quot;gluster volume set all cluster.enable-shared-storage enable&quot;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         It shall create the volume and mount in all the nodes<br>
&gt; &gt;&gt;         (including the arbiter node). Note this volume shall be<br>
&gt; &gt;&gt;         mounted on all the nodes of the gluster storage pool (though<br>
&gt; &gt;&gt;         in this case it may not be part of nfs-ganesha cluster).<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         So instead of manually creating those directory paths, please<br>
&gt; &gt;&gt;         use above CLI and try re-configuring the setup.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         Thanks,<br>
&gt; &gt;&gt;         Soumya<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;         On 09/18/2015 07:29 PM, Tiemen Ruiten wrote:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             Hello Kaleb,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             I don&#39;t:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             # Name of the HA cluster created.<br>
&gt; &gt;&gt;             # must be unique within the subnet<br>
&gt; &gt;&gt;             HA_NAME=&quot;rd-ganesha-ha&quot;<br>
&gt; &gt;&gt;             #<br>
&gt; &gt;&gt;             # The gluster server from which to mount the shared data<br>
&gt; &gt;&gt;             volume.<br>
&gt; &gt;&gt;             HA_VOL_SERVER=&quot;iron&quot;<br>
&gt; &gt;&gt;             #<br>
&gt; &gt;&gt;             # N.B. you may use short names or long names; you may not<br>
&gt; &gt;&gt;             use IP addrs.<br>
&gt; &gt;&gt;             # Once you select one, stay with it as it will be mildly<br>
&gt; &gt;&gt;             unpleasant to<br>
&gt; &gt;&gt;             # clean up if you switch later on. Ensure that all names<br>
&gt; &gt;&gt;             - short and/or<br>
&gt; &gt;&gt;             # long - are in DNS or /etc/hosts on all machines in the<br>
&gt; &gt;&gt;             cluster.<br>
&gt; &gt;&gt;             #<br>
&gt; &gt;&gt;             # The subset of nodes of the Gluster Trusted Pool that<br>
&gt; &gt;&gt;             form the ganesha<br>
&gt; &gt;&gt;             # HA cluster. Hostname is specified.<br>
&gt; &gt;&gt;             HA_CLUSTER_NODES=&quot;cobalt,iron&quot;<br>
&gt; &gt;&gt;             #HA_CLUSTER_NODES=&quot;<a href="http://server1.lab.redhat.com" rel="noreferrer" target="_blank">server1.lab.redhat.com</a><br>
&gt; &gt;&gt;             &lt;<a href="http://server1.lab.redhat.com" rel="noreferrer" target="_blank">http://server1.lab.redhat.com</a>&gt;<br>
&gt; &gt;&gt;             &lt;<a href="http://server1.lab.redhat.com" rel="noreferrer" target="_blank">http://server1.lab.redhat.com</a>&gt;,<a href="http://server2.lab.redhat.com" rel="noreferrer" target="_blank">server2.lab.redhat.com</a><br>
&gt; &gt;&gt;             &lt;<a href="http://server2.lab.redhat.com" rel="noreferrer" target="_blank">http://server2.lab.redhat.com</a>&gt;<br>
&gt; &gt;&gt;             &lt;<a href="http://server2.lab.redhat.com" rel="noreferrer" target="_blank">http://server2.lab.redhat.com</a>&gt;,...&quot;<br>
&gt; &gt;&gt;             #<br>
&gt; &gt;&gt;             # Virtual IPs for each of the nodes specified above.<br>
&gt; &gt;&gt;             VIP_server1=&quot;10.100.30.101&quot;<br>
&gt; &gt;&gt;             VIP_server2=&quot;10.100.30.102&quot;<br>
&gt; &gt;&gt;             #VIP_server1_lab_redhat_com=&quot;10.0.2.1&quot;<br>
&gt; &gt;&gt;             #VIP_server2_lab_redhat_com=&quot;10.0.2.2&quot;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             hosts cobalt &amp; iron are the data nodes, the arbiter<br>
&gt; &gt;&gt;             ip/hostname (neon)<br>
&gt; &gt;&gt;             isn&#39;t mentioned anywhere in this config file.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             On 18 September 2015 at 15:56, Kaleb S. KEITHLEY<br>
&gt; &gt;&gt;             &lt;<a href="mailto:kkeithle@redhat.com">kkeithle@redhat.com</a> &lt;mailto:<a href="mailto:kkeithle@redhat.com">kkeithle@redhat.com</a>&gt;<br>
</div></div>&gt; &gt;&gt;             &lt;mailto:<a href="mailto:kkeithle@redhat.com">kkeithle@redhat.com</a><br>
<div><div class="h5">&gt; &gt;&gt;             &lt;mailto:<a href="mailto:kkeithle@redhat.com">kkeithle@redhat.com</a>&gt;&gt;&gt; wrote:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;                 On 09/18/2015 09:46 AM, Tiemen Ruiten wrote:<br>
&gt; &gt;&gt;                 &gt; Hello,<br>
&gt; &gt;&gt;                 &gt;<br>
&gt; &gt;&gt;                 &gt; I have a Gluster cluster with a single replica 3,<br>
&gt; &gt;&gt;             arbiter 1 volume (so<br>
&gt; &gt;&gt;                 &gt; two nodes with actual data, one arbiter node). I<br>
&gt; &gt;&gt;             would like to setup<br>
&gt; &gt;&gt;                 &gt; NFS-Ganesha HA for this volume but I&#39;m having some<br>
&gt; &gt;&gt;             difficulties.<br>
&gt; &gt;&gt;                 &gt;<br>
&gt; &gt;&gt;                 &gt; - I needed to create a directory<br>
&gt; &gt;&gt;             /var/run/gluster/shared_storage<br>
&gt; &gt;&gt;                 &gt; manually on all nodes, or the command &#39;gluster<br>
&gt; &gt;&gt;             nfs-ganesha enable would<br>
&gt; &gt;&gt;                 &gt; fail with the following error:<br>
&gt; &gt;&gt;                 &gt; [2015-09-18 13:13:34.690416] E [MSGID: 106032]<br>
&gt; &gt;&gt;                 &gt; [glusterd-ganesha.c:708:pre_setup] 0-THIS-&gt;name:<br>
&gt; &gt;&gt;             mkdir() failed on path<br>
&gt; &gt;&gt;                 &gt; /var/run/gluster/shared_storage/nfs-ganesha, [No<br>
&gt; &gt;&gt;             such file or directory]<br>
&gt; &gt;&gt;                 &gt;<br>
&gt; &gt;&gt;                 &gt; - Then I found out that the command connects to the<br>
&gt; &gt;&gt;             arbiter node as<br>
&gt; &gt;&gt;                 &gt; well, but obviously I don&#39;t want to set up<br>
&gt; &gt;&gt;             NFS-Ganesha there. Is it<br>
&gt; &gt;&gt;                 &gt; actually possible to setup NFS-Ganesha HA with an<br>
&gt; &gt;&gt;             arbiter node? If it&#39;s<br>
&gt; &gt;&gt;                 &gt; possible, is there any documentation on how to do that?<br>
&gt; &gt;&gt;                 &gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;                 Please send the /etc/ganesha/ganesha-ha.conf file<br>
&gt; &gt;&gt;             you&#39;re using.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;                 Probably you have included the arbiter in your HA<br>
&gt; &gt;&gt;             config; that would be<br>
&gt; &gt;&gt;                 a mistake.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;                 --<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;                 Kaleb<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             --<br>
&gt; &gt;&gt;             Tiemen Ruiten<br>
&gt; &gt;&gt;             Systems Engineer<br>
&gt; &gt;&gt;             R&amp;D Media<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;             _______________________________________________<br>
&gt; &gt;&gt;             Gluster-users mailing list<br>
</div></div>&gt; &gt;&gt;             <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;<br>
<span class="">&gt; &gt;&gt;             <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     --<br>
&gt; &gt;&gt;     Tiemen Ruiten<br>
&gt; &gt;&gt;     Systems Engineer<br>
&gt; &gt;&gt;     R&amp;D Media<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;     _______________________________________________<br>
&gt; &gt;&gt;     Gluster-users mailing list<br>
</span>&gt; &gt;&gt;     <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;<br>
<span class="">&gt; &gt;&gt;     <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;     _______________________________________________<br>
&gt; &gt;     Gluster-users mailing list<br>
</span>&gt; &gt;     <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;<br>
<span class="im HOEnZb">&gt; &gt;     <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; Tiemen Ruiten<br>
&gt; &gt; Systems Engineer<br>
&gt; &gt; R&amp;D Media<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; Tiemen Ruiten<br>
&gt; &gt; Systems Engineer<br>
&gt; &gt; R&amp;D Media<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-users mailing list<br>
&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
&gt;<br>
</span><div class="HOEnZb"><div class="h5">_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">Tiemen Ruiten<br>Systems Engineer<br>R&amp;D Media<br></div></div>
</div>