<p dir="ltr"></p>
<p dir="ltr">-Atin<br>
Sent from one plus one<br>
On Sep 1, 2015 9:39 PM, &quot;Joe Julian&quot; &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt; wrote:<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On 09/01/2015 02:59 AM, Atin Mukherjee wrote:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On 09/01/2015 02:34 PM, Joe Julian wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On 08/31/2015 09:03 PM, Atin Mukherjee wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On 09/01/2015 01:00 AM, Merlin Morgenstern wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; this all makes sense and sounds a bit like a solr setup :-)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I have now added the third node as a peer<br>
&gt;&gt;&gt;&gt;&gt; sudo gluster peer probe gs3<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; That indeed allow me to mount the share manually on node2 even if<br>
&gt;&gt;&gt;&gt;&gt; node1 is<br>
&gt;&gt;&gt;&gt;&gt; down.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; BUT: It does not mount on reboot! It only successfully mounts if<br>
&gt;&gt;&gt;&gt;&gt; node1 is<br>
&gt;&gt;&gt;&gt;&gt; up. I need to do a manual: sudo mount -a<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; You would need to ensure that at least two of the nodes are up in the<br>
&gt;&gt;&gt;&gt; cluster in this case.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Atin, why? I&#39;ve never had that restriction.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; It sounds to me like the mount&#39;s trying to happen before any bricks are<br>
&gt;&gt;&gt; available and/or glusterd is listening.<br>
&gt;&gt;<br>
&gt;&gt; In a 3 node cluster if two of the nodes are already down and the other<br>
&gt;&gt; is rebooted then the GlusterD instance wouldn&#39;t start the brick process<br>
&gt;&gt; until it receives the first handshake from one of its peer and for that<br>
&gt;&gt; you would need your 2nd node to be up as well. This why its recommended<br>
&gt;&gt; to have a 3rd dummy node (without any bricks) added to a existing 2 node<br>
&gt;&gt; cluster.<br>
&gt;<br>
&gt;<br>
&gt; Again I ask, is this a departure from prior behavior?<br>
Not really, its there from long time. IIRC, this change was done when quorum feature was introduced. KP can correct me.<br>
&gt;<br>
&gt;<br>
&gt;&gt;&gt;&gt;&gt; Is there a particular reason for this, or is it a misconfiguration?<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 2015-08-31 21:01 GMT+02:00 Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; On 08/31/2015 10:41 AM, Vijay Bellur wrote:<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; On Monday 31 August 2015 10:42 PM, Atin Mukherjee wrote:<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;    &gt; 2. Server2 dies. Server1 has to reboot.<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;    &gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;    &gt; In this case the service stays down. It is inpossible to<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; remount the<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; share without Server1. This is not acceptable for a High Availability<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; System and I believe also not intended, but a misconfiguration or<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; bug.<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; This is exactly what I gave as an example in the thread (please read<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; again). GlusterD is not supposed to start brick process if its other<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; counter part hasn&#39;t come up yet in a 2 node setup. The reason it has<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; been designed in this way is to block GlusterD on operating on a<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; volume<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; which could be stale as the node was down and cluster was operational<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; earlier.<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; For two node deployments, a third dummy node is recommended to ensure<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; that quorum is maintained when one of the nodes is down.<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Regards,<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Vijay<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Have the settings changed to enable server quorum by default?<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</p>