<div dir="ltr">Personally I&#39;d be much more interested in development/testing resources going into large scale glusterfs clusters, rather than small office setups or home use. Keep in mind this is a PB scale filesystem clustering technology.<div><br></div><div>For home use I don&#39;t really see what advantage replica 2 would provide. I&#39;d probably do two single nodes, and have the primary node geo-replicate to the secondary node so my data was intact if the primary node failed. In a small office I could switch the DNS record to the 2nd node for failover. In fact I probably wouldn&#39;t (and don&#39;t) use gluster at home at all, there are other volume managers with snapshots and send/receive capabilities that suit a small environment.</div><div><br></div><div>Really if your data is important at such a small scale, I&#39;d be looking at a single file server and cloud replication. S3 is $3/month for 100GB of data, and $60/month for 2TB of data, can store multiple versions, and can move old versions into glacial storage. Any individual/small business should be able to determine the worth of its data and determine how much of it they want to pay to backup. Over 3 years it might even be cheaper than a 2nd node + dealing with maintenance/split-brains.</div><div><br></div><div>BTW I agree with your issues in regards to releases. I&#39;ve found the best method is to stick to a branch marked as stable. I tested 3.7.3 and it was a bit of a disaster, but 3.6.6 hasn&#39;t given me any grief yet.</div><div><br></div><div>Steve</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Oct 30, 2015 at 6:40 AM, Mauro M. <span dir="ltr">&lt;<a href="mailto:gluster@ezplanet.net" target="_blank">gluster@ezplanet.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Atin,<br>
<br>
Sorry I should have said that the design does not suit the needs of an<br>
ON/STANDBY cluster configuration and I would like it to be changed to<br>
cater for this popular use case for home and small office applications.<br>
<br>
Up to relase 3.5 it was perfect and beside I had never experienced split<br>
brain situations, actually until I was on 3.5 I did not even realize there<br>
could be split brains (I am a use without reading the manuals guy, if I<br>
had to add the time necessary to read the manuals of everything I use I<br>
would become 190 before I am done with it). I skipped 3.6 altogether<br>
because 3.6.1 did not even start my bricks. Later I upgraded to 3.7 and<br>
that is when troubles started: split brains that periodically pop up even<br>
through I never have a case where files are accessed at the same time from<br>
two nodes (I am the only user of my systems and the second node is only<br>
there to replicate), and issues getting the cluster to work single node.<br>
<br>
Mauro<br>
<div><div class="h5"><br>
On Fri, October 30, 2015 12:14, Atin Mukherjee wrote:<br>
&gt; -Atin<br>
&gt; Sent from one plus one<br>
&gt; On Oct 30, 2015 5:28 PM, &quot;Mauro Mozzarelli&quot; &lt;<a href="mailto:mauro@ezplanet.net">mauro@ezplanet.net</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; Atin keeps giving the same answer: &quot;it is by design&quot;<br>
&gt;&gt;<br>
&gt;&gt; I keep saying &quot;the design is wrong and it should be changed to cater for<br>
&gt;&gt; standby servers&quot;<br>
&gt; Every design has got its own set of limitations and i would say this is a<br>
&gt; limitation instead of mentioning the overall design itself wrong. I would<br>
&gt; again stand with my points as correctness is always a priority in a<br>
&gt; distributed system. This behavioural change was introduced in 3.5 and if<br>
&gt; this was not included as part of release note I apologize on behalf of the<br>
&gt; release management.<br>
&gt; As communicated earlier, we will definitely resolve this issue in<br>
&gt; GlusterD2.<br>
&gt;&gt;<br>
&gt;&gt; In the meantime this is the workaround I am using:<br>
&gt;&gt; When the single node starts I stop and start the volume, and then it<br>
&gt;&gt; becomes mountable. On CentOS 6 and CentOS 7 it works with release up to<br>
&gt;&gt; 3.7.4. Release 3.7.5 is broken so I reverted back to 3.7.4.<br>
&gt; This is where I am not convinced. An explicit volume start should start<br>
&gt; the<br>
&gt; bricks, can you raise a BZ with all the relevant details?<br>
&gt;&gt;<br>
&gt;&gt; In my experience glusterfs releases are a bit of a hit and miss. Often<br>
&gt;&gt; something stops working with newer releases, then after a few more<br>
&gt;&gt; releases it works again or there is a workaround ... Not quite the<br>
&gt;&gt; stability one would want for commercial use, and thus at the moment I<br>
&gt;&gt; can<br>
&gt;&gt; risk using it only for my home servers, hence the cluster with a node<br>
&gt;&gt; always ON and the second as STANDBY.<br>
&gt;&gt;<br>
&gt;&gt; MOUNT=/home<br>
&gt;&gt; LABEL=&quot;GlusterFS:&quot;<br>
&gt;&gt; if grep -qs $MOUNT /proc/mounts; then<br>
&gt;&gt;     echo &quot;$LABEL $MOUNT is mounted&quot;;<br>
&gt;&gt;     gluster volume start gv_home 2&gt;/dev/null<br>
&gt;&gt; else<br>
&gt;&gt;     echo &quot;$LABEL $MOUNT is NOT mounted&quot;;<br>
&gt;&gt;     echo &quot;$LABEL Restarting gluster volume ...&quot;<br>
&gt;&gt;     yes|gluster volume stop gv_home &gt; /dev/null<br>
&gt;&gt;     gluster volume start gv_home<br>
&gt;&gt;     mount -t glusterfs sirius-ib:/gv_home $MOUNT;<br>
&gt;&gt;     if grep -qs $MOUNT /proc/mounts; then<br>
&gt;&gt;         echo &quot;$LABEL $MOUNT is mounted&quot;;<br>
&gt;&gt;         gluster volume start gv_home 2&gt;/dev/null<br>
&gt;&gt;     else<br>
&gt;&gt;         echo &quot;$LABEL failure to mount $MOUNT&quot;;<br>
&gt;&gt;     fi<br>
&gt;&gt; fi<br>
&gt;&gt;<br>
&gt;&gt; I hope this helps.<br>
&gt;&gt; Mauro<br>
&gt;&gt;<br>
&gt;&gt; On Fri, October 30, 2015 11:48, Atin Mukherjee wrote:<br>
&gt;&gt; &gt; -Atin<br>
&gt;&gt; &gt; Sent from one plus one<br>
&gt;&gt; &gt; On Oct 30, 2015 4:35 PM, &quot;Remi Serrano&quot; &lt;<a href="mailto:rserrano@pros.com">rserrano@pros.com</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hello,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; I setup a gluster file cluster with 2 nodes. It works fine.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; But, when I shut down the 2 nodes, and startup only one node, I<br>
&gt;&gt; cannot<br>
&gt;&gt; &gt; mount the share :<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [root@xxx ~]#  mount -t glusterfs 10.32.0.11:/gv0 /glusterLocalShare<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Mount failed. Please check the log file for more details.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Log says :<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.147003] I [MSGID: 100030]<br>
&gt;&gt; [glusterfsd.c:2318:main]<br>
&gt;&gt; &gt; 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version<br>
&gt;&gt; 3.7.5<br>
&gt;&gt; &gt; (args: /usr/sbin/glusterfs -127.0.0.1 --volfile-id=/gv0<br>
&gt;&gt; &gt; /glusterLocalShare)<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.171964] I [MSGID: 101190]<br>
&gt;&gt; &gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started<br>
&gt;&gt; thread<br>
&gt;&gt; &gt; with index 1<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.185685] I [MSGID: 101190]<br>
&gt;&gt; &gt; [event-epoll.c:632:event_dispatch_epoll_worker] 0-epoll: Started<br>
&gt;&gt; thread<br>
&gt;&gt; &gt; with index 2<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.186972] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt;&gt; &gt; 0-gv0-client-0: parent translators are ready, attempting connect on<br>
&gt;&gt; &gt; transport<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.191823] I [MSGID: 114020] [client.c:2118:notify]<br>
&gt;&gt; &gt; 0-gv0-client-1: parent translators are ready, attempting connect on<br>
&gt;&gt; &gt; transport<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.192209] E [MSGID: 114058]<br>
&gt;&gt; &gt; [client-handshake.c:1524:client_query_portmap_cbk] 0-gv0-client-0:<br>
&gt; failed<br>
&gt;&gt; &gt; to get the port number for remote subvolume. Please ume status&#39; on<br>
&gt; server<br>
&gt;&gt; &gt; to see if brick process is running.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [2015-10-30 10:33:26.192339] I [MSGID: 114018]<br>
&gt;&gt; &gt; [client.c:2042:client_rpc_notify] 0-gv0-client-0: disconnected from<br>
&gt;&gt; &gt; gv0-client-0. Client process will keep trying to connect t brick&#39;s<br>
&gt;&gt; port<br>
&gt; is<br>
&gt;&gt; &gt; available<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; And when I check the volumes I get:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; [root@xxx ~]# gluster volume status<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Status of volume: gv0<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Gluster process                             TCP Port  RDMA Port<br>
&gt;&gt; Online<br>
&gt;&gt; &gt; Pid<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Brick 10.32.0.11:/glusterBrick1/gv0         N/A       N/A        N<br>
&gt;&gt; &gt; N/A<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; NFS Server on localhost                     N/A       N/A        N<br>
&gt;&gt; &gt; N/A<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; NFS Server on localhost                     N/A       N/A        N<br>
&gt;&gt; &gt; N/A<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Task Status of Volume gv0<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; There are no active volume tasks<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; If I start th second node, all is OK.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Is this normal ?<br>
&gt;&gt; &gt; This behaviour is by design. In a multi node cluster when GlusterD<br>
&gt;&gt; comes<br>
&gt;&gt; &gt; up<br>
&gt;&gt; &gt; it doesn&#39;t start the bricks until it receives the configuration from<br>
&gt;&gt; its<br>
&gt;&gt; &gt; one of the friends to ensure that stale information is not been<br>
&gt; referred.<br>
&gt;&gt; &gt; In your case since the other node is down bricks are not started and<br>
&gt; hence<br>
&gt;&gt; &gt; mount fails.<br>
&gt;&gt; &gt; As a workaround, we recommend to add a dummy node to the cluster to<br>
&gt; avoid<br>
&gt;&gt; &gt; this issue.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Regards,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
</div></div>&gt;&gt; &gt;&gt; Rémi<br>
<div class="HOEnZb"><div class="h5">&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; Gluster-users mailing list<br>
&gt;&gt; &gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Mauro Mozzarelli<br>
&gt;&gt; Phone: <a href="tel:%2B44%207941%20727378" value="+447941727378">+44 7941 727378</a><br>
&gt;&gt; eMail: <a href="mailto:mauro@ezplanet.net">mauro@ezplanet.net</a><br>
&gt;&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
<br>
--<br>
Mauro Mozzarelli<br>
Phone: <a href="tel:%2B44%207941%20727378" value="+447941727378">+44 7941 727378</a><br>
eMail: <a href="mailto:mauro@ezplanet.net">mauro@ezplanet.net</a><br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>