<p dir="ltr">This behaviour is expected and in a 2 node cluster setup brick processes are started only when the other nodes come up. The same would be true in 3.5.x series as well. Adding a dummy node into the cluster would help you to solve your problem.</p>
<p dir="ltr">-Atin<br>
Sent from one plus one</p>
<div class="gmail_quote">On Sep 20, 2015 4:56 PM, &quot;Mauro M.&quot; &lt;<a href="mailto:gluster@ezplanet.net">gluster@ezplanet.net</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi all,<br>
<br>
I hope you might help.<br>
<br>
I just upgraded from 3.5.6 to 3.7.4<br>
<br>
My configuration is 1 volume with 2 x bricks replicated.<br>
<br>
Normally I have brick1 running and brick2 turned off so that when I want<br>
to do maintenance on brick1 I turn on brick2, wait for synchronization to<br>
complete and turn off brick1.<br>
<br>
Often I just reboot brick1 with brick2 still turned off.<br>
<br>
With glusterfs version 3.5 I could do all of the above.<br>
<br>
After the upgrade to 3.7.4 if I boot brick1 (or brick2) without the other<br>
node, glusterd starts, but the gluster network processes won&#39;t start.<br>
<br>
Here is the output of gluster volume info:<br>
Volume Name: gv_home<br>
Type: Replicate<br>
Volume ID: ef806153-2a02-4db9-a54e-c2f89f79b52e<br>
Status: Started<br>
Number of Bricks: 1 x 2 = 2<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: brick1:/brick0/gv_home<br>
Brick2: brick2:/brick0/gv_home<br>
Options Reconfigured:<br>
nfs.disable: on<br>
config.transport: tcp<br>
<br>
... and gluster volume status:<br>
<br>
Status of volume: gv_home<br>
Gluster process                         TCP Port  RDMA Port  Online  Pid<br>
---------------------------------------------------------------------------<br>
Brick brick1:/brick0/gv_home            N/A       N/A        N       N/A<br>
NFS Server on localhost                 N/A       N/A        N       N/A<br>
<br>
Task Status of Volume gv_home<br>
---------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
Under this condition gv_home cannot be mounted.<br>
<br>
Only if I start brick2, once glusterd starts on brick2 the gluster<br>
processes also start on brick1 and gv_home can be mounted:<br>
<br>
Status of volume: gv_home<br>
Gluster process                         TCP Port  RDMA Port  Online  Pid<br>
--------------------------------------------------------------------------<br>
Brick brick1:/brick0/gv_home            49158     0          Y       30049<br>
Brick brick2:/brick0/gv_home            49158     0          Y       14797<br>
Self-heal Daemon on localhost           N/A       N/A        Y       30044<br>
Self-heal Daemon on brick2              N/A       N/A        Y       14792<br>
<br>
Task Status of Volume gv_home<br>
--------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
Once I turn off brick2 then the volume remains available and mounted<br>
without issues (for as long that the relative gluster processes remain<br>
active, if I kill them I am back without volume).<br>
<br>
The issue is that I would like to safely boot one the bricks without<br>
having to boot both to get the volume back and mountable which is what I<br>
was able to do with glusterfs version 3.5.<br>
<br>
Please could you help?<br>
Is there any parameter to set that would enable the same behaviour as in 3.5?<br>
<br>
Thank you in advance,<br>
Mauro<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div>