<div dir="ltr"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span style="font-size:14px">Is this setup on bare metal or does it involve virtual machines?</span></blockquote><div>I&#39;m running GlusterFS on physical machines. No virtual machines involved.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"> <span style="font-size:14px">Have you checked if port 24007 is reachable on all peers?</span></blockquote><div>Yes, I did &quot;nc -z server.xxx 24007&quot; on all servers. All succeeded.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span style="font-size:14px">Additionally, if you are not running 3.7.3 you would need to ensure that the privileged ports check is bypassed in all glusterds.</span></blockquote><div># gluster volume get speech0 allow-insecure<br></div><div>gave me:</div><div><div>Option                                  Value</div><div>------                                  -----</div><div>server.allow-insecure                   (null)</div></div><div><br></div><div>I&#39;m not sure if the system&#39;s privileged ports are exausted. </div><div>Also I&#39;m trying to set ping-timeout in /etc/glusterfs/glusterd.vol to a larger value, will this help?</div><div><br></div><div>Many thanks.</div><div> </div></div><div class="gmail_extra"><br><div class="gmail_quote">2015-09-01 16:18 GMT+08:00 Vijay Bellur <span dir="ltr">&lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Tuesday 01 September 2015 09:10 AM, Yiping Peng wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Even if I&#39;m seeing disconnected nodes (also from already-in-pool nodes),<br>
my volume is still intact and available. So I&#39;m guessing that glusterd<br>
has few to do with volume/brick service?<br>
Am I safe to kill all glusterd on all servers and start this whole peer<br>
probing process all over again?<br>
If I do this, will the currently mounted volumes become unavailable?<br>
<br>
</blockquote>
<br></span>
glusterd is the management daemon that takes care of cluster membership &amp; configuration primarily.Normally a glusterd restart would not be needed to resolve the disconnected nodes&#39; problem.<br>
<br>
A few questions:<br>
<br>
Is this setup on bare metal or does it involve virtual machines?<br>
<br>
Have you checked if port 24007 is reachable on all peers?<br>
<br>
Additionally, if you are not running 3.7.3 you would need to ensure that the privileged ports check is bypassed in all glusterds.<br>
<br>
Regards,<br>
Vijay<br>
<br>
</blockquote></div><br></div>