<div dir="ltr">Hi everyone,<div><br></div><div>I managed to fix my problem. It was an old process of gluster which was using up the ports.. i manually killed all the processes and the corresponding /var/run file used by that process before starting a new instance of gluster and it worked fine. </div><div><br></div><div>What i did was : </div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><br></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>service glusterfs-server stop</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>kill -9 `ps -ef | grep gl | grep -v grep | awk &#39;{print $2}&#39;`</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>rm -r /var/lib/glusterd/geo-replication /var/lib/glusterd/glustershd /var/lib/glusterd/groups /var/lib/glusterd/hooks /var/lib/glusterd/nfs /var/lib/glusterd/options /var/lib/glusterd/peers /var/lib/glusterd/quotad /var/lib/glusterd/vols</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>service glusterfs-server start</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>gluster peer probe gfs1</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>service glusterfs-server restart</div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div><br></div></div></blockquote></div></blockquote><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div><div>gluster volume sync gfs1 all</div></div></blockquote></div></blockquote></blockquote><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><div>Thank You Kindly,</div><div>Kaamesh</div><div>Bioinformatician</div><div>Novocraft Technologies Sdn Bhd</div><div><div>C-23A-05, 3 Two Square, Section 19, 46300 Petaling Jaya</div><div>Selangor Darul Ehsan</div><div>Malaysia</div></div><div>Mobile: <a value="+60176562635" style="color:rgb(17,85,204)">+60176562635</a></div><div>Ph: <a value="+60379600541" style="color:rgb(17,85,204)">+60379600541</a></div><div>Fax: <a value="+60379600540" style="color:rgb(17,85,204)">+60379600540</a></div></div></div></div>
<br><div class="gmail_quote">On Fri, Feb 27, 2015 at 8:51 AM, Kaamesh Kamalaaharan <span dir="ltr">&lt;<a href="mailto:kaamesh@novocraft.com" target="_blank">kaamesh@novocraft.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi atin,<div><br></div><div>I have tried to flush the iptables and this time i managed to get the peer into cluster. However, the self heal daemon is still offline and im unable to bring the daemon back online on gfs2. Doing a heal on either server gives me a succesful output but when i check the heal info i am getting many split brain errors on gfs2</div><div><br><div class="gmail_extra"><div><div><div dir="ltr"><div>Thank You Kindly,</div><div>Kaamesh</div><div><br></div></div></div></div><div><div class="h5">
<br><div class="gmail_quote">On Thu, Feb 26, 2015 at 5:40 PM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Could you check the N/W firewall setting? Flush iptable setting using<br>
iptables -F and retry.<br>
<br>
~Atin<br>
<div><div><br>
On 02/26/2015 02:55 PM, Kaamesh Kamalaaharan wrote:<br>
&gt; Hi guys,<br>
&gt;<br>
&gt; I managed to get gluster running but im having a couple of issues with my<br>
&gt; setup 1) my peer status is rejected but connected 2) my self heal daemon is<br>
&gt; not running on one server and im getting split brain files.<br>
&gt; My setup is two gluster volumes  (gfs1 and gfs2) on replicate each with a<br>
&gt; brick<br>
&gt;<br>
&gt; 1) My peer status doesnt go into Peer in Cluster. running a peer status<br>
&gt; command gives me State:Peer Rejected (Connected) . At this point, the brick<br>
&gt; on gfs2 does not go online and i get this output<br>
&gt;<br>
&gt;<br>
&gt; #gluster volume status<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49153 Y 15025<br>
&gt;<br>
&gt; NFS Server on localhost 2049 Y 15039<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A Y 15044<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; I have followed the methods used in one of the threads and performed the<br>
&gt; following<br>
&gt;<br>
&gt;    a) stop glusterd<br>
&gt;    b) rm all files in /var/lib/glusterd/  except for <a href="http://glusterd.info" target="_blank">glusterd.info</a><br>
&gt;    c) start glusterd and probe gfs1 from gfs2 and peer status which gives me<br>
&gt;<br>
&gt;<br>
&gt; # gluster peer status<br>
&gt;<br>
&gt; Number of Peers: 1<br>
&gt;<br>
&gt;<br>
&gt; Hostname: gfs1<br>
&gt;<br>
&gt; Uuid: 49acc9c2-4809-4da5-a6f0-6a3d48314070<br>
&gt;<br>
&gt; State: Sent and Received peer request (Connected)<br>
&gt;<br>
&gt;<br>
&gt; the same thread mentioned that changing the status of the peer in<br>
&gt; /var/lib/glusterd/peer/{UUID} from status=5 to status=3 fixes this and on<br>
&gt; restart of gfs1 the peer status goes to<br>
&gt;<br>
&gt; #gluster peer status<br>
&gt;<br>
&gt; Number of Peers: 1<br>
&gt;<br>
&gt;<br>
&gt; Hostname: gfs1<br>
&gt;<br>
&gt; Uuid: 49acc9c2-4809-4da5-a6f0-6a3d48314070<br>
&gt;<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; This fixes the connection between the peers and the volume status shows<br>
&gt;<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49153 Y 10852<br>
&gt;<br>
&gt; Brick gfs2:/export/sda/brick 49152 Y 17024<br>
&gt;<br>
&gt; NFS Server on localhost N/A N N/A<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A N N/A<br>
&gt;<br>
&gt; NFS Server on gfs2 N/A N N/A<br>
&gt;<br>
&gt; Self-heal Daemon on gfs2 N/A N N/A<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt; Which brings us to problem 2<br>
&gt;<br>
&gt; 2) My self-heal demon is not alive<br>
&gt;<br>
&gt; I fixed the self heal on gfs1 by running<br>
&gt;<br>
&gt;  #find &lt;gluster-mount&gt; -noleaf -print0 | xargs --null stat &gt;/dev/null<br>
&gt; 2&gt;/var/log/gluster/&lt;gluster-mount&gt;-selfheal.log<br>
&gt;<br>
&gt; and running a volume status command gives me<br>
&gt;<br>
&gt; # gluster volume status<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49152 Y 16660<br>
&gt;<br>
&gt; Brick gfs2:/export/sda/brick 49152 Y 21582<br>
&gt;<br>
&gt; NFS Server on localhost 2049 Y 16674<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A Y 16679<br>
&gt;<br>
&gt; NFS Server on gfs2 N/A N 21596<br>
&gt;<br>
&gt; Self-heal Daemon on gfs2 N/A N 21600<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; However, running this on gfs2 doesnt fix the daemon.<br>
&gt;<br>
&gt; Restarting the gfs2 server brings me back to problem 1 and the cycle<br>
&gt; continues..<br>
&gt;<br>
&gt; Can anyone assist me with this issue(s).. thank you.<br>
&gt;<br>
&gt; Thank You Kindly,<br>
&gt; Kaamesh<br>
&gt;<br>
&gt;<br>
&gt;<br>
</div></div>&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<span><font color="#888888"><br>
--<br>
~Atin<br>
</font></span></blockquote></div><br></div></div></div></div></div>
</blockquote></div><br></div>