<div dir="ltr">Hi atin,<div><br></div><div>I have tried to flush the iptables and this time i managed to get the peer into cluster. However, the self heal daemon is still offline and im unable to bring the daemon back online on gfs2. Doing a heal on either server gives me a succesful output but when i check the heal info i am getting many split brain errors on gfs2</div><div><br><div class="gmail_extra"><div><div class="gmail_signature"><div dir="ltr"><div>Thank You Kindly,</div><div>Kaamesh</div><div><br></div></div></div></div>
<br><div class="gmail_quote">On Thu, Feb 26, 2015 at 5:40 PM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Could you check the N/W firewall setting? Flush iptable setting using<br>
iptables -F and retry.<br>
<br>
~Atin<br>
<div><div class="h5"><br>
On 02/26/2015 02:55 PM, Kaamesh Kamalaaharan wrote:<br>
&gt; Hi guys,<br>
&gt;<br>
&gt; I managed to get gluster running but im having a couple of issues with my<br>
&gt; setup 1) my peer status is rejected but connected 2) my self heal daemon is<br>
&gt; not running on one server and im getting split brain files.<br>
&gt; My setup is two gluster volumes  (gfs1 and gfs2) on replicate each with a<br>
&gt; brick<br>
&gt;<br>
&gt; 1) My peer status doesnt go into Peer in Cluster. running a peer status<br>
&gt; command gives me State:Peer Rejected (Connected) . At this point, the brick<br>
&gt; on gfs2 does not go online and i get this output<br>
&gt;<br>
&gt;<br>
&gt; #gluster volume status<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49153 Y 15025<br>
&gt;<br>
&gt; NFS Server on localhost 2049 Y 15039<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A Y 15044<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; I have followed the methods used in one of the threads and performed the<br>
&gt; following<br>
&gt;<br>
&gt;    a) stop glusterd<br>
&gt;    b) rm all files in /var/lib/glusterd/  except for <a href="http://glusterd.info" target="_blank">glusterd.info</a><br>
&gt;    c) start glusterd and probe gfs1 from gfs2 and peer status which gives me<br>
&gt;<br>
&gt;<br>
&gt; # gluster peer status<br>
&gt;<br>
&gt; Number of Peers: 1<br>
&gt;<br>
&gt;<br>
&gt; Hostname: gfs1<br>
&gt;<br>
&gt; Uuid: 49acc9c2-4809-4da5-a6f0-6a3d48314070<br>
&gt;<br>
&gt; State: Sent and Received peer request (Connected)<br>
&gt;<br>
&gt;<br>
&gt; the same thread mentioned that changing the status of the peer in<br>
&gt; /var/lib/glusterd/peer/{UUID} from status=5 to status=3 fixes this and on<br>
&gt; restart of gfs1 the peer status goes to<br>
&gt;<br>
&gt; #gluster peer status<br>
&gt;<br>
&gt; Number of Peers: 1<br>
&gt;<br>
&gt;<br>
&gt; Hostname: gfs1<br>
&gt;<br>
&gt; Uuid: 49acc9c2-4809-4da5-a6f0-6a3d48314070<br>
&gt;<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt; This fixes the connection between the peers and the volume status shows<br>
&gt;<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49153 Y 10852<br>
&gt;<br>
&gt; Brick gfs2:/export/sda/brick 49152 Y 17024<br>
&gt;<br>
&gt; NFS Server on localhost N/A N N/A<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A N N/A<br>
&gt;<br>
&gt; NFS Server on gfs2 N/A N N/A<br>
&gt;<br>
&gt; Self-heal Daemon on gfs2 N/A N N/A<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt; Which brings us to problem 2<br>
&gt;<br>
&gt; 2) My self-heal demon is not alive<br>
&gt;<br>
&gt; I fixed the self heal on gfs1 by running<br>
&gt;<br>
&gt;  #find &lt;gluster-mount&gt; -noleaf -print0 | xargs --null stat &gt;/dev/null<br>
&gt; 2&gt;/var/log/gluster/&lt;gluster-mount&gt;-selfheal.log<br>
&gt;<br>
&gt; and running a volume status command gives me<br>
&gt;<br>
&gt; # gluster volume status<br>
&gt;<br>
&gt; Status of volume: gfsvolume<br>
&gt;<br>
&gt; Gluster process Port Online Pid<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Brick gfs1:/export/sda/brick 49152 Y 16660<br>
&gt;<br>
&gt; Brick gfs2:/export/sda/brick 49152 Y 21582<br>
&gt;<br>
&gt; NFS Server on localhost 2049 Y 16674<br>
&gt;<br>
&gt; Self-heal Daemon on localhost N/A Y 16679<br>
&gt;<br>
&gt; NFS Server on gfs2 N/A N 21596<br>
&gt;<br>
&gt; Self-heal Daemon on gfs2 N/A N 21600<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Task Status of Volume gfsvolume<br>
&gt;<br>
&gt; ------------------------------------------------------------------------------<br>
&gt;<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; However, running this on gfs2 doesnt fix the daemon.<br>
&gt;<br>
&gt; Restarting the gfs2 server brings me back to problem 1 and the cycle<br>
&gt; continues..<br>
&gt;<br>
&gt; Can anyone assist me with this issue(s).. thank you.<br>
&gt;<br>
&gt; Thank You Kindly,<br>
&gt; Kaamesh<br>
&gt;<br>
&gt;<br>
&gt;<br>
</div></div>&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
~Atin<br>
</font></span></blockquote></div><br></div></div></div>