<div dir="ltr">never mind. I do not have enough time to debug why basic commands of gluster do not work on production server. It was enough of tonight&#39;s system freeze due to not documented XFS settings MUST have to run glusterfs with XFS. I&#39;ll keep to EXT4 better. Anyway XFS for bricks did not solve my previous problem.<div><br></div><div>To solve split-brain this time, I&#39;ve restored VM from backup.</div></div><div class="gmail_extra"><br><div class="gmail_quote">2015-07-14 21:55 GMT+03:00 Roman <span dir="ltr">&lt;<a href="mailto:romeo.r@gmail.com" target="_blank">romeo.r@gmail.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><span class=""><div dir="ltr" style="font-size:12.8000001907349px">Thanx for pointing out... <div>but doesn&#39;t seem to work... or i am too sleepy due to problems with glusterfs and debian8 in other topic which i&#39;m fighting for month..</div><div><br></div><div><div>root@stor1:~# gluster volume heal HA-2TB-TT-Proxmox-cluster split-brain source-brick stor1:HA-2TB-TT-Proxmox-cluster/2TB /images/124/vm-124-disk-1.qcow2</div><div>Usage: volume heal &lt;VOLNAME&gt; [{full | statistics {heal-count {replica &lt;hostname:brickname&gt;}} |info {healed | heal-failed | split-brain}}]</div></div><div><br></div><div>seems like wrong command...</div></div></span><div style="font-size:12.8000001907349px"><div><img src="https://ssl.gstatic.com/ui/v1/icons/mail/images/cleardot.gif"></div></div></div><div class="gmail_extra"><br><div class="gmail_quote"><span class="">2015-07-14 21:23 GMT+03:00 Joe Julian <span dir="ltr">&lt;<a href="mailto:joe@julianfamily.org" target="_blank">joe@julianfamily.org</a>&gt;</span>:<br></span><div><div class="h5"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>On 07/14/2015 11:19 AM, Roman wrote:<br>
</span><div><div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
played with glusterfs tonight and tried to use recommended XFS for gluster.. first try was pretty bad and all of my VM-s hanged (XFS wants allocsize=64k to create qcow2 files, which i didn&#39;t know about and tried to create VM on XFS without this config line in fstab, which lead to a lot of IO-s and qemu says it got time out while creating the file)..<br>
<br>
now i&#39;ve got this:<br>
Brick stor1:/exports/HA-2TB-TT-Proxmox-cluster/2TB/<br>
/images/124/vm-124-disk-1.qcow2 - Is in split-brain<br>
<br>
Number of entries: 1<br>
<br>
Brick stor2:/exports/HA-2TB-TT-Proxmox-cluster/2TB/<br>
/images/124/vm-124-disk-1.qcow2 - Is in split-brain<br>
<br>
ok. what next?<br>
I&#39;ve deleted one of files, it didn&#39;t help. even more, selfheal restored the file on node, where i deleted it... and still split-brain.<br>
<br>
how to fix?<br>
<br>
-- <br>
Best regards,<br>
Roman.<br>
<br>
</blockquote>
<br>
<br>
</div></div><span><a href="https://github.com/gluster/glusterfs/blob/master/doc/features/heal-info-and-split-brain-resolution.md" rel="noreferrer" target="_blank">https://github.com/gluster/glusterfs/blob/master/doc/features/heal-info-and-split-brain-resolution.md</a> <br>
<br>
or<br>
<br>
<a href="https://joejulian.name/blog/glusterfs-split-brain-recovery-made-easy/" rel="noreferrer" target="_blank">https://joejulian.name/blog/glusterfs-split-brain-recovery-made-easy/</a><br></span>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div></div></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><div><br></div>-- <br><div>Best regards,<br>Roman.</div>
</font></span></div>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">Best regards,<br>Roman.</div>
</div>