<div dir="ltr">Thanks Andre,<div><br></div><div>Citrix XenServer does not have qemu support for libgfapi unfortunately, though I have posted a Feature Request with them to possibly support it in the future.  Not sure if they will.</div><div><br></div><div>That&#39;s unfortunate that it can&#39;t be done with 2 servers.  It makes sense though.   Do you think it would work with 4 servers in the pool but still using Replica 2, or is Replica 3 the minimum?   We&#39;ve got a large amount of data, and using replica 2 would cost us about $878 per month whereas replica 3 would cost us about $1317/mo for the same amount of storage...</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Mar 22, 2016 at 8:48 AM, André Bauer <span dir="ltr">&lt;<a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="im HOEnZb">Hi Russel,<br>
<br>
i&#39;m a KVM user but imho XEN also supports accessing vm images through<br>
libgfapi so you don&#39;t need to mount via NFS or fuse client.<br>
<br>
Infos:<br>
<a href="http://www.gluster.org/community/documentation/index.php/Libgfapi_with_qemu_libvirt" rel="noreferrer" target="_blank">http://www.gluster.org/community/documentation/index.php/Libgfapi_with_qemu_libvirt</a><br>
<br>
Second point is that you need to have at least 3 replicas to get a<br>
working HA setup, because server quorum does not work for 2 replicas.<br>
<br>
Infos:<br>
<a href="https://www.gluster.org/pipermail/gluster-users/2015-November/024189.html" rel="noreferrer" target="_blank">https://www.gluster.org/pipermail/gluster-users/2015-November/024189.html</a><br>
<br>
Regards<br>
André<br>
<br>
<br>
Am 20.03.2016 um 19:41 schrieb Russell Purinton:<br>
</span><div class="HOEnZb"><div class="h5">&gt; Hi all, Once again I’m trying to get XenServer working reliably with<br>
&gt; GlusterFS storage for the VHDs. I’m mainly interested in the ability to<br>
&gt; have a pair of storage servers, where if one goes down, the VMs can keep<br>
&gt; running uninterrupted on the other server. So, we’ll be using the<br>
&gt; replicate translator to make sure all the data resides on both servers.<br>
&gt;<br>
&gt; So initially, I tried using the Gluster NFS server. XenServer supports<br>
&gt; NFS out of the box, so this seemed like a good way to go without having<br>
&gt; to hack XenServer much. I found some major performance issues with this<br>
&gt; however.<br>
&gt;<br>
&gt; I’m using a server with 12 SAS drives on a single RAID card, with dual<br>
&gt; 10GbE NICs. Without Gluster, using the normal Kernel NFS server, I can<br>
&gt; read and write to this server at over 400MB/sec. VMS run well. However<br>
&gt; when I switch to Gluster for the NFS server, my write performance drops<br>
&gt; to 20MB/sec. Read performance remains high. I found out this is due to<br>
&gt; XenServer’s use of O_DIRECT for VHD access. It helped a lot when the<br>
&gt; server had DDR cache on the RAID card, but for servers without that the<br>
&gt; performance was unusable.<br>
&gt;<br>
&gt; So I installed the gluster-client in XenServer itself, and mounted the<br>
&gt; volume in dom0. I then created a SR of type “file”. Success, sort of! I<br>
&gt; can do just about everything on that SR, VMs run nicely, and performance<br>
&gt; is acceptable at 270MB/sec, BUT…. I have a problem when I transfer an<br>
&gt; existing VM to it. The transfer gets only so far along then data stops<br>
&gt; moving. XenServer still says it’s copying, but no data is being sent. I<br>
&gt; have to force restart the XenHost to clear the issue (and the VM isn’t<br>
&gt; moved). Other file access to the FUSE mount still works, and other VMs<br>
&gt; are unaffected.<br>
&gt;<br>
&gt; I think the problem may possibly involve file locks or perhaps a<br>
&gt; performance translator. I’ve tried disabling as many performance<br>
&gt; translators as I can, but no luck.<br>
&gt;<br>
&gt; I didn’t find anything interesting in the logs, and no crash dumps. I<br>
&gt; tried to do a volume statedump to see the list of locks, but it seemed<br>
&gt; to only output some cpu stats in /tmp.<br>
&gt;<br>
&gt; Is there a generally accepted list of volume options to use with Gluster<br>
&gt; for volumes meant to store VHDs? Has anyone else had a similar<br>
&gt; experience with VHD access locking up?<br>
&gt;<br>
&gt; Russell<br>
&gt;<br>
&gt;<br>
</div></div><div class="HOEnZb"><div class="h5">&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<br>
<br>
--<br>
Mit freundlichen Grüßen<br>
André Bauer<br>
<br>
MAGIX Software GmbH<br>
André Bauer<br>
Administrator<br>
August-Bebel-Straße 48<br>
01219 Dresden<br>
GERMANY<br>
<br>
tel.: 0351 41884875<br>
e-mail: <a href="mailto:abauer@magix.net">abauer@magix.net</a><br>
<a href="mailto:abauer@magix.net">abauer@magix.net</a> &lt;mailto:<a href="mailto:Email">Email</a>&gt;<br>
<a href="http://www.magix.com" rel="noreferrer" target="_blank">www.magix.com</a> &lt;<a href="http://www.magix.com/" rel="noreferrer" target="_blank">http://www.magix.com/</a>&gt;<br>
<br>
Geschäftsführer | Managing Directors: Dr. Arnd Schröder, Klaus Schmidt<br>
Amtsgericht | Commercial Register: Berlin Charlottenburg, HRB 127205<br>
<br>
Find us on:<br>
<br>
&lt;<a href="http://www.facebook.com/MAGIX" rel="noreferrer" target="_blank">http://www.facebook.com/MAGIX</a>&gt; &lt;<a href="http://www.twitter.com/magix_de" rel="noreferrer" target="_blank">http://www.twitter.com/magix_de</a>&gt;<br>
&lt;<a href="http://www.youtube.com/wwwmagixcom" rel="noreferrer" target="_blank">http://www.youtube.com/wwwmagixcom</a>&gt; &lt;<a href="http://www.magixmagazin.de" rel="noreferrer" target="_blank">http://www.magixmagazin.de</a>&gt;<br>
----------------------------------------------------------------------<br>
The information in this email is intended only for the addressee named<br>
above. Access to this email by anyone else is unauthorized. If you are<br>
not the intended recipient of this message any disclosure, copying,<br>
distribution or any action taken in reliance on it is prohibited and<br>
may be unlawful. MAGIX does not warrant that any attachments are free<br>
from viruses or other defects and accepts no liability for any losses<br>
resulting from infected email transmissions. Please note that any<br>
views expressed in this email may be those of the originator and do<br>
not necessarily represent the agenda of the company.<br>
----------------------------------------------------------------------<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>