<html><head></head><body>Hi all,  Once again I&#8217;m trying to get XenServer working reliably with GlusterFS storage for the VHDs.  I&#8217;m mainly interested in the ability to have a pair of storage servers, where if one goes down, the VMs can keep running uninterrupted on the other server.  So, we&#8217;ll be using the replicate translator to make sure all the data resides on both servers.<br>
<br>
So initially, I tried using the Gluster NFS server.  XenServer supports NFS out of the box, so this seemed like a good way to go without having to hack XenServer much.  I found some major performance issues with this however.  <br>
<br>
I&#8217;m using a server with 12 SAS drives on a single RAID card, with dual 10GbE NICs.    Without Gluster, using the normal Kernel NFS server, I can read and write to this server at over 400MB/sec.  VMS run well.   However when I switch to Gluster for the NFS server, my write performance drops to 20MB/sec.  Read performance remains high.   I found out this is due to XenServer&#8217;s use of O_DIRECT for VHD access.  It helped a lot when the server had DDR cache on the RAID card, but for servers without that the performance was unusable.<br>
<br>
So I installed the gluster-client in XenServer itself, and mounted the volume in dom0.  I then created a SR of type &#8220;file&#8221;.   Success, sort of!   I can do just about everything on that SR, VMs run nicely, and performance is acceptable at 270MB/sec, BUT&#8230;.    I have a problem when I transfer an existing VM to it.  The transfer gets only so far along then data stops moving.  XenServer still says it&#8217;s copying, but no data is being sent.  I have to force restart the XenHost to clear the issue (and the VM isn&#8217;t moved).   Other file access to the FUSE mount still works, and other VMs are unaffected.<br>
<br>
I think the problem may possibly involve file locks or perhaps a performance translator.  I&#8217;ve tried disabling as many performance translators as I can, but no luck.<br>
<br>
I didn&#8217;t find anything interesting in the logs, and no crash dumps.   I tried to do a volume statedump to see the list of locks, but it seemed to only output some cpu stats in /tmp.<br>
<br>
Is there a generally accepted list of volume options to use with Gluster for volumes meant to store VHDs?  Has anyone else had a similar experience with VHD access locking up?   <br>
<br>
Russell
<img src="http://t.sidekickopen04.com/e1t/o/5/f18dQhb0S7ks8dDMPbW2n0x6l2B9gXrN7sKj6v4LN9-W2z8_hM5wLWr-N7dSKlbd3_yKW6jq8hk1k1H6H0?si=6102096971038720&pi=5BD0125E-948F-4CBB-AE06-BB273CDB06BE" width="1" height="1" style="display:none!important"></body></html>