<div dir="ltr"><div><div><div><div><div><div><div><div><div><div><div>Hi all,</div><br></div><div>We made  a setup of 3 Glusterfs nodes for one of our clients, two master nodes and a slave node.<br></div><div>The GlusterFS storage is used with Proxmox hypervisors.<br></div><div><br></div>The platform :<br></div><br>Two hypervisors Proxmox v3.3 with latest updates<br><br></div>2 nodes GlusterFS 3.6.2 (latest updates) on Centos7.1x64 (latest updates) + 1 node for geo-replication.<br><br></div>On the cluster GlusterFS we have two volumes data1 and data2, each composed of one brick, the two volumes are on : replicated mode.<br></div><div>the volumes are geo-replicated on the third node on slavedata1 and slavedata2.<br></div><div><br></div>We&#39;re using OpenVZ containers for the services (web, mail, ftp ...etc.).<br><br></div>The problems:<br><br></div>1 - We&#39;re experiencing poor performance with our services, especially mail and web : web pages are slow, if we start parallel jobs, creation/ a restore of containers it took a lot of time, and sometimes job fails.<br><br></div>2 - We have also problems with geo-replication:<br>    a - It starts successfully, some days after we found it in faulty state, we didn&#39;t find the cause of the problem yet.<br>    b - it does not continue synchronization, here is the little story:<br></div>     We had 16Gb of data on data2, they were synced correctly on the slave volume: slavedata2, the we&#39;ve copied a 100Gb container on the master volume, the container is a zimbra mail server, the container was not synced, we recreated the slavedata2 volume, the geo-replication stopped at 16Gb.<br></div><div>We stopped the container and recreated the slavedata2 volume again, this time it seems working!!!??? at least for the moment, I keep monitoring.<br><br></div><div>3 - At some point we had to delete the geo-replication session, after completing all the manipulations (recreating the slavedata2 volume), we recreated the geo session, when we started it, it went to faulty state, the gstatus command displayed : volume data2 is down (all bricks are down), why??? no idea, the strange part: glu v info/status data2, commands didn&#39;t show any error messages. We stopped and restarted the volume, and then we started the geo-replication.<br><br></div><div><br></div><div>Questions :<br><br></div><div>1 - Is GlusterFS suitable for containers?<br></div><div>2 - If yes, do we have to tune it for small files usage? and if yes, any advice?<br></div><div>3 - Is there a way to show options values of a volume?<br></div><div><div><div><div><div><div><div><div><div><div><div><div><div><br><br></div>Thanks in advance.<br><br></div></div></div></div></div></div></div></div></div></div></div></div></div>