<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">On 01/09/2016 01:44 AM, Kyle Harris
      wrote:<br>
    </div>
    <blockquote
cite="mid:CAO5ZC7EmtMcN310DYW44jOLLudvgPuF4ykSMUt6DLMH7gGTFTw@mail.gmail.com"
      type="cite">
      <p class="MsoNormal">It’s been a while since I last ran GlusterFS
        so I thought I
        might give it another try here at home in my lab.  I am using
        the 3.7 branch on 2 systems with a
        3<sup>rd</sup> being an arbiter node. 
        Much like the last time I tried GlusterFS, I keep running into
        issues
        with the glusterfsd process eating up so many resources that the
        systems
        sometimes become all but unusable.  A
        quick Google search tells me I am not the only one to run into
        this issue but I
        have yet to find a cure.  The last time I
        ran GlusterFS, it was to host web sites and I just chalked the
        problem up to a
        large number of small files.  This time,
        I am using it to host VM’s and there are only 7 of them and
        while they are
        running, they are not doing anything else.</p>
    </blockquote>
    <br>
    The performance improvements for self-heal are still a
    (stalled_at_the_moment)-work-in-progress. But for VM use cases, you
    can turn on sharding [1], which will drastically reduce data
    self-heal time.  Why don't you give it a spin on your lab setup and
    let us know how it goes? You might have to create the VMs again
    though since only the files that are created after enabling the
    feature will be sharded.<br>
    <br>
    -Ravi<br>
    <br>
    [1] <a class="moz-txt-link-freetext" href="http://blog.gluster.org/2015/12/introducing-shard-translator/">http://blog.gluster.org/2015/12/introducing-shard-translator/</a><br>
    <br>
    <br>
    <br>
  </body>
</html>