<div dir="ltr"><div><div>Hi,<br><br></div>Could you share the mount and glustershd logs for investigation?<br><br></div>-Krutika<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Sun, May 15, 2016 at 12:22 PM, Lindsay Mathieson <span dir="ltr">&lt;<a href="mailto:lindsay.mathieson@gmail.com" target="_blank">lindsay.mathieson@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div bgcolor="#FFFFFF" text="#000000"><span class="">
    <div>On 15/05/2016 12:45 AM, Lindsay
      Mathieson wrote:<br>
    </div>
    <blockquote type="cite">
      <p><b>First off I tried removing/adding a brick.</b></p>
      <p><tt>    gluster v remove-brick replica 2
          vng.proxmox.softlog:/tank/vmdata/test1 force.</tt></p>
      <p>That worked fine, VM&#39;s (on another node) kept running without a
        hiccup<br>
      </p>
      <br>
      I deleted /tank/vmdata/test1, then<br>
      <br>
      <tt>    gluster v add-brick replica 3
        vng.proxmox.softlog:/tank/vmdata/test1 force.</tt><br>
    </blockquote>
    <br>
    <p><br>
    </p>
    <p><br>
    </p>
    </span><p>I tried this again but added a differently named brick (
      vng.proxmox.softlog:/tank/vmdata/test1-2). Results were similar to
      replace-brick, much less reverse heals, but still some (3 shards).
      There was some corruption in the running VM&#39;s<span class="HOEnZb"><font color="#888888"><br>
    </font></span></p><span class="HOEnZb"><font color="#888888">
    <pre cols="72">-- 
Lindsay Mathieson</pre>
  </font></span></div>

<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>