<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    <br>
    <div class="moz-cite-prefix">On 12/14/2015 04:44 PM, Udo Giacomozzi
      wrote:<br>
    </div>
    <blockquote cite="mid:566EA4AE.4050001@indunet.it" type="cite">
      <meta content="text/html; charset=windows-1252"
        http-equiv="Content-Type">
      <div class="moz-cite-prefix">Hi,<br>
        <br>
        it happened again:<br>
        <br>
        today I've upgraded some packages on node #3. Since the Kernel
        had a minor update, I was asked to reboot the server, and did
        so.<br>
        <br>
        At that time only one (non-critical) VM was running on that
        node. I've checked twice and Gluster was *not* healing when I've
        rebooted.<br>
        <br>
        After rebooting, and while *automatic* healing was in progress,
        one VM started to get HDD corruption again, up to the point that
        it wasn't able to boot anymore(!). <br>
        <br>
        That poor VM was one of the only two VMs that were still using
        NFS for accessing the Gluster storage - if that matters.<br>
        The second VM survived the healing, even if it has rather large
        disks (~380 GB) and is rather busy.<br>
        <br>
        All other ~13 VMs had been moved to native glusterfs mount days
        before and had no problem with the reboot. The Gluster access
        type may be related or not - I don't know...<br>
        <br>
        All Gluster packages are at version "3.5.2-2+deb8u1" on all
        three servers - so Gluster has *not* been upgraded this time.<br>
        Kernel on node #3: Linux metal3 4.2.6-1-pve #1 SMP Wed Dec 9
        10:49:55 CET 2015 x86_64 GNU/Linux<br>
        Kenrle node #1&amp;#2: Linux metal1 4.2.3-2-pve #1 SMP Sun Nov
        15 16:08:19 CET 2015 x86_64 GNU/Linux<br>
      </div>
    </blockquote>
    Could you give us the logs of all the nodes for your setup and the
    name/gfid of the file that was corrupted?<br>
    <br>
    Pranith<br>
    <blockquote cite="mid:566EA4AE.4050001@indunet.it" type="cite">
      <div class="moz-cite-prefix"> <br>
        <br>
        Any idea??<br>
        <br>
        Udo<br>
        <br>
        <br>
        Am 10.12.2015 um 16:12 schrieb Udo Giacomozzi:<br>
      </div>
      <blockquote cite="mid:56699678.10605@indunet.it" type="cite">
        <meta content="text/html; charset=windows-1252"
          http-equiv="Content-Type">
        <div class="moz-cite-prefix">Am 09.12.2015 um 22:33 schrieb
          Lindsay Mathieson:<br>
        </div>
        <blockquote cite="mid:56689E26.9020006@gmail.com" type="cite">
          <meta content="text/html; charset=windows-1252"
            http-equiv="Content-Type">
          <br>
          <br>
          <div class="moz-cite-prefix">On 10/12/2015 3:15 AM, Udo
            Giacomozzi wrote:<br>
          </div>
          <blockquote cite="mid:566861B7.2060801@indunet.it" type="cite">This



            were the commands executed on node #2 during step 6:<br>
            <br>
            <blockquote><tt>gluster volume add-brick "systems" replica 3
                metal1:/data/gluster/systems</tt><br>
              <tt>gluster volume heal "systems" full   # to trigger sync</tt><br>
            </blockquote>
            <tt><br>
            </tt>Then I waited for replication to finish before doing
            anything else (about 1 hour or maybe more), checking <u><tt>gluster


                volume heal "systems" info</tt></u><br>
          </blockquote>
          <br>
          <br>
          Did you execute the heal command from host #2? Might be
          related to a possible issue I encountered during testing
          adding bricks recently, still in the process of recreating and
          testing the issue.</blockquote>
        <br>
        <br>
        I'm afraid I can't tell anymore. Could be, I'm not sure,
        sorry...<br>
        <br>
        <br>
        Udo<br>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>