<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Thanks Ravi,<div class=""><br class=""></div><div class="">I tested the migration using the procedure detailed in [1] (a couple of times) on my single node test and did not see any of the problems I was seeing with the other technique. We'll proceed with rolling this out across our test environment next week and if that works out we'll move on to prod.</div><div class=""><br class=""></div><div class="">Thanks for your suggestion, I appreciate it.</div><div class=""><br class=""></div><div class="">Bernard.</div><div class=""><br class=""><div><blockquote type="cite" class=""><div class="">On Apr 28, 2016, at 9:31 PM, Ravishankar N &lt;<a href="mailto:ravishankar@redhat.com" class="">ravishankar@redhat.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class="">
  
    <meta content="text/html; charset=windows-1252" http-equiv="Content-Type" class="">
  
  <div bgcolor="#FFFFFF" text="#000000" class="">
    <div class="moz-cite-prefix">3.6.9 does not contain all fixes to
      trigger auto-heal when modifying the replica count using
      replace-brick/ add-brick commands.<br class="">
      For replace-brick, you might want to try out the manual steps
      mentioned in the "Replacing brick in Replicate/Distributed
      Replicate volumes" section of [1].<br class="">
      For add-brick, the steps mentioned by Anuradha in [2] should work.<br class="">
      <br class="">
      HTH,<br class="">
      Ravi<br class="">
      <br class="">
      [1]
<a class="moz-txt-link-freetext" href="http://gluster.readthedocs.io/en/latest/Administrator%20Guide/Managing%20Volumes/#replace-brick">http://gluster.readthedocs.io/en/latest/Administrator%20Guide/Managing%20Volumes/#replace-brick</a><br class="">
      [2]
      <a class="moz-txt-link-freetext" href="https://www.gluster.org/pipermail/gluster-users/2016-January/025083.html">https://www.gluster.org/pipermail/gluster-users/2016-January/025083.html</a><br class="">
      <br class="">
      <br class="">
      On 04/29/2016 01:51 AM, Bernard Gardner wrote:<br class="">
    </div>
    <blockquote cite="mid:CAKxEMBFAkpmzCg7eqXEt=Yxf4JpXKRziTdQ4f9jQLtWMYHvjMw@mail.gmail.com" type="cite" class="">
      <div dir="ltr" class="">Further to this, I've continued my testing and
        discovered that during the same type of migration operations
        (add-brick followed by remove-brick in a replica=2 config), I
        see shell wildcard expansion sometimes returning multiple
        instances of the same filename - so it seems that the namespace
        for a FUSE mounted filesystem during a brick deletion operation
        is somewhat mutable. This behaviour is intermittent, but occurs
        frequently enough that I'd say it's repeatable.
        <div class=""><br class="">
        </div>
        <div class="">Does anyone have any feedback on my previous question of
          this being expected behavior or a bug?</div>
        <div class=""><br class="">
        </div>
        <div class="">Thanks,</div>
        <div class="">Bernard.<br class="">
          <div class="gmail_extra"><br class="">
            <div class="gmail_quote">On 20 April 2016 at 19:55, Bernard
              Gardner <span dir="ltr" class="">&lt;<a moz-do-not-send="true" href="mailto:bernard@sprybts.com" target="_blank" class="">bernard@sprybts.com</a>&gt;</span>
              wrote:<br class="">
              <blockquote class="gmail_quote" style="margin:0 0 0
                .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br class="">
                <br class="">
                I'm running gluster 3.6.9 on ubuntu 14.04 on a single
                test server (under Vagrant and VirtualBox), with 4
                filesystems (in addition to the root), 2 of which are
                xfs directly on the disk, and the other 2 are xfs on an
                LVM config - the scenario I'm testing for is migration
                of our production gluster to add LVM so that we can use
                the snapshot features in 3.6 to implement offline
                backups.<br class="">
                <br class="">
                On my test machine, I configured a volume with replica 2
                and 2 bricks (with both bricks on the same server). I
                then started and mounted the volume back onto the same
                server under /mnt and populated /mnt with a 3 level deep
                hierarchy of 16 directories, and in each the leaf
                directories added 10 files of 1kB. So there are 40960
                files in the filesystem (16x16x16x10) named like
                a/b/c/abc.0<br class="">
                <br class="">
                For my first test, I did a "replace-brick commit force"
                to swap the first brick in my config with a new brick on
                one of the xfs on LVM filesystems. This resulted in the
                /mnt filesystem appearing empty until I manually started
                a full heal on the volume after which the files and
                directories started to re-appear on the mounted
                filesystem - after the heal completed, everything looked
                OK, but that's not going to work for our production
                systems. This appeared to be the suggestion from <a moz-do-not-send="true" href="https://www.gluster.org/pipermail/gluster-users/2012-October/011502.html" rel="noreferrer" target="_blank" class=""></a><a class="moz-txt-link-freetext" href="https://www.gluster.org/pipermail/gluster-users/2012-October/011502.html">https://www.gluster.org/pipermail/gluster-users/2012-October/011502.html</a>
                for a replicated volume<br class="">
                <br class="">
                For my second attempt, I rebuilt the test system from
                scratch, built and mounted the gluster volume the same
                way and populated it with the same test file
                configuration. I then did a volume add-brick and added
                both of the xfs on LVM filesystems to the configuration.
                The directory tree was copied to the new bricks, but no
                files were moved. I then did volume remove-brick on the
                2 initial bricks and the system started migrating the
                files to the new filesystems. This looked more
                promising, but during the migration operation, I ran
                find /mnt -type f | wc -l a number of times and on one
                of those checks, the number of files was 39280 instead
                of 40960 - I wasn't able to observe exactly which files
                were missing, I ran the command again immediately and it
                reported 40960 files every other time during the
                migration.<br class="">
                <br class="">
                Is this expected behavior, or have I stumbled on a bug?<br class="">
                <br class="">
                Is there a better workflow for completing this
                migration?<br class="">
                <br class="">
                The production system runs in AWS and has 6 gluster
                servers over 2 availability zones, each of which has
                1x600GB brick on an EBS volume, which are configured
                into a single 1.8TB volume with replication across the
                availability zones. We are planning on creating the new
                volumes with about 10% headroom left in the LVM config
                for holding snapshots, and hoping we can implement a
                backup solution by doing a gluster snapshot, followed by
                an EBS snapshot to get a consistent point in time
                offline backup (and then delete the gluster snapshot
                once the EBS snapshot has been taken). I haven't yet
                figured out the details of how we would restore from the
                snapshots (I can test that scenario once I have a
                working local test migration procedure and can migrate
                our test environment in AWS to support snapshots).<br class="">
                <br class="">
                Thanks,<br class="">
                Bernard.<br class="">
                <br class="">
              </blockquote>
            </div>
            <br class="">
          </div>
        </div>
      </div>
      <br class="">
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br class="">
      <pre wrap="" class="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote><p class=""><br class="">
    </p>
  </div>

</div></blockquote></div><br class=""></div></body></html>