<div dir="ltr">Hi John,<div><br></div><div>Would you please share your scenario? </div><div><br></div><div>* How many nodes are running as gluster server?</div><div>* Which application is accesing gluster volume by which means (NFS, CIFS, Gluster Client)?</div><div>* Are you accessing volume through a client or the clients are accessing volume themselves (like KVM nodes)</div><div><br></div><div>Best Regards</div><div>Aytac</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Feb 25, 2015 at 1:18 AM, John Gardeniers <span dir="ltr">&lt;<a href="mailto:jgardeniers@objectmastery.com" target="_blank">jgardeniers@objectmastery.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div bgcolor="#FFFFFF" text="#000000">
    Problem solved, more or less.<br>
    <br>
    After reading Aytac&#39;s comment about 3.6.2 not being considered
    stable yet I removed it from the new node,  removed
    /var/lib/glusterd/, rebooted (just to be sure) and installed 3.5.3.
    After detaching and re-probing the peer the replace-brick command
    worked and the volume is currently happily undergoing a self-heal.
    At a later and more convenient time I&#39;ll upgrade the 3.4.2 node to
    the same version. As previously stated, I cannot upgrade the
    clients, so they will just have to stay where they are.<span class=""><br>
    <br>
    regards,<br>
    John<br>
    <br>
    <br>
    <div>On 25/02/15 08:27, aytac zeren wrote:<br>
    </div>
    </span><blockquote type="cite"><div><div class="h5">
      <div dir="ltr">
        <div>Hi John,</div>
        <div><br>
        </div>
        3.6.2 is a major release and introduces some new features in
        cluster wide concept. Additionally it is not stable yet. The
        best way of doing it would be establishing another 3.6.2
        cluster, accessing 3.4.0 cluster via nfs or native client, and
        copying content to 3.6.2 cluster gradually. While your volume
        size decreases on 3.4.0 cluster, you can unmount 3.4.0 members
        from cluster, upgrade them and add 3.6.2 trusted pool with
        brick. Please be careful while doing this operation, as number
        of nodes in your cluster should be reliable with your cluster
        design. (Stripped, Replicated, Distributed or a combination of
        them).
        <div><br>
        </div>
        <div>Notice: I don&#39;t take any responsibility on the actions you
          have undertaken with regards to my recommendations, as my
          recommendations are general and does not take your
          archtiectural design into consideration.</div>
        <div><br>
        </div>
        <div>BR</div>
        <div>Aytac</div>
      </div>
      <div class="gmail_extra"><br>
        <div class="gmail_quote">On Tue, Feb 24, 2015 at 11:19 PM, John
          Gardeniers <span dir="ltr">&lt;<a href="mailto:jgardeniers@objectmastery.com" target="_blank">jgardeniers@objectmastery.com</a>&gt;</span>
          wrote:<br>
          <blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi All,<br>
            <br>
            We have a gluster volume consisting of a single brick, using
            replica 2. Both nodes are currently running gluster 3.4.2
            and I wish to replace one of the nodes with a new server
            (rigel), which has gluster 3.6.2<br>
            <br>
            Following this link:<br>
            <br>
            <a href="https://access.redhat.com/documentation/en-US/Red_Hat_Storage/2.1/html/Administration_Guide/Replacing_an_Old_Brick_with_a_New_Brick_on_a_Replicate_or_Distribute-replicate_Volume.html" target="_blank">https://access.redhat.com/documentation/en-US/Red_Hat_Storage/2.1/html/Administration_Guide/Replacing_an_Old_Brick_with_a_New_Brick_on_a_Replicate_or_Distribute-replicate_Volume.html</a><br>
            <br>
            I tried to do a replace brick but got &quot;volume replace-brick:
            failed: Host rigel is not in &#39;Peer in Cluster&#39; state&quot;. Is
            this due to a version incompatibility or is it due to some
            other issue? A bit of googling reveals the error message in
            bug reports but I&#39;ve not yet found anything that applies to
            this specific case.<br>
            <br>
            Incidentally, the clients (RHEV bare metal hypervisors, so
            we have no upgrade option) are running 3.4.0. Will this be a
            problem if the nodes are on 3.6.2?<br>
            <br>
            regards,<br>
            John<br>
            <br>
            _______________________________________________<br>
            Gluster-users mailing list<br>
            <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
            <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
          </blockquote>
        </div>
        <br>
      </div>
      <br clear="all"></div></div><span class="">
______________________________________________________________________<br>
      This email has been scanned by the Symantec Email Security.cloud
      service.<br>
      For more information please visit <a href="http://www.symanteccloud.com" target="_blank">http://www.symanteccloud.com</a><br>
______________________________________________________________________<br>
    </span></blockquote>
    <br>
  </div>

</blockquote></div><br></div>