<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">On 03/23/2016 02:01 PM, Daniel Kanchev
      wrote:<br>
    </div>
    <blockquote
cite="mid:CAH7T6zbMMEdKHg1MKPjF5nr5JY4VzG7ZLkWe=k8ga-zELcqKwg@mail.gmail.com"
      type="cite">
      <div dir="ltr">
        <div>
          <div>Hi, everyone.<br>
            <br>
          </div>
          <div>We are using GlusterFS configured in the following way:<br>
            <br>
            [root@web1 ~]# gluster volume info<br>
             <br>
            Volume Name: share<br>
            Type: Replicate<br>
            Volume ID: hidden data on purpose<br>
            Status: Started<br>
            Number of Bricks: 1 x 3 = 3<br>
            Transport-type: tcp<br>
            Bricks:<br>
            Brick1: c10839:/gluster<br>
            Brick2: c10840:/gluster<br>
            Brick3: web3:/gluster<br>
            Options Reconfigured:<br>
            cluster.consistent-metadata: on<br>
            performance.readdir-ahead: on<br>
            nfs.disable: true<br>
            cluster.self-heal-daemon: on<br>
            cluster.metadata-self-heal: on<br>
            auth.allow: hidden data on purpose<br>
            performance.cache-size: 256MB<br>
            performance.io-thread-count: 8<br>
            performance.cache-refresh-timeout: 3<br>
          </div>
          <div><br>
          </div>
          <div>Here is the output of the status command for the volume
            and the peers:<br>
            <br>
            [root@web1 ~]# gluster volume status<br>
            Status of volume: share<br>
            Gluster process                             TCP Port  RDMA
            Port  Online  Pid<br>
------------------------------------------------------------------------------<br>
            Brick c10839:/gluster                       49152    
            0          Y       540  <br>
            Brick c10840:/gluster                       49152    
            0          Y       533  <br>
            Brick web3:/gluster                         49152    
            0          Y       782  <br>
            Self-heal Daemon on localhost               N/A      
            N/A        Y       602  <br>
            Self-heal Daemon on web3                    N/A      
            N/A        Y       790  <br>
            Self-heal Daemon on web4                    N/A      
            N/A        Y       636  <br>
            Self-heal Daemon on web2                    N/A      
            N/A        Y       523  <br>
             <br>
            Task Status of Volume share<br>
------------------------------------------------------------------------------<br>
            There are no active volume tasks<br>
            <br>
            [root@web1 ~]# gluster peer status<br>
            Number of Peers: 3<br>
            <br>
            Hostname: web3<br>
            Uuid: b138b4d5-8623-4224-825e-1dfdc3770743<br>
            State: Peer in Cluster (Connected)<br>
            <br>
            Hostname: web2<br>
            Uuid: b3926959-3ae8-4826-933a-4bf3b3bd55aa<br>
            State: Peer in Cluster (Connected)<br>
            Other names:<br>
            <a moz-do-not-send="true" href="http://c10840.sgvps.net">c10840.sgvps.net</a><br>
            <br>
            Hostname: web4<br>
            Uuid: f7553cba-c105-4d2c-8b89-e5e78a269847<br>
            State: Peer in Cluster (Connected)<br>
            <br>
          </div>
          <div>All in all, we have three servers that are servers and
            actually store the data and one server which is just a peer
            and is connected to one of the other servers.<br>
            <b><br>
            </b></div>
          <div><b>The Problem</b>: If any of the 4 servers goes down
            then the cluster continues to work as expected. However,
            once this server comes back up then the whole cluster stalls
            for a certain period of time (30-120 seconds). During this
            period no I/O operations could be executed and the apps that
            use the data on the GlusterFS simply go down because they
            cannot read/write any data. <br>
            <br>
          </div>
          <div>We suspect that the issue is related to the self-heal
            daemons but we are not sure. Could you please advice how to
            debug this issue and what could be causing the whole cluster
            to go down. If it is the self-heal as we suspect do you
            think it is ok to disable it. If some of the settings are
            causing this problem could you please advice how to
            configure the cluster to avoid this problem.<br>
            <br>
          </div>
        </div>
      </div>
    </blockquote>
    <br>
    What version of gluster is this?<br>
    Do you observe the problem even when only the 4th 'non data' server
    comes up? In that case it is unlikely that self-heal is the issue.<br>
    Are the clients using FUSE or NFS mounts?<br>
    -Ravi<br>
    <blockquote
cite="mid:CAH7T6zbMMEdKHg1MKPjF5nr5JY4VzG7ZLkWe=k8ga-zELcqKwg@mail.gmail.com"
      type="cite">
      <div dir="ltr">
        <div>
          <div>If any info from the logs is requested please let us know
            what do you need.<br>
          </div>
          <div><br>
          </div>
          <div>Thanks in advance!<br>
          </div>
          <div><br>
          </div>
          Regards,<br>
        </div>
        Daniel<br>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
    <br>
  </body>
</html>