<div dir="ltr"><div>Hello,</div><div><br></div><div>I created a post a few days ago named &quot;Turning Off Self Heal Options Don&#39;t Appear Work?&quot; which can be found at the following link:  <a href="http://www.gluster.org/pipermail/gluster-users/2015-January/020114.html">http://www.gluster.org/pipermail/gluster-users/2015-January/020114.html</a></div><div><br></div><div>I never got a response so I decided to set up a test in a lab environment.  I am able to reproduce the same thing so I&#39;m hoping someone can help me.</div><div><br></div><div>I have discovered over time that if a single node in a 3-node replicated cluster with many small files is off for any length of time, when it comes back on-line, it does a great deal of self-healing that can cause the glusterfs and glusterfsd processes to spike on the machines to a degree that makes them unusable.  I only have one volume, with a client mount on each server where it hosts many websites running PHP.  All is fine until the healing process goes into overdrive.</div><div><br></div><div>So, I attempted to turn off self-healing by setting the following three settings:</div><div><div>gluster volume set gv0 cluster.data-self-heal off</div><div>gluster volume set gv0 cluster.entry-self-heal off</div><div>gluster volume set gv0 cluster.metadata-self-heal off</div></div><div><br></div><div>Note that I would rather not set gv0 cluster.self-heal-daemon off as then I can&#39;t see what needs healing such that I can do it at a later time.  Those settings appear to have no affect at all.<br></div><div><br></div><div>Here is how I reproduced this in my lab:</div><div><br></div><div>Output from &quot;gluster volume info gv0&quot;:<br></div><div><div>Volume Name: gv0<br></div><div>Type: Replicate</div><div>Volume ID: a55f8619-0789-4a1c-9cda-a903bc908fd1</div><div>Status: Started</div><div>Number of Bricks: 1 x 3 = 3</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: 192.168.1.116:/export/brick1</div><div>Brick2: 192.168.1.140:/export/brick1</div><div>Brick3: 192.168.1.123:/export/brick1</div><div>Options Reconfigured:</div><div>cluster.metadata-self-heal: off</div><div>cluster.entry-self-heal: off</div><div>cluster.data-self-heal: off</div></div><div><br></div><div>This was done using the latest version of gluster as of this writing, v3.6.1 installed on CentOS 6.6 using the rpms available from the gluster web site.</div><div><br></div><div>Here is how I tested:</div><div>- With all 3 nodes up, I put 4 simple text files on the cluster</div><div>- I then turned one node off</div><div>- Next I made a change to 2 of the text files</div><div>- Then I brought the previously turned off node back up</div><div><br></div><div>Upon doing so, I see far more than 2 of the following message in the glusterhd.log:</div><div><br></div><div>[2015-01-15 23:19:30.471384] I [afr-self-heal-entry.c:545:afr_selfheal_entry_do] 0-gv0-replicate-0: performing entry selfheal on 00000000-0000-0000-0000-000000000001</div><div>[2015-01-15 23:19:30.494714] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-gv0-replicate-0: Completed entry selfheal on 00000000-0000-0000-0000-000000000001. source=0 sinks=</div><div><br></div><div>Questions:</div><div>- So is this a bug?  </div><div>- Why am I seeing &quot;entry selfheal&quot; messaages when this feature is supposed to be turned off?</div><div>- Also, why am I seeing far more selfheal messages than 2 when I only changed 2 files while the single node was down?</div><div>- Finally, how do I really turn off these selfheals that are taking place without completely turning off the cluster.self-heal-daemon for reasons mentioned above?</div><div><br></div><div>Thank you for any insight you may be able to provide on this.</div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr">Kyle </div></div>
</div>