<div>Hello,<br></div><div><br></div><div>I just upgraded from GlusterFS 3.7.17 to 3.8.6 and somehow messed up my volume by rebooting without shutting things down properly I suppose. Now I have some files which need to be healed (17 files on node 1 to be precise and 0 on node 2). I have a replica 2 by the way.<br></div><div><br></div><div>So in order to correct that I just ran the following command:<br></div><div><br></div><div>#  gluster volume heal myvolume <br></div><div>Launching heal operation to perform index self heal on volume myvolume has been successful <br></div><div>Use heal info commands to check status<br></div><div><br></div><div>But still the 17 files are there and nothing happened.<br></div><div><br></div><div>Strangely enough I see the following suspect warning in the GlusterFS self-heal daemon log file (glustershd.log) on both nodes:<br></div><div><br></div><div>[2016-12-11 13:03:13.262962] W [MSGID: 101088] [common-utils.c:3894:gf_backtrace_save] 0-myvolume-replicate-0: Failed to save the backtrace.<br></div><div><br></div><div>Any ideas what could be going wrong here?<br><br>Regards,</div><div>M.<br></div><div class="protonmail_signature_block-empty"><br></div><div class="protonmail_signature_block protonmail_signature_block-empty"><div class="protonmail_signature_block-user protonmail_signature_block-empty"><div><br></div></div><div class="protonmail_signature_block-proton protonmail_signature_block-empty"><br></div></div><div class="protonmail_signature_block-empty"><br></div>