<div dir="ltr">Hi Vishwanath,<br><br><div><div class="gmail_quote"><div dir="ltr">Op do 2 jul. 2015 om 21:51 schreef M S Vishwanath Bhat &lt;<a href="mailto:msvbhat@gmail.com">msvbhat@gmail.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>AFAIK there are two ways you can trigger the self-heal<br><br></div><div>1. Use the gluster CLI &quot;heal&quot; command. I&#39;m not sure why it didn&#39;t work for you and needs to be investigated.<br></div></div></div></div></blockquote><div><br></div><div>Do you think I should file a bug for this? I can reliably reproduce using the steps in my original e-mail. (This is Gluster 3.7.2, by the way.)<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div></div><div>2. Running &#39;stat&#39; on files on gluster volume mountpoint, So if you run stat on the entire mountpoint, the files should be properly synced across all the replica bricks.<br></div></div></div></div></blockquote><div><br></div><div>This indeed seems to do the same as the `du`: when run as root on the server running the complete brick, the file appears on the incomplete brick as well. Initially as an empty file, but after a few seconds the complete file exists. When the `stat` is not ran as root, this doesn&#39;t happen, which I still think is bizarre.<br><br></div><div>Thanks,<br></div><div>Sjors<br></div></div></div></div>