<div dir="ltr"><div class="gmail_extra"><div><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>On Mon, Aug 29, 2016 at 7:01 AM, Anuradha Talur <span dir="ltr">&lt;<a href="mailto:atalur@redhat.com" target="_blank">atalur@redhat.com</a>&gt;</span> wrote:<br></div></div></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
<br>
----- Original Message -----<br>
&gt; From: &quot;David Gossage&quot; &lt;<a href="mailto:dgossage@carouselchecks.com">dgossage@carouselchecks.com</a>&gt;<br>
&gt; To: &quot;Anuradha Talur&quot; &lt;<a href="mailto:atalur@redhat.com">atalur@redhat.com</a>&gt;<br>
&gt; Cc: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;, &quot;Krutika Dhananjay&quot; &lt;<a href="mailto:kdhananj@redhat.com">kdhananj@redhat.com</a>&gt;<br>
&gt; Sent: Monday, August 29, 2016 5:12:42 PM<br>
&gt; Subject: Re: [Gluster-users] 3.8.3 Shards Healing Glacier Slow<br>
&gt;<br>
&gt; On Mon, Aug 29, 2016 at 5:39 AM, Anuradha Talur &lt;<a href="mailto:atalur@redhat.com">atalur@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; Response inline.<br>
&gt; &gt;<br>
&gt; &gt; ----- Original Message -----<br>
&gt; &gt; &gt; From: &quot;Krutika Dhananjay&quot; &lt;<a href="mailto:kdhananj@redhat.com">kdhananj@redhat.com</a>&gt;<br>
&gt; &gt; &gt; To: &quot;David Gossage&quot; &lt;<a href="mailto:dgossage@carouselchecks.com">dgossage@carouselchecks.com</a>&gt;<br>
&gt; &gt; &gt; Cc: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;<br>
&gt; &gt; &gt; Sent: Monday, August 29, 2016 3:55:04 PM<br>
&gt; &gt; &gt; Subject: Re: [Gluster-users] 3.8.3 Shards Healing Glacier Slow<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Could you attach both client and brick logs? Meanwhile I will try these<br>
&gt; &gt; steps<br>
&gt; &gt; &gt; out on my machines and see if it is easily recreatable.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; -Krutika<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On Mon, Aug 29, 2016 at 2:31 PM, David Gossage &lt;<br>
&gt; &gt; <a href="mailto:dgossage@carouselchecks.com">dgossage@carouselchecks.com</a><br>
&gt; &gt; &gt; &gt; wrote:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Centos 7 Gluster 3.8.3<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Brick1: ccgl1.gl.local:/gluster1/<wbr>BRICK1/1<br>
&gt; &gt; &gt; Brick2: ccgl2.gl.local:/gluster1/<wbr>BRICK1/1<br>
&gt; &gt; &gt; Brick3: ccgl4.gl.local:/gluster1/<wbr>BRICK1/1<br>
&gt; &gt; &gt; Options Reconfigured:<br>
&gt; &gt; &gt; cluster.data-self-heal-<wbr>algorithm: full<br>
&gt; &gt; &gt; cluster.self-heal-daemon: on<br>
&gt; &gt; &gt; cluster.locking-scheme: granular<br>
&gt; &gt; &gt; features.shard-block-size: 64MB<br>
&gt; &gt; &gt; features.shard: on<br>
&gt; &gt; &gt; performance.readdir-ahead: on<br>
&gt; &gt; &gt; storage.owner-uid: 36<br>
&gt; &gt; &gt; storage.owner-gid: 36<br>
&gt; &gt; &gt; performance.quick-read: off<br>
&gt; &gt; &gt; performance.read-ahead: off<br>
&gt; &gt; &gt; performance.io-cache: off<br>
&gt; &gt; &gt; performance.stat-prefetch: on<br>
&gt; &gt; &gt; cluster.eager-lock: enable<br>
&gt; &gt; &gt; network.remote-dio: enable<br>
&gt; &gt; &gt; cluster.quorum-type: auto<br>
&gt; &gt; &gt; cluster.server-quorum-type: server<br>
&gt; &gt; &gt; server.allow-insecure: on<br>
&gt; &gt; &gt; cluster.self-heal-window-size: 1024<br>
&gt; &gt; &gt; cluster.background-self-heal-<wbr>count: 16<br>
&gt; &gt; &gt; performance.strict-write-<wbr>ordering: off<br>
&gt; &gt; &gt; nfs.disable: on<br>
&gt; &gt; &gt; nfs.addr-namelookup: off<br>
&gt; &gt; &gt; nfs.enable-ino32: off<br>
&gt; &gt; &gt; cluster.granular-entry-heal: on<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Friday did rolling upgrade from 3.8.3-&gt;3.8.3 no issues.<br>
&gt; &gt; &gt; Following steps detailed in previous recommendations began proces of<br>
&gt; &gt; &gt; replacing and healngbricks one node at a time.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; 1) kill pid of brick<br>
&gt; &gt; &gt; 2) reconfigure brick from raid6 to raid10<br>
&gt; &gt; &gt; 3) recreate directory of brick<br>
&gt; &gt; &gt; 4) gluster volume start &lt;&gt; force<br>
&gt; &gt; &gt; 5) gluster volume heal &lt;&gt; full<br>
&gt; &gt; Hi,<br>
&gt; &gt;<br>
&gt; &gt; I&#39;d suggest that full heal is not used. There are a few bugs in full heal.<br>
&gt; &gt; Better safe than sorry ;)<br>
&gt; &gt; Instead I&#39;d suggest the following steps:<br>
&gt; &gt;<br>
&gt; &gt; Currently I brought the node down by systemctl stop glusterd as I was<br>
&gt; getting sporadic io issues and a few VM&#39;s paused so hoping that will help.<br>
&gt; I may wait to do this till around 4PM when most work is done in case it<br>
&gt; shoots load up.<br>
&gt;<br>
&gt;<br>
&gt; &gt; 1) kill pid of brick<br>
&gt; &gt; 2) to configuring of brick that you need<br>
&gt; &gt; 3) recreate brick dir<br>
&gt; &gt; 4) while the brick is still down, from the mount point:<br>
&gt; &gt;    a) create a dummy non existent dir under / of mount.<br>
&gt; &gt;<br>
&gt;<br>
&gt; so if noee 2 is down brick, pick node for example 3 and make a test dir<br>
&gt; under its brick directory that doesnt exist on 2 or should I be dong this<br>
&gt; over a gluster mount?<br>
You should be doing this over gluster mount.<br>
&gt;<br>
&gt; &gt;    b) set a non existent extended attribute on / of mount.<br>
&gt; &gt;<br>
&gt;<br>
&gt; Could you give me an example of an attribute to set?   I&#39;ve read a tad on<br>
&gt; this, and looked up attributes but haven&#39;t set any yet myself.<br>
&gt;<br>
Sure. setfattr -n &quot;user.some-name&quot; -v &quot;some-value&quot; &lt;path-to-mount&gt;<br>
&gt; Doing these steps will ensure that heal happens only from updated brick to<br>
&gt; &gt; down brick.<br>
&gt; &gt; 5) gluster v start &lt;&gt; force<br>
&gt; &gt; 6) gluster v heal &lt;&gt;<br>
&gt; &gt;<br>
&gt;<br>
&gt; Will it matter if somewhere in gluster the full heal command was run other<br>
&gt; day?  Not sure if it eventually stops or times out.<br>
&gt;<br>
full heal will stop once the crawl is done. So if you want to trigger heal again,<br>
run gluster v heal &lt;&gt;. Actually even brick up or volume start force should<br>
trigger the heal.<br>
</blockquote><div><br></div><div>Did this on test bed today.  its one server with 3 bricks on same machine so take that for what its worth.  also it still runs 3.8.2.  Maybe ill update and re-run test.</div><div><br></div><div>killed brick</div><div>deleted brick dir</div><div>recreated brick dir</div><div>created fake dir on gluster mount</div><div>set suggested fake attribute on it</div><div>ran volume start &lt;&gt; force</div><div><br></div><div>looked at files it said needed healing and it was just 8 shards that were modified for few minutes I ran through steps</div><div><br></div><div>gave it few minutes and it stayed same</div><div>ran gluster volume &lt;&gt; heal</div><div><br></div><div>it healed all the directories and files you can see over mount including fakedir.  </div><div><br></div><div>same issue for shards though.  it adds more shards to heal at glacier pace.  slight jump in speed if I stat every file and dir in VM running but not all shards.</div><div><br></div><div>It started with 8 shards to heal and is now only at 33 out of 800 and probably wont finish adding for few days at rate it goes.</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">&gt; &gt;<br>
&gt; &gt; &gt; 1st node worked as expected took 12 hours to heal 1TB data. Load was<br>
&gt; &gt; little<br>
&gt; &gt; &gt; heavy but nothing shocking.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; About an hour after node 1 finished I began same process on node2. Heal<br>
&gt; &gt; &gt; proces kicked in as before and the files in directories visible from<br>
&gt; &gt; mount<br>
&gt; &gt; &gt; and .glusterfs healed in short time. Then it began crawl of .shard adding<br>
&gt; &gt; &gt; those files to heal count at which point the entire proces ground to a<br>
&gt; &gt; halt<br>
&gt; &gt; &gt; basically. After 48 hours out of 19k shards it has added 5900 to heal<br>
&gt; &gt; list.<br>
&gt; &gt; &gt; Load on all 3 machnes is negligible. It was suggested to change this<br>
&gt; &gt; value<br>
&gt; &gt; &gt; to full cluster.data-self-heal-<wbr>algorithm and restart volume which I<br>
&gt; &gt; did. No<br>
&gt; &gt; &gt; efffect. Tried relaunching heal no effect, despite any node picked. I<br>
&gt; &gt; &gt; started each VM and performed a stat of all files from within it, or a<br>
&gt; &gt; full<br>
&gt; &gt; &gt; virus scan and that seemed to cause short small spikes in shards added,<br>
&gt; &gt; but<br>
&gt; &gt; &gt; not by much. Logs are showing no real messages indicating anything is<br>
&gt; &gt; going<br>
&gt; &gt; &gt; on. I get hits to brick log on occasion of null lookups making me think<br>
&gt; &gt; its<br>
&gt; &gt; &gt; not really crawling shards directory but waiting for a shard lookup to<br>
&gt; &gt; add<br>
&gt; &gt; &gt; it. I&#39;ll get following in brick log but not constant and sometime<br>
&gt; &gt; multiple<br>
&gt; &gt; &gt; for same shard.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [2016-08-29 08:31:57.478125] W [MSGID: 115009]<br>
&gt; &gt; &gt; [server-resolve.c:569:server_<wbr>resolve] 0-GLUSTER1-server: no resolution<br>
&gt; &gt; type<br>
&gt; &gt; &gt; for (null) (LOOKUP)<br>
&gt; &gt; &gt; [2016-08-29 08:31:57.478170] E [MSGID: 115050]<br>
&gt; &gt; &gt; [server-rpc-fops.c:156:server_<wbr>lookup_cbk] 0-GLUSTER1-server: 12591783:<br>
&gt; &gt; &gt; LOOKUP (null) (00000000-0000-0000-00<br>
&gt; &gt; &gt; 00-000000000000/241a55ed-f0d5-<wbr>4dbc-a6ce-ab784a0ba6ff.221) ==&gt; (Invalid<br>
&gt; &gt; &gt; argument) [Invalid argument]<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; This one repeated about 30 times in row then nothing for 10 minutes then<br>
&gt; &gt; one<br>
&gt; &gt; &gt; hit for one different shard by itself.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; How can I determine if Heal is actually running? How can I kill it or<br>
&gt; &gt; force<br>
&gt; &gt; &gt; restart? Does node I start it from determine which directory gets<br>
&gt; &gt; crawled to<br>
&gt; &gt; &gt; determine heals?<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; David Gossage<br>
&gt; &gt; &gt; Carousel Checks Inc. | System Administrator<br>
&gt; &gt; &gt; Office 708.613.2284<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; ______________________________<wbr>_________________<br>
&gt; &gt; &gt; Gluster-users mailing list<br>
&gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; ______________________________<wbr>_________________<br>
&gt; &gt; &gt; Gluster-users mailing list<br>
&gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; Thanks,<br>
&gt; &gt; Anuradha.<br>
&gt; &gt;<br>
&gt;<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Thanks,<br>
Anuradha.<br>
</font></span></blockquote></div><br></div></div>