<div dir="ltr">I don&#39;t think these will help. We need to trigger parallel heals, I gave the command as a reply to one of your earlier threads. Sorry again for the delay :-(.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Aug 9, 2016 at 3:53 PM, Serkan Çoban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Does increasing any of below values helps ec heal speed?<br>
<br>
performance.io-thread-count 16<br>
performance.high-prio-threads 16<br>
performance.normal-prio-<wbr>threads 16<br>
performance.low-prio-threads 16<br>
performance.least-prio-threads 1<br>
client.event-threads 8<br>
server.event-threads 8<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Mon, Aug 8, 2016 at 2:48 PM, Ashish Pandey &lt;<a href="mailto:aspandey@redhat.com">aspandey@redhat.com</a>&gt; wrote:<br>
&gt; Serkan,<br>
&gt;<br>
&gt; Heal for 2 different files could be parallel but not for a single file and<br>
&gt; different chunks.<br>
&gt; I think you are referring your previous mail in which you had to remove one<br>
&gt; complete disk.<br>
&gt;<br>
&gt; In this case heal starts automatically but it scans through each and every<br>
&gt; file/dir<br>
&gt; to decide if it needs heal or not. No doubt it is more time taking process<br>
&gt; as compared to index heal.<br>
&gt; If the data is 900GB then it might take lot of time.<br>
&gt;<br>
&gt; What configuration to choose depends a lot on your storage requirement,<br>
&gt; hardware capability and<br>
&gt; probability of failure of disk and network.<br>
&gt;<br>
&gt; For example : A small configuration  like 4+2 could help you in this<br>
&gt; scenario. You can have distributed disp volume of 4+2 config.<br>
&gt; In this case each sub vol have a comparatively less data. If a brick fails<br>
&gt; in that sub vol, it will have to heal only that much data and that too from<br>
&gt; reading 4 bricks only.<br>
&gt;<br>
&gt; dist-disp-vol<br>
&gt;<br>
&gt; subvol-1            subvol-2                subvol-3<br>
&gt; 4+2                        4+2                    4+2<br>
&gt; 4GB                    4GB                    4GB<br>
&gt; ^^^<br>
&gt; If a brick in this subvol-1 fails, it will be local to this subvol only and<br>
&gt; will require only 4GB of data to be healed which will require reading from 4<br>
&gt; disk only.<br>
&gt;<br>
&gt; I am keeping Pranith in CC to take his input too.<br>
&gt;<br>
&gt; Ashish<br>
&gt;<br>
&gt;<br>
&gt; ______________________________<wbr>__<br>
&gt; From: &quot;Serkan Çoban&quot; &lt;<a href="mailto:cobanserkan@gmail.com">cobanserkan@gmail.com</a>&gt;<br>
&gt; To: &quot;Ashish Pandey&quot; &lt;<a href="mailto:aspandey@redhat.com">aspandey@redhat.com</a>&gt;<br>
&gt; Cc: &quot;Gluster Users&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt; Sent: Monday, August 8, 2016 4:47:02 PM<br>
&gt; Subject: Re: [Gluster-users] ec heal questions<br>
&gt;<br>
&gt;<br>
&gt; Is reading the good copies to construct the bad chunk is a parallel or<br>
&gt; sequential operation?<br>
&gt; Should I revert my 16+4 ec cluster to 8+2 because it takes nearly 7<br>
&gt; days to heal just one broken 8TB disk which has only 800GB of data?<br>
&gt;<br>
&gt; On Mon, Aug 8, 2016 at 1:56 PM, Ashish Pandey &lt;<a href="mailto:aspandey@redhat.com">aspandey@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; Considering all the other factor same for both the configuration, yes<br>
&gt;&gt; small<br>
&gt;&gt; configuration<br>
&gt;&gt; would take less time. To read good copies, it will take less time.<br>
&gt;&gt;<br>
&gt;&gt; I think, multi threaded shd is the only enhancement in near future.<br>
&gt;&gt;<br>
&gt;&gt; Ashish<br>
&gt;&gt;<br>
&gt;&gt; ______________________________<wbr>__<br>
&gt;&gt; From: &quot;Serkan Çoban&quot; &lt;<a href="mailto:cobanserkan@gmail.com">cobanserkan@gmail.com</a>&gt;<br>
&gt;&gt; To: &quot;Gluster Users&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt;&gt; Sent: Monday, August 8, 2016 4:02:22 PM<br>
&gt;&gt; Subject: [Gluster-users] ec heal questions<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; Assume we have 8+2 and 16+4 ec configurations and we just replaced a<br>
&gt;&gt; broken disk in each configuration  which has 100GB of data. In which<br>
&gt;&gt; case heal completes faster? Does heal speed has anything related with<br>
&gt;&gt; ec configuration?<br>
&gt;&gt;<br>
&gt;&gt; Assume we are in 16+4 ec configuration. When heal starts it reads 16<br>
&gt;&gt; chunks from other bricks recompute our chunks and writes it to just<br>
&gt;&gt; replaced disk. Am I correct?<br>
&gt;&gt;<br>
&gt;&gt; If above assumption is true then small ec configurations heals faster<br>
&gt;&gt; right?<br>
&gt;&gt;<br>
&gt;&gt; Is there any improvements in 3.7.14+ that makes ec heal faster?(Other<br>
&gt;&gt; than multi-thread shd for ec)<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt; Serkan<br>
&gt;&gt; ______________________________<wbr>_________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt;<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div>