<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 13, 2016 at 1:39 PM, Xavier Hernandez <span dir="ltr">&lt;<a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Sanoj,<span class=""><br>
<br>
On 13/09/16 09:41, Sanoj Unnikrishnan wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Xavi,<br>
<br>
That explains a lot,<br>
I see a couple of other scenario which can lead to similar inconsistency.<br>
1) simultaneous node/brick crash of 3 bricks.<br>
</blockquote>
<br></span>
Although this is a real problem, the 3 bricks should crash exactly at the same moment just after having successfully locked the inode being modified and queried some information, but before sending the write fop nor any down notification. The probability to have this suffer this problem is really small.<span class=""><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
2) if the disk space of underlying filesystem on which brick is hosted exceeds for 3 bricks.<br>
</blockquote>
<br></span>
Yes. This is the same cause that makes quota fail.<span class=""><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
I don&#39;t think we can address all the scenario unless we have a log/journal mechanism like raid-5.<br>
</blockquote>
<br></span>
I completely agree. I don&#39;t see any solution valid for all cases. BTW RAID-5 *is not* a solution. It doesn&#39;t have any log/journal. Maybe something based on fdl xlator would work.<span class=""><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Should we look at a quota specific fix or let it get fixed whenever we introduce a log?<br>
</blockquote>
<br></span>
Not sure how to fix this in a way that doesn&#39;t seem too hacky.<br>
<br>
One possibility is to request permission to write some data before actually writing it (specifying offset and size). And then be sure that the write will succeed if all (or at least the minimum number of data bricks) has acknowledged the previous write permission request.<br>
<br>
Another approach would be to queue writes in a server side xlator until a commit message is received, but sending back an answer saying if there&#39;s enough space to do the write (this is, in some way, a very primitive log/journal approach).<br>
<br>
However both approaches will have a big performance impact if they cannot be executed in background.<br>
<br>
Maybe it would be worth investing in fdl instead of trying to find a custom solution to this.<br></blockquote><div><br></div><div>There are some things we shall do irrespective of this change:<br></div><div>1) When the file is in a state that all 512 bytes of the fragment represent the data, then we shouldn&#39;t increase the file size at all which discards the write without any problems, i.e. this case is recoverable.<br></div><div>2) when we append data to a partially filled chunk and it fails on 3/6 bricks, the rest could be recovered by adjusting the file size to the size represented by (previous block - 1)*k, we should probably provide an option to do so?<br></div><div>3) Proivde some utility/setfattr to perform recovery based on data rather than versions. i.e. it needs to detect and tell which part of data is not recoverable and which can be. Based on that, the user should be able to recover.<br><br></div><div>What do you guys think?<br></div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Xavi<div class="HOEnZb"><div class="h5"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Thanks and Regards,<br>
Sanoj<br>
<br>
----- Original Message -----<br>
From: &quot;Xavier Hernandez&quot; &lt;<a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a>&gt;<br>
To: &quot;Raghavendra Gowdappa&quot; &lt;<a href="mailto:rgowdapp@redhat.com" target="_blank">rgowdapp@redhat.com</a>&gt;, &quot;Sanoj Unnikrishnan&quot; &lt;<a href="mailto:sunnikri@redhat.com" target="_blank">sunnikri@redhat.com</a>&gt;<br>
Cc: &quot;Pranith Kumar Karampuri&quot; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;, &quot;Ashish Pandey&quot; &lt;<a href="mailto:aspandey@redhat.com" target="_blank">aspandey@redhat.com</a>&gt;, &quot;Gluster Devel&quot; &lt;<a href="mailto:gluster-devel@gluster.org" target="_blank">gluster-devel@gluster.org</a>&gt;<br>
Sent: Tuesday, September 13, 2016 11:50:27 AM<br>
Subject: Re: Need help with <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1224180" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=1224180</a><br>
<br>
Hi Sanoj,<br>
<br>
I&#39;m unable to see bug 1224180. Access is restricted.<br>
<br>
Not sure what is the problem exactly, but I see that quota is involved.<br>
Currently disperse doesn&#39;t play well with quota when the limit is near.<br>
<br>
The reason is that not all bricks fail at the same time with EDQUOT due<br>
to small differences is computed space. This causes a valid write to<br>
succeed on some bricks and fail on others. If it fails simultaneously on<br>
more than redundancy bricks but less that the number of data bricks,<br>
there&#39;s no way to rollback the changes on the bricks that have<br>
succeeded, so the operation is inconsistent and an I/O error is returned.<br>
<br>
For example, on a 6:2 configuration (4 data bricks and 2 redundancy), if<br>
3 bricks succeed and 3 fail, there are not enough bricks with the<br>
updated version, but there aren&#39;t enough bricks with the old version either.<br>
<br>
If you force 2 bricks to be down, the problem can appear more frequently<br>
as only a single failure causes this problem.<br>
<br>
Xavi<br>
<br>
On 13/09/16 06:09, Raghavendra Gowdappa wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
+gluster-devel<br>
<br>
----- Original Message -----<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
From: &quot;Sanoj Unnikrishnan&quot; &lt;<a href="mailto:sunnikri@redhat.com" target="_blank">sunnikri@redhat.com</a>&gt;<br>
To: &quot;Pranith Kumar Karampuri&quot; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;, &quot;Ashish Pandey&quot; &lt;<a href="mailto:aspandey@redhat.com" target="_blank">aspandey@redhat.com</a>&gt;, <a href="mailto:xhernandez@datalab.es" target="_blank">xhernandez@datalab.es</a>,<br>
&quot;Raghavendra Gowdappa&quot; &lt;<a href="mailto:rgowdapp@redhat.com" target="_blank">rgowdapp@redhat.com</a>&gt;<br>
Sent: Monday, September 12, 2016 7:06:59 PM<br>
Subject: Need help with <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1224180" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=1224180</a><br>
<br>
Hello Xavi/Pranith,<br>
<br>
I have been able to reproduce the BZ with the following steps:<br>
<br>
gluster volume create v_disp disperse 6 redundancy 2 $tm1:/export/sdb/br1<br>
$tm2:/export/sdb/b2 $tm3:/export/sdb/br3  $tm1:/export/sdb/b4<br>
$tm2:/export/sdb/b5 $tm3:/export/sdb/b6 force<br>
#(Used only 3 nodes, should not matter here)<br>
gluster volume start v_disp<br>
mount -t glusterfs $tm1:v_disp /gluster_vols/v_disp<br>
mkdir /gluster_vols/v_disp/dir1<br>
dd if=/dev/zero of=/gluster_vols/v_disp/dir1/x bs=10k count=90000 &amp;<br>
gluster v quota v_disp enable<br>
gluster v quota v_disp limit-usage /dir1 200MB<br>
gluster v quota v_disp soft-timeout 0<br>
gluster v quota v_disp hard-timeout 0<br>
#optional remove 2 bricks (reproduces more often with this)<br>
#pgrep glusterfsd | xargs kill -9<br>
<br>
IO error on stdout when Quota exceeds, followed by Disk Quota exceeded.<br>
<br>
Also note the issue is seen when A flush happens simultaneous with quota<br>
limit hit, Hence Its not seen only on some runs.<br>
<br>
The following are the error in logs.<br>
[2016-09-12 10:40:02.431568] E [MSGID: 122034]<br>
[ec-common.c:488:ec_child_sele<wbr>ct] 0-v_disp-disperse-0: Insufficient<br>
available childs for this request (have 0, need 4)<br>
[2016-09-12 10:40:02.431627] E [MSGID: 122037]<br>
[ec-common.c:1830:ec_update_si<wbr>ze_version_done] 0-Disperse: sku-debug:<br>
pre-version=0/0, size=0post-version=1865/1865, size=209571840<br>
[2016-09-12 10:40:02.431637] E [MSGID: 122037]<br>
[ec-common.c:1835:ec_update_si<wbr>ze_version_done] 0-v_disp-disperse-0: Failed<br>
to update version and size [Input/output error]<br>
[2016-09-12 10:40:02.431664] E [MSGID: 122034]<br>
[ec-common.c:417:ec_child_sele<wbr>ct] 0-v_disp-disperse-0: sku-debug: mask: 36,<br>
ec-&gt;xl_up 36, ec-&gt;node_mask 3f, parent-&gt;mask:36, fop-&gt;parent-&gt;healing:0,<br>
id:29<br>
<br>
[2016-09-12 10:40:02.431673] E [MSGID: 122034]<br>
[ec-common.c:480:ec_child_sele<wbr>ct] 0-v_disp-disperse-0: sku-debug: mask: 36,<br>
remaining: 36, healing: 0, ec-&gt;xl_up 36, ec-&gt;node_mask 3f, parent-&gt;mask:36,<br>
num:4, minimum: 1, id:29<br>
<br>
...<br>
[2016-09-12 10:40:02.487302] W [fuse-bridge.c:2311:fuse_write<wbr>v_cbk]<br>
0-glusterfs-fuse: 41159: WRITE =&gt; -1<br>
gfid=ee0b4aa1-1f44-486a-883c-a<wbr>cddc13ee318 fd=0x7f1d9c003edc (Input/output<br>
error)<br>
[2016-09-12 10:40:02.500151] W [MSGID: 122006]<br>
[ec-combine.c:206:ec_iatt_comb<wbr>ine] 0-v_disp-disperse-0: Failed to combine<br>
iatt (inode: 9816911356190712600-9816911356<wbr>190712600, links: 1-1, uid: 0-0,<br>
gid: 0-0, rdev: 0-0, size: 52423680-52413440, mode: 100644-100644)<br>
[2016-09-12 10:40:02.500188] N [MSGID: 122029]<br>
[ec-combine.c:93:ec_combine_wr<wbr>ite] 0-v_disp-disperse-0: Mismatching iatt in<br>
answers of &#39;WRITE&#39;<br>
[2016-09-12 10:40:02.504551] W [MSGID: 122006]<br>
[ec-combine.c:206:ec_iatt_comb<wbr>ine] 0-v_disp-disperse-0: Failed to combine<br>
iatt (inode: 9816911356190712600-9816911356<wbr>190712600, links: 1-1, uid: 0-0,<br>
gid: 0-0, rdev: 0-0, size: 52423680-52413440, mode: 100644-100644)<br>
....<br>
....<br>
<br>
[2016-09-12 10:40:02.571272] N [MSGID: 122029]<br>
[ec-combine.c:93:ec_combine_wr<wbr>ite] 0-v_disp-disperse-0: Mismatching iatt in<br>
answers of &#39;WRITE&#39;<br>
[2016-09-12 10:40:02.571510] W [MSGID: 122006]<br>
[ec-combine.c:206:ec_iatt_comb<wbr>ine] 0-v_disp-disperse-0: Failed to combine<br>
iatt (inode: 9816911356190712600-9816911356<wbr>190712600, links: 1-1, uid: 0-0,<br>
gid: 0-0, rdev: 0-0, size: 52423680-52413440, mode: 100644-100644)<br>
[2016-09-12 10:40:02.571544] N [MSGID: 122029]<br>
[ec-combine.c:93:ec_combine_wr<wbr>ite] 0-v_disp-disperse-0: Mismatching iatt in<br>
answers of &#39;WRITE&#39;<br>
[2016-09-12 10:40:02.571772] W [fuse-bridge.c:1290:fuse_err_c<wbr>bk]<br>
0-glusterfs-fuse: 41160: FLUSH() ERR =&gt; -1 (Input/output error)<br>
<br>
Also, for some fops before the write I noticed the fop-&gt;mask field as 0, Its<br>
not clear why this happens ??<br>
<br>
[2016-09-12 10:40:02.431561] E [MSGID: 122034]<br>
[ec-common.c:480:ec_child_sele<wbr>ct] 0-v_disp-disperse-0: sku-debug: mask: 0,<br>
remaining: 0, healing: 0, ec-&gt;xl_up 36, ec-&gt;node_mask 3f, parent-&gt;mask:36,<br>
num:0, minimum: 4, fop-&gt;id:34<br>
[2016-09-12 10:40:02.431568] E [MSGID: 122034]<br>
[ec-common.c:488:ec_child_sele<wbr>ct] 0-v_disp-disperse-0: Insufficient<br>
available childs for this request (have 0, need 4)<br>
[2016-09-12 10:40:02.431637] E [MSGID: 122037]<br>
[ec-common.c:1835:ec_update_si<wbr>ze_version_done] 0-v_disp-disperse-0: Failed<br>
to update version and size [Input/output error]<br>
<br>
Is the zero value of fop-&gt;mask related to mismatch in iatt ?<br>
Any scenario of race between write/flush fop?<br>
please suggest how to proceed.<br>
<br>
Thanks and Regards,<br>
Sanoj<br>
<br>
</blockquote></blockquote></blockquote>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div></div>