<div dir="ltr">Though remove-brick is not an usual act we would do for Gluster volume, this has consistently failed ending in corrupted gluster volume after Sharding has been turned on. For bug1387878, it&#39;s very similar to what i had encountered in ESXi world.  Add-brick, would run successful, but virtual-machine files would crash after rebalance in one of my environments. That did not happen in my another environment under same version (3.7.16).  Difference between 2 was one is changing from Replicate to Distributed-Replicate, but they are still configured with only 2-replicas. i will have to test 3.8.* with Ganesha to see how it goes. </div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Nov 14, 2016 at 8:29 AM, Gandalf Corvotempesta <span dir="ltr">&lt;<a href="mailto:gandalf.corvotempesta@gmail.com" target="_blank">gandalf.corvotempesta@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">1016-11-14 17:01 GMT+01:00 Vijay Bellur &lt;<a href="mailto:vbellur@redhat.com">vbellur@redhat.com</a>&gt;:<br>
&gt; Accessing sharded data after disabling sharding is something that we<br>
&gt; did not visualize as a valid use case at any point in time. Also, you<br>
&gt; could access the contents by enabling sharding again. Given these<br>
&gt; factors I think this particular problem has not been prioritized by<br>
&gt; us.<br>
<br>
</span>That&#39;s not true.<br>
If you have VMs running on a sharded volume and you disable sharding,<br>
with the VM still running, everything crash and could lead to data loss, as VM<br>
will be unable to find their filesystem and so on, qemu currupts the<br>
image and so on.....<br>
<br>
If I write to a file that was shareded, (in example a log file), now<br>
when you disable the shard,<br>
the application would write the existing file (the one that was the<br>
first shard).<br>
If you reenable sharding, you lost some data<br>
<br>
Example:<br>
<br>
128MB file. shard set to 64MB. You have 2 chunks: shard1+shard2<br>
<br>
Now you are writing to the file:<br>
<br>
AAAA<br>
BBBB<br>
CCCC<br>
DDDD<br>
<br>
AAAA+BBBB are placed on shard1, CCCC+DDDD are placed on shard2<br>
<br>
If you disable the shard and write some extra data, EEEE, then EEEE<br>
would be placed after BBBB in shard1 (growing more than 64MB)<br>
and not on shard3<br>
<br>
If you re-enable shard, EEEE is lost, as gluster would expect it as<br>
shard3. and I think gluster will read only the first 64MB from shard1.<br>
If gluster read the whole file, you&#39;ll get something like this:<br>
<br>
AAAA<br>
BBBB<br>
EEEE<br>
CCCC<br>
DDDD<br>
<br>
in a text file this is bad, in a VM image, this mean data<br>
loss/corruption almost impossible to fix.<br>
<span class=""><br>
<br>
&gt; As with many other projects, we are in a stage today where the number<br>
&gt; of users and testers far outweigh the number of developers<br>
&gt; contributing code. With this state it becomes hard to prioritize<br>
&gt; problems from a long todo list for developers.  If valuable community<br>
&gt; members like you feel strongly about a bug or feature that need<br>
&gt; attention of developers, please call such issues out on the mailing<br>
&gt; list. We will be more than happy to help.<br>
<br>
</span>That&#39;s why i&#39;ve asked for less feature and more stability.<br>
If you have to prioritize, please choose all bugs that could lead to<br>
data corruption or similiar.<br>
<div class="HOEnZb"><div class="h5">______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>