<html><body><div style="font-family: garamond,new york,times,serif; font-size: 12pt; color: #000000"><div>Hi Elvind,<br></div><div><br></div><div>At the moment, the focus is on making sharding work with gluster-as-VM-store use case (which is a typical large-files-with-single-writer workload).<br></div><div>After this, I do plan to make it work for general-purpose use cases too.<br></div><div><br></div><div>With respect to this specific issue, could you set performance.strict-write-ordering to "on" and try your test again?<br></div><div><br></div><div>Here's what you need to do:<br></div><div>#gluster volume set &lt;VOLNAME&gt; performance.strict-write-ordering on<br></div><div><br></div><div>-Krutika<br></div><div><br></div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="border-left: 2px solid #1010FF; margin-left: 5px; padding-left: 5px; color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Eivind Sarto" &lt;eivindsarto@gmail.com&gt;<br><b>To: </b>Gluster-users@gluster.org<br><b>Sent: </b>Tuesday, September 15, 2015 3:35:11 AM<br><b>Subject: </b>[Gluster-users] Is anyone using sharding?<br><div><br></div><div dir="ltr">I noticed that several sharding bugs relating to file size got closed because 3.7.4 got released.&nbsp; However, file sizes are still messed up in 3.7.4.&nbsp; I know this is a beta feature, but you cannot even write a single file without getting the wrong file size.<div><div><br></div><div>Neither buffered or direct IO works:</div><div><br></div><div><div># dd if=/dev/zero of=/voltest/dd.buffered bs=1024k count=1024</div><div>1024+0 records in</div><div>1024+0 records out</div><div>1073741824 bytes (1.1 GB) copied, 1.66046 s, 647 MB/s</div></div><div><div># dd if=/dev/zero of=/voltest/dd.direct oflag=direct bs=1024k count=1024</div><div>1024+0 records in</div><div>1024+0 records out</div><div>1073741824 bytes (1.1 GB) copied, 1.91092 s, 562 MB/s</div><div>root@science08:~/test# ls -l /voltest</div><div>total 2104384</div><div>-rw-r--r-- 1 root root 1075052544 Sep 14 14:31 dd.direct</div><div>-rw-r--r-- 1 root root 1074266112 Sep 14 14:18 dd.buffered</div></div><div><br></div><div><div># gluster vol info voltest</div><div>Volume Name: voltest</div><div>Type: Distribute</div><div>Volume ID: 849e2d6b-faaa-43d7-b06e-3c6d3057dff3</div><div>Status: Started</div><div>Number of Bricks: 4</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: sc03:/brick_ssd_0/gv</div><div>Brick2: sc04:/brick_ssd_0/gv</div><div>Brick3: sc03:/brick_ssd_1/gv</div><div>Brick4: sc04:/brick_ssd_1/gv</div><div>Options Reconfigured:</div><div>features.shard: on</div><div>performance.readdir-ahead: on</div><div>root@science03:~# gluster --version</div><div>glusterfs 3.7.4 built on Sep &nbsp;1 2015 12:08:58</div></div></div></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://www.gluster.org/mailman/listinfo/gluster-users</blockquote><div><br></div></div></body></html>