<div dir="ltr"><div class="gmail_extra"><div><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>On Thu, Jul 21, 2016 at 9:52 AM, Niels de Vos <span dir="ltr">&lt;<a href="mailto:ndevos@redhat.com" target="_blank">ndevos@redhat.com</a>&gt;</span> wrote:<br></div></div></div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">On Sun, Jul 10, 2016 at 10:49:52AM +1000, Lindsay Mathieson wrote:<br>
&gt; Did a quick test this morning - 3.7.13 is now working with libgfapi - yay!<br>
&gt;<br>
&gt;<br>
&gt; However I do have to enable write-back or write-through caching in qemu<br>
&gt; before the vm&#39;s will start, I believe this is to do with aio support. Not a<br>
&gt; problem for me.<br>
&gt;<br>
&gt; I see there are settings for storage.linux-aio and storage.bd-aio - not sure<br>
&gt; as to whether they are relevant or which ones to play with.<br>
<br>
Both storage.*-aio options are used by the brick processes. Depending on<br>
what type of brick you have (linux = filesystem, bd = LVM Volume Group)<br>
you could enable the one or the other.<br>
<br>
We do have a strong suggestion to set these &quot;gluster volume group ..&quot;<br>
options:<br>
  <a href="https://github.com/gluster/glusterfs/blob/master/extras/group-virt.example" rel="noreferrer" target="_blank">https://github.com/gluster/glusterfs/blob/master/extras/group-virt.example</a><br>
<br>
>From those options, network.remote-dio seems most related to your aio<br>
theory. It was introduced with <a href="http://review.gluster.org/4460" rel="noreferrer" target="_blank">http://review.gluster.org/4460</a> that<br>
contains some more details.<br></blockquote><div><br></div><div>Thanks with the exception of stat-prefetch I have those enabled </div><div>I could try turning that back off though at the time of update to 3.7.13 it was off.  I didnt turn it back on till later in next week after downgrading back to 3.7.11.  </div><div><br></div><div><div>Number of Bricks: 1 x 3 = 3</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: ccgl1.gl.local:/gluster1/BRICK1/1</div><div>Brick2: ccgl2.gl.local:/gluster1/BRICK1/1</div><div>Brick3: ccgl4.gl.local:/gluster1/BRICK1/1</div><div>Options Reconfigured:</div><div>diagnostics.brick-log-level: WARNING</div><div>features.shard-block-size: 64MB</div><div>features.shard: on</div><div>performance.readdir-ahead: on</div><div>storage.owner-uid: 36</div><div>storage.owner-gid: 36</div><div>performance.quick-read: off</div><div>performance.read-ahead: off</div><div>performance.io-cache: off</div><div>performance.stat-prefetch: on</div><div>cluster.eager-lock: enable</div><div>network.remote-dio: enable</div><div>cluster.quorum-type: auto</div><div>cluster.server-quorum-type: server</div><div>server.allow-insecure: on</div><div>cluster.self-heal-window-size: 1024</div><div>cluster.background-self-heal-count: 16</div><div>performance.strict-write-ordering: off</div><div>nfs.disable: on</div><div>nfs.addr-namelookup: off</div><div>nfs.enable-ino32: off</div></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">
<br>
HTH,<br>
Niels<br>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div>