<div dir="ltr">Hi,<div><br></div><div>I am running performance  test between fuse vs libgfapi.  I have a single node, client and server are running on same node. I have NVMe SSD device as a storage. </div><div><br></div><div>My volume info::</div><div>







<p class=""><span class="">[</span>root@sys04 ~]# gluster vol info<br>Volume Name: vol1<br>Type: Distribute<br>Volume ID: 9f60ceaf-3643-4325-855a-455974e36cc7<br>Status: Started<br>Number of Bricks: 1<br>Transport-type: tcp<br>Bricks:<br>Brick1: 172.16.71.19:/mnt_nvme/brick1<br>Options Reconfigured:<br>performance.cache-size: 0<br>performance.write-behind: off<br>performance.read-ahead: off<br>performance.io-cache: off<br>performance.strict-o-direct: on<br></p><p class=""><br></p><p class="">fio Job file::</p><p class=""><span class="">[</span>global]<br>direct=1<br>runtime=20<br>time_based<br>ioengine=gfapi<br>iodepth=1<br>volume=vol1<br>brick=172.16.71.19<br>rw=read<br>size=128g<br>bs=32k<br>group_reporting<br>numjobs=1<br>filename=128g.bar</p><p class="">While doing sequential read test, I am not seeing any data transfer on device with iostat tool.  Looks like gfapi engine is reading from the cache because i am reading from same file with different block sizes. </p><p class="">But i disabled  io cache  for my volume. Can someone help me  from where fio is reading the data?</p><p class=""><br></p><p class="">Sateesh</p></div></div>