<div dir="ltr">Hello,<div><br></div><div>we are aware of this, as you can find in mail list archives.</div><div><br></div><div>You can get things better, but not completely remove this issue for now. It mostly depend on number of files in folder when doing ls.</div><div>Small files provide much lower performance than big one during copy &amp; co.</div><div><br></div><div>Replicate option slow down read, as your client contact both servers to get metada.</div><div><br></div><div>Things I did to get things better in this setup:</div><div><br></div><div>fstab option (on client) : <font face="monospace, monospace">defaults,direct-io-mode=disable,_netdev,backupvolfile-server=mysecondservername</font></div><div><font face="arial, helvetica, sans-serif">fstab option (on gluster server volumes):</font><font face="monospace, monospace"> defaults,noatime,nodiratime,logbufs=8,logbsize=256k,largeio,inode64,swalloc,allocsize=131072k,nobarrier</font></div><div><br></div><div><b>sysctl (clients and servers):</b></div><div><div><font face="monospace, monospace">vm.swappiness=0</font></div><div><font face="monospace, monospace">net.core.rmem_max=67108864</font></div><div><font face="monospace, monospace">net.core.wmem_max=67108864</font></div><div><font face="monospace, monospace"># increase Linux autotuning TCP buffer limit to 32MB</font></div><div><font face="monospace, monospace">net.ipv4.tcp_rmem=4096 87380 33554432</font></div><div><font face="monospace, monospace">net.ipv4.tcp_wmem=4096 65536 33554432</font></div><div><font face="monospace, monospace"># increase the length of the processor input queue</font></div><div><font face="monospace, monospace">net.core.netdev_max_backlog=30000</font></div><div><font face="monospace, monospace"># recommended default congestion control is htcp</font></div><div><font face="monospace, monospace">net.ipv4.tcp_congestion_control=htcp</font></div></div><div><br></div><div><b>Gluster volume options:</b></div><div><div><font face="monospace, monospace">performance.cache-size: 1GB</font></div><div><font face="monospace, monospace">performance.io-thread-count: 16</font></div><div><font face="monospace, monospace">performance.readdir-ahead: enable</font></div><div><font face="monospace, monospace">performance.read-ahead: disable</font></div><div><font face="monospace, monospace">performance.client-io-threads: on</font></div><div><font face="monospace, monospace">performance.write-behind-window-size: 1MB</font></div><div><font face="monospace, monospace">cluster.lookup-optimize: on</font></div><div><font face="monospace, monospace">client.event-threads: 4</font></div><div><font face="monospace, monospace">server.event-threads: 4</font></div><div><font face="monospace, monospace">cluster.readdir-optimize: on</font></div><br></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature">Cordialement,<br>Mathieu CHATEAU<br><a href="http://www.lotp.fr" target="_blank">http://www.lotp.fr</a></div></div>
<br><div class="gmail_quote">2016-01-13 7:39 GMT+01:00 Arash Shams <span dir="ltr">&lt;<a href="mailto:ara4sh@hotmail.com" target="_blank">ara4sh@hotmail.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<div><div dir="ltr">Hello<br><br>Im using 2 standalone servers as share storage servers with glusterfs 3.7 when i change directory and run command inside a mounted volume for each operation i have to wait at least 5 seconds for result and prompt <br>Im using replicate option and delay maybe for write but not for reading <br><br>im using gluster as my /var/www/ share along all of my instance and servers but for a simple ls or cd command to this directory i have to wait 5 seconds any suggestion for me ? <br><br>here is some information about the servers and glusterfs :<br><br>OS : Ubuntu 14.04.3 LTS<br>Version info : glusterfs 3.7.6 built on Nov  9 2015 15:17:05<br><br>Ping between 2 nodes result : <br>4 packets transmitted, 4 received, 0% packet loss, time 2998ms<br>rtt min/avg/max/mdev = 0.042/0.056/0.071/0.014 ms<br><br>iperf : <br>Interval           Transfer        Bandwidth<br>0.0-10.0 sec  10.5 GBytes  9.03 Gbits/sec<br><br>dd test : <br>1573468160 bytes (1.6 GB) copied, 70.8977 s, 22.2 MB/s<br><br><br><br>                                               </div></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div>