<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"><html><head><meta content="text/html;charset=UTF-8" http-equiv="Content-Type"></head><body ><div style='font-size:10pt;'>Hi bturner,<br><br><br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; I am getting below error while adding server.event <br><b><br>gluster v set integvol server.event-threads 3<br>volume set: failed: option : server.event-threads does not exist<br>Did you mean server.gid-timeout or ...manage-gids?</b>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br><br><br>Glusterfs version has been upgraded to 3.6.3<br>Also os kernel upgraded to 6.6 kernel <br>Yes two brick are running in KVM and one is physical machine and we are not using thinp.<br><br><div id=""><div><span style="color: rgb(0, 0, 0);">Regards</span></div><span style="color: rgb(0, 0, 0);">G.J<br></span><div style="color: rgb(255, 0, 0);"><b><br clear="none"></b></div><font size="3"><span style="color: rgb(192, 192, 192); font-family: arial,helvetica,sans-serif;"><font style="font-family: 'courier new',courier,monospace;" size="5"><span style="color: rgb(0, 0, 255);"></span></font><span></span></span></font></div><br><div class="zmail_extra"><div id="1"><br>---- On Thu, 30 Apr 2015 00:37:44 +0530 <b>Ben Turner&lt;bturner@redhat.com&gt;</b> wrote ---- <br></div><blockquote style="border-left: 1px solid #0000FF; padding-left: 6px; margin:0 0 0 5px"><div>----- Original Message ----- <br>&gt; From: "gjprabu" &lt;<a subj="" mailid="gjprabu%40zohocorp.com" href="mailto:gjprabu@zohocorp.com" target="_blank">gjprabu@zohocorp.com</a>&gt; <br>&gt; To: "A Ghoshal" &lt;<a subj="" mailid="a.ghoshal%40tcs.com" href="mailto:a.ghoshal@tcs.com" target="_blank">a.ghoshal@tcs.com</a>&gt; <br>&gt; Cc: <a subj="" mailid="gluster-users%40gluster.org" href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a>, <a subj="" mailid="gluster-users-bounces%40gluster.org" href="mailto:gluster-users-bounces@gluster.org" target="_blank">gluster-users-bounces@gluster.org</a> <br>&gt; Sent: Wednesday, April 29, 2015 9:07:07 AM <br>&gt; Subject: Re: [Gluster-users] client is terrible with large amount of small files <br>&gt;  <br>&gt; Hi Ghoshal, <br>&gt;  <br>&gt; Please find the details below. <br>&gt;  <br>&gt; A) Glusterfs version <br>&gt; glusterfs 3.6.2 <br> <br>Upgrade to 3.6.3 and set client.event-threads and server.event-threads to at least 4.  Here is a guide on tuning MT epoll: <br> <br><a href="https://access.redhat.com/documentation/en-US/Red_Hat_Storage/3/html/Administration_Guide/Small_File_Performance_Enhancements.html" target="_blank">https://access.redhat.com/documentation/en-US/Red_Hat_Storage/3/html/Administration_Guide/Small_File_Performance_Enhancements.html</a> <br> <br>&gt;  <br>&gt; B) volume configuration (gluster v &lt;volname&gt; info) <br>&gt; gluster volume info <br>&gt;  <br>&gt;  <br>&gt; Volume Name: integvol <br>&gt; Type: Replicate <br>&gt; Volume ID: b8f3a19e-59bc-41dc-a55a-6423ec834492 <br>&gt; Status: Started <br>&gt; Number of Bricks: 1 x 3 = 3 <br>&gt; Transport-type: tcp <br>&gt; Bricks: <br>&gt; Brick1: integ-gluster2:/srv/sdb1/brick <br>&gt; Brick2: integ-gluster1:/srv/sdb1/brick <br>&gt; Brick3: integ-gluster3:/srv/sdb1/brick <br>&gt; <br>&gt;  <br>&gt; C) host linux version <br>&gt; CentOS release 6.5 (Final) <br> <br>Are your bricks on LVM?  Are you using thinp?  If so update to the latest kernel as thinp perf was really bad in 6.5 and early 6.6 kernels. <br> <br>&gt;  <br>&gt; D) details about the kind of network you use to connect your servers making <br>&gt; up your storage pool. <br>&gt; We are connecting LAN to LAN there is no special network configuration done <br>&gt;  <br>&gt; Frome client we use to mount like below <br>&gt; mount -t glusterfs gluster1:/integvol /mnt/gluster/ <br>&gt;  <br>&gt;  <br>&gt; Regards <br>&gt; Prabu <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; ---- On Wed, 29 Apr 2015 17:58:16 +0530 A Ghoshal&lt;<a subj="" mailid="a.ghoshal%40tcs.com" href="mailto:a.ghoshal@tcs.com" target="_blank">a.ghoshal@tcs.com</a>&gt; wrote <br>&gt; ---- <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; Performance would largely depend upon setup. While I cannot think of any <br>&gt; setup that would cause write to be this slow, if would help if you share the <br>&gt; following details: <br>&gt;  <br>&gt; A) Glusterfs version <br>&gt; B) volume configuration (gluster v &lt;volname&gt; info) <br>&gt; C) host linux version <br>&gt; D) details about the kind of network you use to connect your servers making <br>&gt; up your storage pool. <br>&gt;  <br>&gt; Thanks, <br>&gt; Anirban <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; From: gjprabu &lt; <a subj="" mailid="gjprabu%40zohocorp.com" href="mailto:gjprabu@zohocorp.com" target="_blank">gjprabu@zohocorp.com</a> &gt; <br>&gt; To: &lt; <a subj="" mailid="gluster-users%40gluster.org" href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a> &gt; <br>&gt; Date: 04/29/2015 05:52 PM <br>&gt; Subject: Re: [Gluster-users] client is terrible with large amount of small <br>&gt; files <br>&gt; Sent by: <a subj="" mailid="gluster-users-bounces%40gluster.org" href="mailto:gluster-users-bounces@gluster.org" target="_blank">gluster-users-bounces@gluster.org</a> <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; Hi Team, <br>&gt;  <br>&gt; If anybody know the solution please share us. <br>&gt;  <br>&gt; Regards <br>&gt; Prabu <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; ---- On Tue, 28 Apr 2015 19:32:40 +0530 gjprabu &lt; <a subj="" mailid="gjprabu%40zohocorp.com" href="mailto:gjprabu@zohocorp.com" target="_blank">gjprabu@zohocorp.com</a> &gt; <br>&gt; wrote ---- <br>&gt; Hi Team, <br>&gt;  <br>&gt; We are using glusterfs newly and testing data transfer part in client using <br>&gt; fuse.glusterfs file system but it is terrible with large amount of small <br>&gt; files (Large amount of small file 150MB of size it's writing around 18min). <br>&gt; I can able copy small files and syncing between the server brick are working <br>&gt; fine but it is terrible with large amount of small files. <br>&gt;  <br>&gt; if anybody please share the solution for the above issue. <br>&gt;  <br>&gt; Regards <br>&gt; Prabu <br>&gt;  <br>&gt; _______________________________________________ <br>&gt; Gluster-users mailing list <br>&gt; <a subj="" mailid="Gluster-users%40gluster.org" href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> <br>&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a> <br>&gt;  <br>&gt; _______________________________________________ <br>&gt; Gluster-users mailing list <br>&gt; <a subj="" mailid="Gluster-users%40gluster.org" href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> <br>&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a> <br>&gt;  <br>&gt;  <br>&gt; =====-----=====-----===== <br>&gt; Notice: The information contained in this e-mail <br>&gt; message and/or attachments to it may contain <br>&gt; confidential or privileged information. If you are <br>&gt; not the intended recipient, any dissemination, use, <br>&gt; review, distribution, printing or copying of the <br>&gt; information contained in this e-mail message <br>&gt; and/or attachments to it are strictly prohibited. If <br>&gt; you have received this communication in error, <br>&gt; please notify us by reply e-mail or telephone and <br>&gt; immediately and permanently delete the message <br>&gt; and any attachments. Thank you <br>&gt;  <br>&gt;  <br>&gt;  <br>&gt; _______________________________________________ <br>&gt; Gluster-users mailing list <br>&gt; <a subj="" mailid="Gluster-users%40gluster.org" href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> <br>&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a> <br></div></blockquote><br></div><br></div></body></html>