<div dir="ltr">Hello there,<div><br></div><div>We&#39;re working on migrating over 100 million small files to Gluster 3.7 with bricks sitting on XFS filesystem. We&#39;ve started with single node first and optimized NFS and other aspects of GlusterFS to perform best for our workload. When we switched second node on, we started experiencing very heavy CPU utilization, mostly due to SelfHealDaemon (SHD). We&#39;ve tried turning SHD off and let autoheal take care of replicating data across nodes, yet with some directories having over 2 million files, it proved to be very difficult to control CPU utilization.</div><div><br></div><div>Our setup has 6 bricks on each node, 2 node, distributed and replicated set up, NFS mount, lots of small files, server-threads, client-threads and io-threads set to 16. We&#39;ve tried reducing them to 4 but still seeing same symptoms. I&#39;ve spend fair amount of time to analyze threat usage using, strace, sysdig and such, no matter what we set for thread configuration SHD seems like using 24 threads (4 for each brick it seems).</div><div><br></div><div>Does anyone know how to throttle SHD and autoheal down so that it doesn&#39;t consume too much CPU power? Any other ideas on how to tune GlusterFS for small file / metadata-heavy workload is appreciated, especially when adding/removing nodes/bricks.</div><div><br></div><div>Thank you</div><div><br></div><div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div><div style="text-align:right"><span style="font-size:12.8px">Kayra Otaner</span></div><div style="text-align:right"><span style="font-size:12.8px">BilgiO A.Ş. -  SecOps Experts</span></div><div style="text-align:right"><span style="font-size:12.8px">PGP KeyID : A945251E </span><span style="font-size:12.8px">| Manager, Enterprise Linux Solutions</span></div></div><div style="text-align:right"><a href="http://www.bilgio.com" target="_blank">www.bilgio.com</a> |  TR +90 (532) 111-7240 x 1001 | US +1 (201) 206-2592</div></div></div></div></div></div></div></div></div>
</div></div>