<div dir="ltr">That&#39;s more a limitation in the gluster protocol as it currently sits, not so much with whether you&#39;re using FUSE or libgfapi. There are probably other things you can do, though.<div><br></div><div>One might be to use dispersion instead of replication. Another might be to disable atime on the server. Per this thread ( <a href="http://lists.gnu.org/archive/html/gluster-devel/2008-03/msg00149.html">http://lists.gnu.org/archive/html/gluster-devel/2008-03/msg00149.html</a> ), if the server fs does not have atime enabled, gluster won&#39;t update it. That may well save you a few network round trips.</div><div><br></div><div>Another thing you might try is taking steps to ensure your ARP caches on your clients and bricks remain hot. (Random guess, here).</div><div><br></div><div>I&#39;ve seen feature request tickets about bundling IOPs on the wire to opportunistically eliminate round trips, but I don&#39;t know what the status is of those.<br><div><br><div class="gmail_quote"><div dir="ltr">On Thu, Jul 30, 2015 at 12:07 PM David Robinson &lt;<a href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Copy that.  I am very aware of the small file performance issues and I<br>
have been tracking 3.7.  I am waiting for 3.7 to stabilize before I roll<br>
it out to my production system.<br>
<br>
My thought was that it looks like Bareos now has built in use of<br>
libgfapi, which from my understanding should improve performance for<br>
gluster.  My issues with rsync aren&#39;t with the actual transfer speed of<br>
the files.  My issue is with the time it takes to search through the<br>
filesystem to figure out which files to transfer.  This takes an<br>
extremely long time on 400TB of data, especially when it is going<br>
through the directories with large numbers of small files.<br>
<br>
I was curious if Bareos with built-in support for libgfapi would be<br>
faster than rsync backups between gluster machines.<br>
Anyone on the email list care to comment?  Thanks in advance for any<br>
info that can be provided.<br>
<br>
David<br>
<br>
<br>
------ Original Message ------<br>
From: &quot;André Bauer&quot; &lt;<a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a>&gt;<br>
To: &quot;David F. Robinson&quot; &lt;<a href="mailto:david.robinson@corvidtec.com" target="_blank">david.robinson@corvidtec.com</a>&gt;<br>
Sent: 7/30/2015 11:35:21 AM<br>
Subject: Re: [Gluster-users] Bareos backup from Gluster mount<br>
<br>
&gt;Hi David,<br>
&gt;<br>
&gt;i never used Bareos until now. We like to switch from Bacula in the<br>
&gt;future but i think this will not happen before next Ubuntu LTS release<br>
&gt;(16.04).<br>
&gt;<br>
&gt;I also never directly compared with rsync but i think rsync is faster<br>
&gt;in<br>
&gt;transfering because it does not have to do any compression and so on...<br>
&gt;<br>
&gt;What i can say about Bacula on Glusterfs volumes is, that copying big<br>
&gt;files works at reasonable speed while small files (especialy if there<br>
&gt;are a lot) are a bit slow, whats in Glusterfs nature until versions<br>
&gt;prior 3.6(?).<br>
&gt;<br>
&gt;With Glusterfs 3.6 / 3.7 this should be a bit faster in the meantime<br>
&gt;but<br>
&gt;i have no experience with the performance gains because i&#39;m still on<br>
&gt;Glusterfs 3.5.5.<br>
&gt;<br>
&gt;In conclusion i still prefer Bacula over Rsync even if its slower.<br>
&gt;<br>
&gt;Some more info about Glusterfs small file performance can be found<br>
&gt;here:<br>
&gt;<br>
&gt;<a href="https://gluster.readthedocs.org/en/latest/Feature%20Planning/GlusterFS%203.7/Small%20File%20Performance/" rel="noreferrer" target="_blank">https://gluster.readthedocs.org/en/latest/Feature%20Planning/GlusterFS%203.7/Small%20File%20Performance/</a><br>
&gt;<br>
&gt;Regards<br>
&gt;André<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;Am 30.07.2015 um 15:23 schrieb David F. Robinson:<br>
&gt;&gt;  Andre,<br>
&gt;&gt;<br>
&gt;&gt;  I am looking at a backup alternative to rsnc for gluster. My storage<br>
&gt;&gt;system is growing and rsync takes too long on my system (300TB). Do<br>
&gt;&gt;you have any idea of the relative performance of bareos as compared to<br>
&gt;&gt;that of rsync? Can it be run in a multi-threaded mode? Rsync takes an<br>
&gt;&gt;extremely long time just searching the directory tree to figure out<br>
&gt;&gt;what to copy. Before digging into bareos, I was wondering if you had<br>
&gt;&gt;any thoughts on performance for gluster.<br>
&gt;&gt;<br>
&gt;&gt;  David  (Sent from mobile)<br>
&gt;&gt;<br>
&gt;&gt;  ===============================<br>
&gt;&gt;  David F. Robinson, Ph.D.<br>
&gt;&gt;  President - Corvid Technologies<br>
&gt;&gt;  704.799.6944 x101 [office]<br>
&gt;&gt;  704.252.1310      [cell]<br>
&gt;&gt;  704.799.7974      [fax]<br>
&gt;&gt;  <a href="mailto:David.Robinson@corvidtec.com" target="_blank">David.Robinson@corvidtec.com</a><br>
&gt;&gt;  <a href="http://www.corvidtechnologies.com" rel="noreferrer" target="_blank">http://www.corvidtechnologies.com</a><br>
&gt;&gt;<br>
&gt;&gt;&gt;  On Jul 29, 2015, at 1:36 PM, André Bauer &lt;<a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  We&#39;re using Bacula (Bareos is a fork of it) for backups.<br>
&gt;&gt;&gt;  Never had any problems doing backups of Gluster volumes.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Am 27.07.2015 um 23:02 schrieb Ryan Clough:<br>
&gt;&gt;&gt;&gt;  Hello,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  I have cross-posted this question in the bareos-users mailing list.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Wondering if anyone has tried this because I am unable to backup<br>
&gt;&gt;&gt;&gt;data<br>
&gt;&gt;&gt;&gt;  that is mounted via Gluster Fuse or Gluster NFS. Basically, I have<br>
&gt;&gt;&gt;&gt;the<br>
&gt;&gt;&gt;&gt;  Gluster volume mounted on the Bareos Director which also has the<br>
&gt;&gt;&gt;&gt;tape<br>
&gt;&gt;&gt;&gt;  changer attached.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Here is some information about versions:<br>
&gt;&gt;&gt;&gt;  Bareos version 14.2.2<br>
&gt;&gt;&gt;&gt;  Gluster version 3.7.2<br>
&gt;&gt;&gt;&gt;  Scientific Linux version 6.6<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Our Gluster volume consists of two nodes in distribute only. Here<br>
&gt;&gt;&gt;&gt;is the<br>
&gt;&gt;&gt;&gt;  configuration of our volume:<br>
&gt;&gt;&gt;&gt;  [root@hgluster02 ~]# gluster volume info<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Volume Name: export_volume<br>
&gt;&gt;&gt;&gt;  Type: Distribute<br>
&gt;&gt;&gt;&gt;  Volume ID: c74cc970-31e2-4924-a244-4c70d958dadb<br>
&gt;&gt;&gt;&gt;  Status: Started<br>
&gt;&gt;&gt;&gt;  Number of Bricks: 2<br>
&gt;&gt;&gt;&gt;  Transport-type: tcp<br>
&gt;&gt;&gt;&gt;  Bricks:<br>
&gt;&gt;&gt;&gt;  Brick1: hgluster01:/gluster_data<br>
&gt;&gt;&gt;&gt;  Brick2: hgluster02:/gluster_data<br>
&gt;&gt;&gt;&gt;  Options Reconfigured:<br>
&gt;&gt;&gt;&gt;  performance.io-thread-count: 24<br>
&gt;&gt;&gt;&gt;  server.event-threads: 20<br>
&gt;&gt;&gt;&gt;  client.event-threads: 4<br>
&gt;&gt;&gt;&gt;  performance.readdir-ahead: on<br>
&gt;&gt;&gt;&gt;  features.inode-quota: on<br>
&gt;&gt;&gt;&gt;  features.quota: on<br>
&gt;&gt;&gt;&gt;  nfs.disable: off<br>
&gt;&gt;&gt;&gt;  auth.allow: 192.168.10.*,10.0.10.*,10.8.0.*,10.2.0.*,10.0.60.*<br>
&gt;&gt;&gt;&gt;  server.allow-insecure: on<br>
&gt;&gt;&gt;&gt;  server.root-squash: on<br>
&gt;&gt;&gt;&gt;  performance.read-ahead: on<br>
&gt;&gt;&gt;&gt;  features.quota-deem-statfs: on<br>
&gt;&gt;&gt;&gt;  diagnostics.brick-log-level: WARNING<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  When I try to backup a directory from Gluster Fuse or Gluster NFS<br>
&gt;&gt;&gt;&gt;mount<br>
&gt;&gt;&gt;&gt;  and I monitor the network communication I only see data being<br>
&gt;&gt;&gt;&gt;pulled<br>
&gt;&gt;&gt;&gt;  from the hgluster01 brick. When the job finishes Bareos thinks that<br>
&gt;&gt;&gt;&gt;it<br>
&gt;&gt;&gt;&gt;  completed without error but included in the messages for the job<br>
&gt;&gt;&gt;&gt;are<br>
&gt;&gt;&gt;&gt;  lots and lots of permission denied errors like this:<br>
&gt;&gt;&gt;&gt;  15-Jul 02:03 ripper.red.dsic.com-fd JobId 613:      Cannot open<br>
&gt;&gt;&gt;&gt;  &quot;/export/rclough/psdv-2014-archives-2/scan_111.tar.bak&quot;:<br>
&gt;&gt;&gt;&gt;ERR=Permission<br>
&gt;&gt;&gt;&gt;  denied.<br>
&gt;&gt;&gt;&gt;  15-Jul 02:03 ripper.red.dsic.com-fd JobId 613:      Cannot open<br>
&gt;&gt;&gt;&gt;  &quot;/export/rclough/psdv-2014-archives-2/run_219.tar.bak&quot;:<br>
&gt;&gt;&gt;&gt;ERR=Permission<br>
&gt;&gt;&gt;&gt;  denied.<br>
&gt;&gt;&gt;&gt;  15-Jul 02:03 ripper.red.dsic.com-fd JobId 613:      Cannot open<br>
&gt;&gt;&gt;&gt;  &quot;/export/rclough/psdv-2014-archives-2/scan_112.tar.bak&quot;:<br>
&gt;&gt;&gt;&gt;ERR=Permission<br>
&gt;&gt;&gt;&gt;  denied.<br>
&gt;&gt;&gt;&gt;  15-Jul 02:03 ripper.red.dsic.com-fd JobId 613:      Cannot open<br>
&gt;&gt;&gt;&gt;  &quot;/export/rclough/psdv-2014-archives-2/run_220.tar.bak&quot;:<br>
&gt;&gt;&gt;&gt;ERR=Permission<br>
&gt;&gt;&gt;&gt;  denied.<br>
&gt;&gt;&gt;&gt;  15-Jul 02:03 ripper.red.dsic.com-fd JobId 613:      Cannot open<br>
&gt;&gt;&gt;&gt;  &quot;/export/rclough/psdv-2014-archives-2/scan_114.tar.bak&quot;:<br>
&gt;&gt;&gt;&gt;ERR=Permission<br>
&gt;&gt;&gt;&gt;  denied.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  At first I thought this might be a root-squash problem but, if I<br>
&gt;&gt;&gt;&gt;try to<br>
&gt;&gt;&gt;&gt;  read/copy a file using the root user from the Bareos server that is<br>
&gt;&gt;&gt;&gt;  trying to do the backup, I can read files just fine.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  When the job finishes is reports that it finished &quot;OK -- with<br>
&gt;&gt;&gt;&gt;warnings&quot;<br>
&gt;&gt;&gt;&gt;  but, again the log for the job is filled with &quot;ERR=Permission<br>
&gt;&gt;&gt;&gt;denied&quot;<br>
&gt;&gt;&gt;&gt;  messages. In my opinion, this job did not finish OK and should be<br>
&gt;&gt;&gt;&gt;  Failed. Some of the files from the HGluster02 brick are backed up<br>
&gt;&gt;&gt;&gt;but<br>
&gt;&gt;&gt;&gt;  all of the ones with permission errors do not. When I restore the<br>
&gt;&gt;&gt;&gt;job,<br>
&gt;&gt;&gt;&gt;  all of the files with permission errors are empty.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Has anyone successfully used Bareos to backup data from Gluster<br>
&gt;&gt;&gt;&gt;mounts?<br>
&gt;&gt;&gt;&gt;  This is an important use case for us because this is the largest<br>
&gt;&gt;&gt;&gt;single<br>
&gt;&gt;&gt;&gt;  volume that we have to prepare large amounts of data to be<br>
&gt;&gt;&gt;&gt;archived.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  Thank you for your time,<br>
&gt;&gt;&gt;&gt;  ___________________________________________<br>
&gt;&gt;&gt;&gt;  ¯\_(ツ)_/¯<br>
&gt;&gt;&gt;&gt;  Ryan Clough<br>
&gt;&gt;&gt;&gt;  Information Systems<br>
&gt;&gt;&gt;&gt;  Decision Sciences International Corporation<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&lt;<a href="http://www.decisionsciencescorp.com/" rel="noreferrer" target="_blank">http://www.decisionsciencescorp.com/</a>&gt;&lt;<a href="http://www.decisionsciencescorp.com/" rel="noreferrer" target="_blank">http://www.decisionsciencescorp.com/</a>&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  This email and its contents are confidential. If you are not the<br>
&gt;&gt;&gt;&gt;  intended recipient, please do not disclose or use the information<br>
&gt;&gt;&gt;&gt;within<br>
&gt;&gt;&gt;&gt;  this email or its attachments. If you have received this email in<br>
&gt;&gt;&gt;&gt;error,<br>
&gt;&gt;&gt;&gt;  please report the error to the sender by return email and delete<br>
&gt;&gt;&gt;&gt;this<br>
&gt;&gt;&gt;&gt;  communication from your records.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  _______________________________________________<br>
&gt;&gt;&gt;&gt;  Gluster-users mailing list<br>
&gt;&gt;&gt;&gt;  <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt;  <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  --<br>
&gt;&gt;&gt;  Mit freundlichen Grüßen<br>
&gt;&gt;&gt;  André Bauer<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  MAGIX Software GmbH<br>
&gt;&gt;&gt;  André Bauer<br>
&gt;&gt;&gt;  Administrator<br>
&gt;&gt;&gt;  August-Bebel-Straße 48<br>
&gt;&gt;&gt;  01219 Dresden<br>
&gt;&gt;&gt;  GERMANY<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  tel.: 0351 41884875<br>
&gt;&gt;&gt;  e-mail: <a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a><br>
&gt;&gt;&gt;  <a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a> &lt;mailto:<a href="mailto:Email" target="_blank">Email</a>&gt;<br>
&gt;&gt;&gt;  <a href="http://www.magix.com" rel="noreferrer" target="_blank">www.magix.com</a> &lt;<a href="http://www.magix.com/" rel="noreferrer" target="_blank">http://www.magix.com/</a>&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  Geschäftsführer | Managing Directors: Dr. Arnd Schröder, Michael<br>
&gt;&gt;&gt;Keith<br>
&gt;&gt;&gt;  Amtsgericht | Commercial Register: Berlin Charlottenburg, HRB 127205<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  Find us on:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;  &lt;<a href="http://www.facebook.com/MAGIX" rel="noreferrer" target="_blank">http://www.facebook.com/MAGIX</a>&gt; &lt;<a href="http://www.twitter.com/magix_de" rel="noreferrer" target="_blank">http://www.twitter.com/magix_de</a>&gt;<br>
&gt;&gt;&gt;  &lt;<a href="http://www.youtube.com/wwwmagixcom" rel="noreferrer" target="_blank">http://www.youtube.com/wwwmagixcom</a>&gt; &lt;<a href="http://www.magixmagazin.de" rel="noreferrer" target="_blank">http://www.magixmagazin.de</a>&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;----------------------------------------------------------------------<br>
&gt;&gt;&gt;  The information in this email is intended only for the addressee<br>
&gt;&gt;&gt;named<br>
&gt;&gt;&gt;  above. Access to this email by anyone else is unauthorized. If you<br>
&gt;&gt;&gt;are<br>
&gt;&gt;&gt;  not the intended recipient of this message any disclosure, copying,<br>
&gt;&gt;&gt;  distribution or any action taken in reliance on it is prohibited and<br>
&gt;&gt;&gt;  may be unlawful. MAGIX does not warrant that any attachments are<br>
&gt;&gt;&gt;free<br>
&gt;&gt;&gt;  from viruses or other defects and accepts no liability for any<br>
&gt;&gt;&gt;losses<br>
&gt;&gt;&gt;  resulting from infected email transmissions. Please note that any<br>
&gt;&gt;&gt;  views expressed in this email may be those of the originator and do<br>
&gt;&gt;&gt;  not necessarily represent the agenda of the company.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;----------------------------------------------------------------------<br>
&gt;&gt;&gt;  _______________________________________________<br>
&gt;&gt;&gt;  Gluster-users mailing list<br>
&gt;&gt;&gt;  <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;  <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;--<br>
&gt;Mit freundlichen Grüßen<br>
&gt;André Bauer<br>
&gt;<br>
&gt;MAGIX Software GmbH<br>
&gt;André Bauer<br>
&gt;Administrator<br>
&gt;August-Bebel-Straße 48<br>
&gt;01219 Dresden<br>
&gt;GERMANY<br>
&gt;<br>
&gt;tel.: 0351 41884875<br>
&gt;e-mail: <a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a><br>
&gt;<a href="mailto:abauer@magix.net" target="_blank">abauer@magix.net</a> &lt;mailto:<a href="mailto:Email" target="_blank">Email</a>&gt;<br>
&gt;<a href="http://www.magix.com" rel="noreferrer" target="_blank">www.magix.com</a> &lt;<a href="http://www.magix.com/" rel="noreferrer" target="_blank">http://www.magix.com/</a>&gt;<br>
&gt;<br>
&gt;<br>
&gt;Geschäftsführer | Managing Directors: Dr. Arnd Schröder, Michael Keith<br>
&gt;Amtsgericht | Commercial Register: Berlin Charlottenburg, HRB 127205<br>
&gt;<br>
&gt;Find us on:<br>
&gt;<br>
&gt;&lt;<a href="http://www.facebook.com/MAGIX" rel="noreferrer" target="_blank">http://www.facebook.com/MAGIX</a>&gt; &lt;<a href="http://www.twitter.com/magix_de" rel="noreferrer" target="_blank">http://www.twitter.com/magix_de</a>&gt;<br>
&gt;&lt;<a href="http://www.youtube.com/wwwmagixcom" rel="noreferrer" target="_blank">http://www.youtube.com/wwwmagixcom</a>&gt; &lt;<a href="http://www.magixmagazin.de" rel="noreferrer" target="_blank">http://www.magixmagazin.de</a>&gt;<br>
&gt;----------------------------------------------------------------------<br>
&gt;The information in this email is intended only for the addressee named<br>
&gt;above. Access to this email by anyone else is unauthorized. If you are<br>
&gt;not the intended recipient of this message any disclosure, copying,<br>
&gt;distribution or any action taken in reliance on it is prohibited and<br>
&gt;may be unlawful. MAGIX does not warrant that any attachments are free<br>
&gt;from viruses or other defects and accepts no liability for any losses<br>
&gt;resulting from infected email transmissions. Please note that any<br>
&gt;views expressed in this email may be those of the originator and do<br>
&gt;not necessarily represent the agenda of the company.<br>
&gt;----------------------------------------------------------------------<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div></div></div>