<HTML><HEAD>
<STYLE id=eMClientCss>
blockquote.cite { margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc }
blockquote.cite2 {margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc; margin-top: 3px; padding-top: 0px; }
.plain pre, .plain tt { font-family: monospace; font-size: 100%; font-weight: normal; font-style: normal; white-space: pre-wrap; }
a img { border: 0px; }body {font-family: Times New Roman;font-size: 12pt;}
.plain pre, .plain tt {font-family: Times New Roman;font-size: 12pt;}</STYLE>
</HEAD>
<BODY scroll=auto class>
<DIV>Do you think this issue is related to the one seen when you have 'ls' aliased to 'ls -F' or 'ls --color=auto'?&nbsp;</DIV>
<DIV>I included a snippet from a previous email that I had sent to the gluster devels (see below).</DIV>
<DIV>&nbsp;</DIV>
<DIV>David</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV>
<DIV><EM><FONT size=2>&gt; My code developers were moved over to the gluster 3.6.1 system and were<BR>&gt; struggling to use it due to extremely poor performance. The issue was<BR>&gt; when you went into a directory for the first time, the system would hang<BR>&gt; for 5-10 seconds before letting you list the contents of the<BR>&gt; directories. This was worse for directories with larger numbers of<BR>&gt; files (approx. 200 files). I noticed that this only happened for<BR>&gt; certain users and ended up tracing it out to alias settings for the "ls"<BR>&gt; command.<BR>&gt;<BR>&gt; 'ls -F'<BR>&gt; or<BR>&gt; alias ls='ls --color=auto' #.... Default alias setting for bash<BR>&gt;<BR>&gt; Without these settings, the ls on a new directory takes less than a<BR>&gt; second. With either of these alias settings, it can take 5-10 seconds<BR>&gt; which makes code development extremely difficult. Note that after you<BR>&gt; do an ls in a directory once, you can repeat it without the severe lag.<BR>&gt; I assume it is caching this information.<BR><BR>Ahhh yeah. I'm pretty sure this one is a known problem, with the root cause<BR>being that some options for ls cause it to do a stat against every file in<BR>the directory (which then has to reach out to every server, for each file,<BR>to find out which one has the latest info to report back).</FONT></EM></DIV>
<DIV>&nbsp;</DIV>
<DIV>------ Original Message ------</DIV>
<DIV>From: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;</DIV>
<DIV>To: "David Robinson" &lt;<A href="mailto:drobinson@corvidtec.com">drobinson@corvidtec.com</A>&gt;</DIV>
<DIV>Cc: "Ernie Dunbar" &lt;<A href="mailto:maillist@lightspeed.ca">maillist@lightspeed.ca</A>&gt;; "Gluster Users" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;</DIV>
<DIV>Sent: 4/27/2015 5:56:02 PM</DIV>
<DIV>Subject: Re: Re[2]: [Gluster-users] Disastrous performance with rsync to mounted Gluster volume.</DIV>
<DIV>&nbsp;</DIV>
<DIV id=xa442b4ecd81243f8ba9a2c8331f55ca6>
<BLOCKQUOTE class=cite2 type="cite">
<DIV>----- Original Message -----</DIV>
<BLOCKQUOTE class=cite type="cite">
<DIV>&nbsp;From: "David Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;</DIV>
<DIV>&nbsp;To: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;, "Ernie Dunbar" &lt;<A href="mailto:maillist@lightspeed.ca">maillist@lightspeed.ca</A>&gt;</DIV>
<DIV>&nbsp;Cc: "Gluster Users" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;</DIV>
<DIV>&nbsp;Sent: Monday, April 27, 2015 5:21:08 PM</DIV>
<DIV>&nbsp;Subject: Re[2]: [Gluster-users] Disastrous performance with rsync to mounted Gluster volume.</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;I am also having a terrible time with rsync and gluster. &nbsp;The vast</DIV>
<DIV>&nbsp;majority of my time is spent figuring out what to sync... &nbsp;This sync</DIV>
<DIV>&nbsp;takes 17-hours even though very little data is being transferred.</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;sent 120,523 bytes &nbsp;received 74,485,191,265 bytes &nbsp;1,210,720.02</DIV>
<DIV>&nbsp;bytes/sec</DIV>
<DIV>&nbsp;total size is 27,589,660,889,910 &nbsp;speedup is 370.40</DIV>
<DIV>&nbsp;</DIV></BLOCKQUOTE>
<DIV>&nbsp;</DIV>
<DIV>Maybe we could try something to confirm / deny my theory. &nbsp;What about asking rsync to ignore anything that could differ between bricks in a replicated pair. &nbsp;A couple options I see are:</DIV>
<DIV>&nbsp;</DIV>
<DIV>--size-only means that rsync will skip files that match in size, even if the timestamps differ. This means it will synchronise less files than the default behaviour. It will miss any file with changes that don't affect the overall file size.</DIV>
<DIV>&nbsp;</DIV>
<DIV>--ignore-times means that rsync will checksum every file, even if the timestamps and file sizes match. This means it will synchronise more files than the default behaviour. It will include changes to files even where the file size is the same and the modification date/time has been reset to the original value (resetting the date/time is unlikely to be done in practise, but it could happen).</DIV>
<DIV>&nbsp;</DIV>
<DIV>These may also help, but it looks more to be for recovering from brick failures:</DIV>
<DIV>&nbsp;</DIV>
<DIV><A href="http://blog.gluster.org/category/rsync/">http://blog.gluster.org/category/rsync/</A></DIV>
<DIV><A href="https://mjanja.ch/2014/07/parallelizing-rsync/?utm_source=rss&amp;utm_medium=rss&amp;utm_campaign=parallelizing-rsync#sync_brick">https://mjanja.ch/2014/07/parallelizing-rsync/?utm_source=rss&amp;utm_medium=rss&amp;utm_campaign=parallelizing-rsync#sync_brick</A></DIV>
<DIV>&nbsp;</DIV>
<DIV>I'll try some stuff in the lab and see if I can come up with RCA or something that helps.</DIV>
<DIV>&nbsp;</DIV>
<DIV>-b</DIV>
<DIV>&nbsp;</DIV>
<BLOCKQUOTE class=cite type="cite">
<DIV>&nbsp;</DIV>
<DIV>&nbsp;------ Original Message ------</DIV>
<DIV>&nbsp;From: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;</DIV>
<DIV>&nbsp;To: "Ernie Dunbar" &lt;<A href="mailto:maillist@lightspeed.ca">maillist@lightspeed.ca</A>&gt;</DIV>
<DIV>&nbsp;Cc: "Gluster Users" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;</DIV>
<DIV>&nbsp;Sent: 4/27/2015 4:52:35 PM</DIV>
<DIV>&nbsp;Subject: Re: [Gluster-users] Disastrous performance with rsync to</DIV>
<DIV>&nbsp;mounted Gluster volume.</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;&gt;----- Original Message -----</DIV>
<DIV>&nbsp;&gt;&gt; From: "Ernie Dunbar" &lt;<A href="mailto:maillist@lightspeed.ca">maillist@lightspeed.ca</A>&gt;</DIV>
<DIV>&nbsp;&gt;&gt; To: "Gluster Users" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Sent: Monday, April 27, 2015 4:24:56 PM</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Subject: Re: [Gluster-users] Disastrous performance with rsync to</DIV>
<DIV>&nbsp;&gt;&gt;mounted Gluster volume.</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;On 2015-04-24 11:43, Joe Julian wrote:</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; This should get you where you need to be. &nbsp;Before you start to</DIV>
<DIV>&nbsp;&gt;&gt;migrate</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; the data maybe do a couple DDs and send me the output so we can</DIV>
<DIV>&nbsp;&gt;&gt;get an</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; idea of how your cluster performs:</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; time `dd if=/dev/zero of=&lt;gluster-mount&gt;/myfile bs=1024k</DIV>
<DIV>&nbsp;&gt;&gt;count=1000;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; sync`</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; echo 3 &gt; /proc/sys/vm/drop_caches</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; dd if=&lt;gluster mount&gt; of=/dev/null bs=1024k count=1000</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; If you are using gigabit and glusterfs mounts with replica 2 you</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; should get ~55 MB / sec writes and ~110 MB / sec reads. &nbsp;With NFS</DIV>
<DIV>&nbsp;&gt;&gt;you</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; will take a bit of a hit since NFS doesnt know where files live</DIV>
<DIV>&nbsp;&gt;&gt;like</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;&gt;&gt; glusterfs does.</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;After copying our data and doing a couple of very slow rsyncs, I did</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;your speed test and came back with these results:</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1048576 bytes (1.0 MB) copied, 0.0307951 s, 34.1 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=1024 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1024+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1024+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1048576 bytes (1.0 MB) copied, 0.0298592 s, 35.1 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=1024 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1024+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1024+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1048576 bytes (1.0 MB) copied, 0.0501495 s, 20.9 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# echo 3 &gt; /proc/sys/vm/drop_caches</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# # dd if=/mnt/testfile of=/dev/null</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;bs=1024k count=1000</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;1048576 bytes (1.0 MB) copied, 0.0124498 s, 84.2 MB/s</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Keep in mind that this is an NFS share over the network.</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;I've also noticed that if I increase the count of those writes, the</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;transfer speed increases as well:</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2097152 bytes (2.1 MB) copied, 0.036291 s, 57.8 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=2048 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2048+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2048+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2097152 bytes (2.1 MB) copied, 0.0362724 s, 57.8 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=2048 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2048+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2048+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;2097152 bytes (2.1 MB) copied, 0.0360319 s, 58.2 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=10240 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10240+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10240+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10485760 bytes (10 MB) copied, 0.127219 s, 82.4 MB/s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;root@backup:/home/webmailbak# dd if=/dev/zero of=/mnt/testfile</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;count=10240 bs=1024; sync</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10240+0 records in</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10240+0 records out</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;10485760 bytes (10 MB) copied, 0.128671 s, 81.5 MB/s</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;This is correct, there is overhead that happens with small files and</DIV>
<DIV>&nbsp;&gt;the smaller the file the less throughput you get. &nbsp;That said, since</DIV>
<DIV>&nbsp;&gt;files are smaller you should get more files / second but less MB /</DIV>
<DIV>&nbsp;&gt;second. &nbsp;I have found that when you go under 16k changing files size</DIV>
<DIV>&nbsp;&gt;doesn't matter, you will get the same number of 16k files / second as</DIV>
<DIV>&nbsp;&gt;you do 1 k files.</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;However, the biggest stumbling block for rsync seems to be changes to</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;directories. I'm unsure about what exactly it's doing (probably</DIV>
<DIV>&nbsp;&gt;&gt;changing</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;last access times?) but these minor writes seem to take a very long</DIV>
<DIV>&nbsp;&gt;&gt;time</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;when normally they would not. Actual file copies (as in the very</DIV>
<DIV>&nbsp;&gt;&gt;files</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;that are actually new within those same directories) appear to take</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;quite a lot less time than the directory updates.</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;Dragons be here! &nbsp;Access time is not kept in sync across the</DIV>
<DIV>&nbsp;&gt;replicas(IIRC, someone correct me if I am wrong!) and each time a dir</DIV>
<DIV>&nbsp;&gt;is read from a different brick I bet the access time is different.</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;For example:</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;# time rsync -av --inplace --whole-file --ignore-existing</DIV>
<DIV>&nbsp;&gt;&gt;--delete-after</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;gromm/* /mnt/gromm/</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;building file list ... done</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/ &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;## This part takes a long time.</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/.INBOX.Trash/</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/.INBOX.Trash/cur/</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;Maildir/.INBOX.Trash/cur/1429836077.H817602P21531.pop.lightspeed.ca:2,S</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/.INBOX.Trash/tmp/ &nbsp; &nbsp; &nbsp; ## The previous three lines took</DIV>
<DIV>&nbsp;&gt;&gt;nearly</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;no time at all.</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/cur/ &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;## This takes a long time.</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/cur/1430160436.H952679P13870.pop.lightspeed.ca:2,S</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/new/</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Maildir/tmp/ &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;## The previous lines again take no</DIV>
<DIV>&nbsp;&gt;&gt;time</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;at all.</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;deleting Maildir/cur/1429836077.H817602P21531.pop.lightspeed.ca:2,S</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;## This delete did take a while.</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;sent 1327634 bytes &nbsp;received 75 bytes &nbsp;59009.29 bytes/sec</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;total size is 624491648 &nbsp;speedup is 470.35</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;real 0m26.110s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;user 0m0.140s</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;sys 0m1.596s</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;So, rsync reports that it wrote 1327634 bytes at 59 kBytes/sec, and</DIV>
<DIV>&nbsp;&gt;&gt;the</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;whole operation took 26 seconds. To write 2 files that were around</DIV>
<DIV>&nbsp;&gt;&gt;20-30</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;kBytes each and delete 1.</DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;The last rsync took around 56 minutes, when normally such an rsync</DIV>
<DIV>&nbsp;&gt;&gt;would</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;have taken 5-10 minutes, writing over the network via ssh.</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;It may have something to do with the access times not being in sync</DIV>
<DIV>&nbsp;&gt;across replicated pairs. &nbsp;Maybe some has experience with this / could</DIV>
<DIV>&nbsp;&gt;this be tripping up rsync?</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;-b</DIV>
<DIV>&nbsp;&gt;</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;_______________________________________________</DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;Gluster-users mailing list</DIV>
<DIV>&nbsp;&gt;&gt; <A href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</A></DIV>
<DIV>&nbsp;&gt;&gt; &nbsp;<A href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</A></DIV>
<DIV>&nbsp;&gt;&gt;</DIV>
<DIV>&nbsp;&gt;_______________________________________________</DIV>
<DIV>&nbsp;&gt;Gluster-users mailing list</DIV>
<DIV>&nbsp;&gt;<A href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</A></DIV>
<DIV>&nbsp;&gt;<A href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</A></DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV></BLOCKQUOTE></BLOCKQUOTE></DIV></BODY></HTML>