<div dir="ltr">Hi Steve,<div><br></div><div><div>Here is how quota usage accounting works</div><div><br></div><div>For each file, below extended attributes are set:</div><div><span style="font-size:12.8px">trusted.glusterfs.quota......contri -&gt; This value tells how much size this file/dir has contributed to its parent (key will have a gfid of parent)</span><br></div><div><br></div><div>For each directory, below extended attributes are set:</div><div><span style="font-size:12.8px">trusted.glusterfs.quota.....</span><span style="font-size:12.8px">.contri (not on root, as root doesn&#39;t have parent)</span><br></div><div><span style="font-size:12.8px">trusted.glusterfs.quota.dirty -&gt; this attribute is used for recovery when brick crashes during metadata update<br></span></div><div><span style="font-size:12.8px">trusted.glusterfs.quota.size -&gt; it is the total size of all the files, directories and sub-directories till the leaf node.</span><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px"><br></span></div><div><br></div><div>When a file &quot;/a/b/f1&quot; is changed, then the change in the size needs to be</div><div>updated in the extended attributes of file &#39;f1&#39; and crawl upwards till the root</div><div>and update the extended attributes of the ancestors of file &#39;f1&#39;. This is done independently on each brick.</div><div><br></div><div>Here is the pseudo code</div><div>1) Begin metadata update file update &#39;/a/b/f1&#39;</div><div>2) inode = f1</div><div>3) parent_inode = b</div><div>4) if parent_inode is root goto end</div><div>5) take lock on parent_inode</div><div>6) get new size of inode</div><div>   if inode is a file get size from statbuf</div><div>   if inode is a dir get size from extended attribute</div><div>7) get contribution value from inode</div><div>8) find delta value</div><div>   delta = size - contri</div><div>9) if delta is zero, no update goto end</div><div>10) set dirty flag  on parent_inode</div><div>11) add delta to the inode contri</div><div>12) add delta to size attribute of parent_inode</div><div>13) clear dirty flag on parent_inode</div><div>14) release lock on parent_inode</div><div>15) inode = parent_inode</div><div>16) parent_inode = parent (inode)</div><div>17) goto step 4</div><div>18) End</div><div><br></div><div><br></div><div><div>As mentioned above, if there is a change in any file we get the old metadata value and add the delta to this</div><div>value. So when quota is disable and some stale xattrs are leftover, this value will be used when adding the delta.</div><div>Quota marker cannot identify if the xattr leftover is a newly created attribute or a stale attribute.</div><div>This problem is now solved in 3.7 by using a version number as part of the xattr key. This version number is</div><div>incremented every-time quota is disabled and enabled and even if old entries are not cleaned, looking at the</div><div>version number quota marker identifies that as stale entry and creates a new xattrs with the current version number</div></div><div><br></div><div>Step 11 &amp; 12 should be atomic, hence we use dirty flag. In case if there is a crash during this step.</div><div>When the brick is back online and during a lookup on a directory if dound that dirty flag is set</div><div>below operation is performed</div><div>1) If dirty flag set on a &#39;inode&#39;</div><div>   a) readdir on inode</div><div>   b) get sum of contri attribute of all file/dir entries of inode</div><div>   c) update size attribute of &#39;inode&#39;</div><div>   d) clear dirty flag</div><div><br></div><div><br></div><div>In our previous email, we have provided a workaround to just fix a selected directory from the back-end.</div><div>If volume if not stopped, make sure that no IO happens. Because when you are manually updating the</div><div>xattrs in the back-end, and if IO is happening brick process can also update the xattrs and again you end-up with</div><div>inconsistent accounting.</div><div><br></div><div><br></div><div>Thanks,</div><div>Vijay</div></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Feb 12, 2016 at 1:28 AM, Steve Dainard <span dir="ltr">&lt;<a href="mailto:sdainard@spd1.com" target="_blank">sdainard@spd1.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">What would happen if I:<br>
- Did not disable quotas<br>
- Did not stop the volume (140T volume takes at least 3-4 days to do<br>
any find operations, which is too much downtime)<br>
- Find and remove all xattrs:<br>
trusted.glusterfs.quota.242dcfd9-6aea-4cb8-beb2-c0ed91ad70d3.contri on<br>
the /brick/volumename/modules<br>
- set the dirty bit on /brick/volumename/modules<br>
<br>
As far as an upgrade to 3.7, I&#39;m not comfortable with running the<br>
newest release - which version is RHGS based on? I typically like to<br>
follow supported product version if I can, so I know most of the kinks<br>
are worked out :)<br>
<br>
On Wed, Feb 10, 2016 at 11:02 PM, Manikandan Selvaganesh<br>
<div class="HOEnZb"><div class="h5">&lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt; wrote:<br>
&gt; Hi Steve,<br>
&gt;<br>
&gt; We suspect the mismatching in accounting is probably because of the<br>
&gt; xattr&#39;s being not cleaned up properly. Please ensure you do the following<br>
&gt; steps and make sure the xattr&#39;s are cleaned up properly before quota<br>
&gt; is enabled for the next time.<br>
&gt;<br>
&gt; 1) stop the volume<br>
&gt; 2) on each brick in the backend do<br>
&gt;    Find and remove all the xattrs and make sure they are not present<br>
&gt;      # find &lt;brickpath&gt;/module | xargs getfattr -d -m . -e hex | grep quota | grep -E &#39;contri|size&#39;<br>
&gt;      # setxattr -x xattrname &lt;path&gt;<br>
&gt;<br>
&gt; 3) set dirty on &lt;brickpath&gt;/<br>
&gt;      # setxattr -n trusted.glusterfs.quota.dirty -v 0x3100<br>
&gt;    By setting dirty value on root as 1(0x3100), the contri will be calculated again<br>
&gt;    and the proper contri will be crawled and updated again.<br>
&gt;<br>
&gt; 4) Start volume and from a fuse mount<br>
&gt;        # stat /mountpath<br>
&gt;<br>
&gt; If you have ever performed a rename, then there is a possibility of two contributions<br>
&gt; getting created for a single entry.<br>
&gt;<br>
&gt; We have fixed quite some rename issues and have refactored the marker approach. Also<br>
&gt; as I have mentioned already we have also done Versioning of xattr&#39;s which solves the<br>
&gt; issue you are facing in 3.7. It would be really helpful in a production environment if<br>
&gt; you could upgrade to 3.7<br>
&gt;<br>
&gt; --<br>
&gt; Thanks &amp; Regards,<br>
&gt; Manikandan Selvaganesh.<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt; To: &quot;Manikandan Selvaganesh&quot; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt;<br>
&gt; Cc: &quot;Vijaikumar Mallikarjuna&quot; &lt;<a href="mailto:vmallika@redhat.com">vmallika@redhat.com</a>&gt;, &quot;Gluster Devel&quot; &lt;<a href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</a>&gt;, &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt; Sent: Thursday, February 11, 2016 1:48:19 AM<br>
&gt; Subject: Re: [Gluster-users] Quota list not reflecting disk usage<br>
&gt;<br>
&gt; So after waiting out the process of disabling quotas, waiting for the<br>
&gt; xattrs to be cleaned up, re-enabling quotas and waiting for the<br>
&gt; xattr&#39;s to be created, then applying quotas I&#39;m running into the same<br>
&gt; issue.<br>
&gt;<br>
&gt; Yesterday at ~2pm one of the quotas was listed as:<br>
&gt; /modules|100.0GB|18.3GB|81.7GB<br>
&gt;<br>
&gt; I initiated a copy from that glusterfs fuse mount to another fuse<br>
&gt; mount for a different volume, and now I&#39;m seeing:<br>
&gt; /modules|100.0GB|27.4GB|72.6GB<br>
&gt;<br>
&gt; So an increase of 9GB usage.<br>
&gt;<br>
&gt; There were no writes at all to this directory during or after the cp.<br>
&gt;<br>
&gt; I did a bit of digging through the /modules directory on one of the<br>
&gt; gluster nodes and created this spreadsheet:<br>
&gt; <a href="https://docs.google.com/spreadsheets/d/1l_6ze68TCOcx6LEh9MFwmqPZ9bM-70CUlSM_8tpQ654/edit?usp=sharing" rel="noreferrer" target="_blank">https://docs.google.com/spreadsheets/d/1l_6ze68TCOcx6LEh9MFwmqPZ9bM-70CUlSM_8tpQ654/edit?usp=sharing</a><br>
&gt;<br>
&gt; The /modules/R/3.2.2 directory quota value doesn&#39;t come close to<br>
&gt; matching the du value.<br>
&gt;<br>
&gt; Funny bit, there are TWO quota contribution attributes:<br>
&gt; # getfattr -d -m quota -e hex 3.2.2<br>
&gt; # file: 3.2.2<br>
&gt; trusted.glusterfs.quota.242dcfd9-6aea-4cb8-beb2-c0ed91ad70d3.contri=0x0000000009af6000<br>
&gt; trusted.glusterfs.quota.c890be20-1bb9-4aec-a8d0-eacab0446f16.contri=0x0000000013fda800<br>
&gt; trusted.glusterfs.quota.dirty=0x3000<br>
&gt; trusted.glusterfs.quota.size=0x0000000013fda800<br>
&gt;<br>
&gt; For reference, another directory /modules/R/2.14.2 has only one<br>
&gt; contribution attribute:<br>
&gt; # getfattr -d -m quota -e hex 2.14.2<br>
&gt; # file: 2.14.2<br>
&gt; trusted.glusterfs.quota.c890be20-1bb9-4aec-a8d0-eacab0446f16.contri=0x0000000000692800<br>
&gt; trusted.glusterfs.quota.dirty=0x3000<br>
&gt; trusted.glusterfs.quota.size=0x0000000000692800<br>
&gt;<br>
&gt; Questions:<br>
&gt; 1. Why wasn&#39;t the<br>
&gt; trusted.glusterfs.quota.242dcfd9-6aea-4cb8-beb2-c0ed91ad70d3.contri=0x0000000009af6000<br>
&gt; cleaned up?<br>
&gt; 2A. How can I remove old attributes from the fs, and then force a<br>
&gt; re-calculation of contributions for the quota path /modules once I&#39;ve<br>
&gt; done this on all gluster nodes?<br>
&gt; 2B. Or am I stuck yet again removing quotas completely, waiting for<br>
&gt; the automated setfattr to remove the quotas for<br>
&gt; c890be20-1bb9-4aec-a8d0-eacab0446f16 ID, manually removing attrs for<br>
&gt; 242dcfd9-6aea-4cb8-beb2-c0ed91ad70d3, re-enabling quotas, waiting for<br>
&gt; xattrs to be generated, then enabling limits?<br>
&gt; 3. Shouldn&#39;t there be a command to re-trigger quota accounting on a<br>
&gt; directory that confirms the attrs are set correctly and checks that<br>
&gt; the contribution attr actually match disk usage?<br>
&gt;<br>
&gt; On Tue, Feb 2, 2016 at 3:00 AM, Manikandan Selvaganesh<br>
&gt; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt; wrote:<br>
&gt;&gt; Hi Steve,<br>
&gt;&gt;<br>
&gt;&gt; As you have mentioned, if you are using a glusterfs version lesser than 3.7,<br>
&gt;&gt; then you are doing it right. We are sorry to say but unfortunately that&#39;s the only<br>
&gt;&gt; way(manually going and cleaning up the xattr&#39;s before enabling quota or wait for<br>
&gt;&gt; the process to complete itself, which would take quite some time depending upon the<br>
&gt;&gt; files) that can be done so as not to mess up quota enforcing/accounting. Also, we could<br>
&gt;&gt; not find anything that could help us with the logs too. Thanks for the<br>
&gt;&gt; point. We are in the process of writing blogs and documenting clearly about quota and<br>
&gt;&gt; it&#39;s internal working. There is an initial blog[1] which we have written. More blogs will<br>
&gt;&gt; follow.<br>
&gt;&gt;<br>
&gt;&gt; With glusterfs-3.7, we have introduced something called &quot;Quota versioning&quot;.<br>
&gt;&gt; So whenever you enable quota, we are suffixing a number(1..N) with the quota xattr&#39;s,<br>
&gt;&gt; say you enable quota for the first time and the xattr will be like,<br>
&gt;&gt; &quot;trusted.glusterfs.quota.size.&lt;suffix number from 1..N&gt;&quot;. So all the quota related xattr&#39;s<br>
&gt;&gt; will have the number suffixed to the xattr. With the versioning patch[2], when you disable and<br>
&gt;&gt; enable quota again for the next time, it will be &quot;trusted.glusterfs.quota.size.2&quot;(Similarly<br>
&gt;&gt; for other quota related xattr&#39;s). So quota accounting can happen independently depending on<br>
&gt;&gt; the suffix and the cleanup process can go on independently which solves the issue that you<br>
&gt;&gt; have.<br>
&gt;&gt;<br>
&gt;&gt; [1] <a href="https://manikandanselvaganesh.wordpress.com/" rel="noreferrer" target="_blank">https://manikandanselvaganesh.wordpress.com/</a><br>
&gt;&gt;<br>
&gt;&gt; [2] <a href="http://review.gluster.org/12386" rel="noreferrer" target="_blank">http://review.gluster.org/12386</a><br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Thanks &amp; Regards,<br>
&gt;&gt; Manikandan Selvaganesh.<br>
&gt;&gt;<br>
&gt;&gt; ----- Original Message -----<br>
&gt;&gt; From: &quot;Vijaikumar Mallikarjuna&quot; &lt;<a href="mailto:vmallika@redhat.com">vmallika@redhat.com</a>&gt;<br>
&gt;&gt; To: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt; Cc: &quot;Manikandan Selvaganesh&quot; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt;<br>
&gt;&gt; Sent: Tuesday, February 2, 2016 10:12:51 AM<br>
&gt;&gt; Subject: Re: [Gluster-users] Quota list not reflecting disk usage<br>
&gt;&gt;<br>
&gt;&gt; Hi Steve,<br>
&gt;&gt;<br>
&gt;&gt; Sorry for the delay. Mani and myself was busy with something else at work,<br>
&gt;&gt; we will update you on this by eod.<br>
&gt;&gt;<br>
&gt;&gt; Many quota issues has been fixed in 3.7, also version numbers are added to<br>
&gt;&gt; quota xattrs, so when quota is disabled we don&#39;t need to cleanup the xattrs.<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt; Vijay<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Feb 2, 2016 at 12:26 AM, Steve Dainard &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; I haven&#39;t heard anything back on this thread so here&#39;s where I&#39;ve landed:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; It appears that the quota xattr&#39;s are not being cleared when quota&#39;s<br>
&gt;&gt;&gt; are disabled, so when they are disabled and re-enabled the value for<br>
&gt;&gt;&gt; size is added to the previous size, making it appear that the &#39;Used&#39;<br>
&gt;&gt;&gt; space is significantly greater than it should be. This seems like a<br>
&gt;&gt;&gt; bug, but I don&#39;t know what to file it against, or if the logs I<br>
&gt;&gt;&gt; attached prove this.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Also; the documentation doesn&#39;t make mention of how the quota system<br>
&gt;&gt;&gt; works, and what happens when quotas are enabled/disabled. There seems<br>
&gt;&gt;&gt; to be a background task for both settings:<br>
&gt;&gt;&gt; On enable: &quot;/usr/bin/find . -exec /usr/bin/stat {} \ ;&quot;<br>
&gt;&gt;&gt; On disable: setfattr is removing quota xattrs<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The thing is neither of these tasks are listed in &#39;gluster volume<br>
&gt;&gt;&gt; status &lt;volume&gt;&#39; ie:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Status of volume: storage<br>
&gt;&gt;&gt; Gluster process Port Online Pid<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt; Brick 10.0.231.50:/mnt/raid6-storage/storage 49156 Y 24899<br>
&gt;&gt;&gt; Brick 10.0.231.51:/mnt/raid6-storage/storage 49156 Y 2991<br>
&gt;&gt;&gt; Brick 10.0.231.52:/mnt/raid6-storage/storage 49156 Y 28853<br>
&gt;&gt;&gt; Brick 10.0.231.53:/mnt/raid6-storage/storage 49153 Y 2705<br>
&gt;&gt;&gt; NFS Server on localhost N/A N N/A<br>
&gt;&gt;&gt; Quota Daemon on localhost N/A Y 30066<br>
&gt;&gt;&gt; NFS Server on 10.0.231.52 N/A N N/A<br>
&gt;&gt;&gt; Quota Daemon on 10.0.231.52 N/A Y 24976<br>
&gt;&gt;&gt; NFS Server on 10.0.231.53 N/A N N/A<br>
&gt;&gt;&gt; Quota Daemon on 10.0.231.53 N/A Y 30334<br>
&gt;&gt;&gt; NFS Server on 10.0.231.51 N/A N N/A<br>
&gt;&gt;&gt; Quota Daemon on 10.0.231.51 N/A Y 15781<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Task Status of Volume storage<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt; ******There are no active volume tasks*******<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; (I added the asterisks above)<br>
&gt;&gt;&gt; So without any visibility into these running tasks, or knowing of<br>
&gt;&gt;&gt; their existence (not documented) it becomes very difficult to know<br>
&gt;&gt;&gt; what&#39;s going on. On any reasonably large storage system these tasks<br>
&gt;&gt;&gt; take days to complete and there should be some indication of this.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Where I&#39;m at right now:<br>
&gt;&gt;&gt; - I disabled the quota&#39;s on volume &#39;storage&#39;<br>
&gt;&gt;&gt; - I started to manually remove xattrs until I realized there is an<br>
&gt;&gt;&gt; automated task to do this.<br>
&gt;&gt;&gt; - After waiting for &#39;ps aux | grep setfattr&#39; to return nothing, I<br>
&gt;&gt;&gt; re-enabled quotas<br>
&gt;&gt;&gt; - I&#39;m currently waiting for the stat tasks to complete<br>
&gt;&gt;&gt; - Once the entire filesystem has been stat&#39;ed, I&#39;m going to set limits<br>
&gt;&gt;&gt; again.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; As a note, this is a pretty brutal process on a system with 140T of<br>
&gt;&gt;&gt; storage, and I can&#39;t imagine how much worse this would be if my nodes<br>
&gt;&gt;&gt; had more than 12 disks per, or if I was at PB scale.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Mon, Jan 25, 2016 at 12:31 PM, Steve Dainard &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt; Here&#39;s a l link to a tarball of one of the gluster hosts logs:<br>
&gt;&gt;&gt; &gt; <a href="https://dl.dropboxusercontent.com/u/21916057/gluster01.tar.gz" rel="noreferrer" target="_blank">https://dl.dropboxusercontent.com/u/21916057/gluster01.tar.gz</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; I wanted to include past logs in case they were useful.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Also, the volume I&#39;m trying to get quota&#39;s working on is &#39;storage&#39;<br>
&gt;&gt;&gt; &gt; you&#39;ll notice I have a brick issue on a different volume &#39;vm-storage&#39;.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; In regards to the 3.7 upgrade. I&#39;m a bit hesitant to move to the<br>
&gt;&gt;&gt; &gt; current release, I prefer to stay on a stable release with maintenance<br>
&gt;&gt;&gt; &gt; updates if possible.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; On Mon, Jan 25, 2016 at 12:09 PM, Manikandan Selvaganesh<br>
&gt;&gt;&gt; &gt; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt; Hi Steve,<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Also, do you have any plans to upgrade to the latest version. With 3.7,<br>
&gt;&gt;&gt; &gt;&gt; we have re factored some approaches used in quota and marker and that<br>
&gt;&gt;&gt; have<br>
&gt;&gt;&gt; &gt;&gt; fixed quite some issues.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt; Thanks &amp; Regards,<br>
&gt;&gt;&gt; &gt;&gt; Manikandan Selvaganesh.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; ----- Original Message -----<br>
&gt;&gt;&gt; &gt;&gt; From: &quot;Manikandan Selvaganesh&quot; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; To: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; Cc: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; Sent: Tuesday, January 26, 2016 1:31:10 AM<br>
&gt;&gt;&gt; &gt;&gt; Subject: Re: [Gluster-users] Quota list not reflecting disk usage<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Hi Steve,<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Could you send us the glusterfs logs, it could help us debug the issue!!<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt; Thanks &amp; Regards,<br>
&gt;&gt;&gt; &gt;&gt; Manikandan Selvaganesh.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; ----- Original Message -----<br>
&gt;&gt;&gt; &gt;&gt; From: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; To: &quot;Manikandan Selvaganesh&quot; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; Cc: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; Sent: Tuesday, January 26, 2016 12:56:22 AM<br>
&gt;&gt;&gt; &gt;&gt; Subject: Re: [Gluster-users] Quota list not reflecting disk usage<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Something is seriously wrong with the quota output:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; # gluster volume quota storage list<br>
&gt;&gt;&gt; &gt;&gt;                   Path                   Hard-limit Soft-limit   Used<br>
&gt;&gt;&gt; &gt;&gt; Available  Soft-limit exceeded? Hard-limit exceeded?<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; ---------------------------------------------------------------------------------------------------------------------------<br>
&gt;&gt;&gt; &gt;&gt; /projects-CanSISE                         10.0TB       80%      27.8TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/climate                           105.0TB       80%     307.1TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/forestry                           50.0GB       80%      61.9GB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/projects                          800.0GB       80%       2.0TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/strays                             85.0GB       80%     230.5GB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/gis                                 2.2TB       80%       6.3TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/modperl                             1.0TB       80%     953.2GB<br>
&gt;&gt;&gt; &gt;&gt;  70.8GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/dem                                 1.0GB       80%      0Bytes<br>
&gt;&gt;&gt; &gt;&gt;   1.0GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-hydrology-archive0               5.0TB       80%      14.4TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /climate-downscale-idf-ec                  7.5TB       80%       5.1TB<br>
&gt;&gt;&gt; &gt;&gt;   2.4TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /climate-downscale-idf                     5.0TB       80%       6.1TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /home                                      5.0TB       80%      11.8TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /projects-hydrology-scratch0               7.0TB       80%     169.1GB<br>
&gt;&gt;&gt; &gt;&gt;   6.8TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-rci-scratch                     10.0TB       80%       1.9TB<br>
&gt;&gt;&gt; &gt;&gt;   8.1TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-dataportal                       1.0TB       80%     775.4GB<br>
&gt;&gt;&gt; &gt;&gt; 248.6GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /modules                                   1.0TB       80%      36.1GB<br>
&gt;&gt;&gt; &gt;&gt; 987.9GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/climate/downscale/CMIP5            65.0TB       80%      56.4TB<br>
&gt;&gt;&gt; &gt;&gt;   8.6TB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Gluster is listing &#39;Used&#39; space of over 307TB on /data4/climate, but<br>
&gt;&gt;&gt; &gt;&gt; the volume capacity is only 146T.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; This has happened after disabling quotas on the volume, re-enabling<br>
&gt;&gt;&gt; &gt;&gt; quotas, and then setting quotas again. There was a lot of glusterfsd<br>
&gt;&gt;&gt; &gt;&gt; CPU usage afterwards, and now 3 days later the quota&#39;s I set were all<br>
&gt;&gt;&gt; &gt;&gt; missing except<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; /data4/projects|800.0GB|2.0TB|0Bytes<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; So I re-set the quotas and the output above is what I have.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Previous to disabling quota&#39;s this was the output:<br>
&gt;&gt;&gt; &gt;&gt; # gluster volume quota storage list<br>
&gt;&gt;&gt; &gt;&gt;                   Path                   Hard-limit Soft-limit   Used<br>
&gt;&gt;&gt; &gt;&gt; Available  Soft-limit exceeded? Hard-limit exceeded?<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; ---------------------------------------------------------------------------------------------------------------------------<br>
&gt;&gt;&gt; &gt;&gt; /data4/climate                           105.0TB       80%     151.6TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /data4/forestry                           50.0GB       80%      45.4GB<br>
&gt;&gt;&gt; &gt;&gt;   4.6GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/projects                          800.0GB       80%     753.1GB<br>
&gt;&gt;&gt; &gt;&gt;  46.9GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/strays                             85.0GB       80%      80.8GB<br>
&gt;&gt;&gt; &gt;&gt;   4.2GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/gis                                 2.2TB       80%       2.1TB<br>
&gt;&gt;&gt; &gt;&gt;  91.8GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/modperl                             1.0TB       80%     948.1GB<br>
&gt;&gt;&gt; &gt;&gt;  75.9GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/dem                                 1.0GB       80%      0Bytes<br>
&gt;&gt;&gt; &gt;&gt;   1.0GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-CanSISE                         10.0TB       80%      11.9TB<br>
&gt;&gt;&gt; &gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt; /projects-hydrology-archive0               5.0TB       80%       4.8TB<br>
&gt;&gt;&gt; &gt;&gt; 174.0GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /climate-downscale-idf-ec                  7.5TB       80%       5.0TB<br>
&gt;&gt;&gt; &gt;&gt;   2.5TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /climate-downscale-idf                     5.0TB       80%       3.8TB<br>
&gt;&gt;&gt; &gt;&gt;   1.2TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /home                                      5.0TB       80%       4.7TB<br>
&gt;&gt;&gt; &gt;&gt; 283.8GB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-hydrology-scratch0               7.0TB       80%      95.9GB<br>
&gt;&gt;&gt; &gt;&gt;   6.9TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-rci-scratch                     10.0TB       80%       1.7TB<br>
&gt;&gt;&gt; &gt;&gt;   8.3TB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /projects-dataportal                       1.0TB       80%     775.4GB<br>
&gt;&gt;&gt; &gt;&gt; 248.6GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /modules                                   1.0TB       80%      14.6GB<br>
&gt;&gt;&gt; &gt;&gt; 1009.4GB              No                   No<br>
&gt;&gt;&gt; &gt;&gt; /data4/climate/downscale/CMIP5            65.0TB       80%      56.4TB<br>
&gt;&gt;&gt; &gt;&gt;   8.6TB             Yes                   No<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; I was so focused on the /projects-CanSISE quota not being accurate<br>
&gt;&gt;&gt; &gt;&gt; that I missed that the &#39;Used&#39; space on /data4/climate is listed higher<br>
&gt;&gt;&gt; &gt;&gt; then the total gluster volume capacity.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; On Mon, Jan 25, 2016 at 10:52 AM, Steve Dainard &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt; Hi Manikandan<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; I&#39;m using &#39;du&#39; not df in this case.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; On Thu, Jan 21, 2016 at 9:20 PM, Manikandan Selvaganesh<br>
&gt;&gt;&gt; &gt;&gt;&gt; &lt;<a href="mailto:mselvaga@redhat.com">mselvaga@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Hi Steve,<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; If you would like disk usage using df utility by taking quota limits<br>
&gt;&gt;&gt; into<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; consideration, then you are expected to run the following command.<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;    &#39;gluster volume set VOLNAME quota-deem-statfs on&#39;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; with older versions where quota-deem-statfs is OFF by default.<br>
&gt;&gt;&gt; However with<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; the latest versions, quota-deem-statfs is by default ON. In this<br>
&gt;&gt;&gt; case, the total<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; disk space of the directory is taken as the quota hard limit set on<br>
&gt;&gt;&gt; the directory<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; of the volume and disk utility would display accordingly. This<br>
&gt;&gt;&gt; answers why there is<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; a mismatch in disk utility.<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Next, answering to quota mechanism and accuracy: There is something<br>
&gt;&gt;&gt; called timeouts<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; in quota. For performance reasons, quota caches the directory size on<br>
&gt;&gt;&gt; client. You can<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; set timeout indicating the maximum valid duration of directory sizes<br>
&gt;&gt;&gt; in cache,<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; from the time they are populated. By default the hard-timeout is 5s<br>
&gt;&gt;&gt; and soft timeout<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; is 60s. Setting a timeout of zero will do a force fetching of<br>
&gt;&gt;&gt; directory sizes from server<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; for every operation that modifies file data and will effectively<br>
&gt;&gt;&gt; disables directory size<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; caching on client side. If you do not have a timeout of 0(which we do<br>
&gt;&gt;&gt; not encourage due to<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; performance reasons), then till you reach soft-limit, soft timeout<br>
&gt;&gt;&gt; will be taken into<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; consideration, and only for every 60s operations will be synced and<br>
&gt;&gt;&gt; that could cause the<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; usage to exceed more than the hard-limit specified. If you would like<br>
&gt;&gt;&gt; quota to<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; strictly enforce then please run the following commands,<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;     &#39;gluster v quota VOLNAME hard-timeout 0s&#39;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;     &#39;gluster v quota VOLNAME soft-timeout 0s&#39;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Appreciate your curiosity in exploring and if you would like to know<br>
&gt;&gt;&gt; more about quota<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; please refer[1]<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; [1]<br>
&gt;&gt;&gt; <a href="http://gluster.readthedocs.org/en/release-3.7.0-1/Administrator%20Guide/Directory%20Quota/" rel="noreferrer" target="_blank">http://gluster.readthedocs.org/en/release-3.7.0-1/Administrator%20Guide/Directory%20Quota/</a><br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Thanks &amp; Regards,<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Manikandan Selvaganesh.<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; ----- Original Message -----<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; From: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a> List&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Sent: Friday, January 22, 2016 1:40:07 AM<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Subject: Re: [Gluster-users] Quota list not reflecting disk usage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; This is gluster 3.6.6.<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; I&#39;ve attempted to disable and re-enable quota&#39;s on the volume, but<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; when I re-apply the quotas on each directory the same &#39;Used&#39; value is<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; present as before.<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Where is quotad getting its information from, and how can I clean<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; up/regenerate that info?<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; On Thu, Jan 21, 2016 at 10:07 AM, Steve Dainard &lt;<a href="mailto:sdainard@spd1.com">sdainard@spd1.com</a>&gt;<br>
&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; I have a distributed volume with quota&#39;s enabled:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Volume Name: storage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Type: Distribute<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Volume ID: 26d355cb-c486-481f-ac16-e25390e73775<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Status: Started<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Number of Bricks: 4<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Transport-type: tcp<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Bricks:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Brick1: 10.0.231.50:/mnt/raid6-storage/storage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Brick2: 10.0.231.51:/mnt/raid6-storage/storage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Brick3: 10.0.231.52:/mnt/raid6-storage/storage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Brick4: 10.0.231.53:/mnt/raid6-storage/storage<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Options Reconfigured:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; performance.cache-size: 1GB<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; performance.readdir-ahead: on<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; features.quota: on<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; diagnostics.brick-log-level: WARNING<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Here is a partial list of quotas:<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; # /usr/sbin/gluster volume quota storage list<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;                   Path                   Hard-limit Soft-limit   Used<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Available  Soft-limit exceeded? Hard-limit exceeded?<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; ---------------------------------------------------------------------------------------------------------------------------<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; ...<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; /projects-CanSISE                         10.0TB       80%<br>
&gt;&gt;&gt; 11.9TB<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;  0Bytes             Yes                  Yes<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; ...<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; If I du on that location I do not get 11.9TB of space used (fuse<br>
&gt;&gt;&gt; mount point):<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; [root@storage projects-CanSISE]# du -hs<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; 9.5T .<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Can someone provide an explanation for how the quota mechanism tracks<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; disk usage? How often does the quota mechanism check its accuracy?<br>
&gt;&gt;&gt; And<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; how could it get so far off?<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Can I get gluster to rescan that location and update the quota usage?<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Thanks,<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt;&gt; Steve<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; &gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; &gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt; &gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; &gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;<br>
</div></div></blockquote></div><br></div>