<HTML><HEAD>
<STYLE id=eMClientCss>blockquote.cite { margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc }
blockquote.cite2 {margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc; margin-top: 3px; padding-top: 0px; }
.plain pre, .plain tt { font-family: monospace; font-size: 100%; font-weight: normal; font-style: normal; }
a img { border: 0px; }body {font-family: Calibri;font-size: 11pt;}
.plain pre, .plain tt {font-family: Calibri;font-size: 11pt;}
</STYLE>

<STYLE></STYLE>
</HEAD>
<BODY scroll=auto class>
<DIV>copy that.&nbsp; Thanks for looking into the issue.</DIV>
<DIV>&nbsp;</DIV>
<DIV>David</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV>
<DIV>------ Original Message ------</DIV>
<DIV>From: "Benjamin Turner" &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;</DIV>
<DIV>To: "David F. Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;</DIV>
<DIV>Cc: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;; "Pranith Kumar Karampuri" &lt;<A href="mailto:pkarampu@redhat.com">pkarampu@redhat.com</A>&gt;; "Xavier Hernandez" &lt;<A href="mailto:xhernandez@datalab.es">xhernandez@datalab.es</A>&gt;; "gluster-users@gluster.org" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;; "Gluster Devel" &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;</DIV>
<DIV>Sent: 2/5/2015 9:05:43 PM</DIV>
<DIV>Subject: Re: [Gluster-users] [Gluster-devel] missing files</DIV>
<DIV>&nbsp;</DIV>
<DIV id=x52df4b3652a1437b9c8982dd4c56f5bd>
<BLOCKQUOTE class=cite2 cite=CA+zRGOQduuDL9wf2zRDbZTx3=94fDuHyjsZf=3U_pZH8zMPjZg@mail.gmail.com type="cite">
<DIV dir=ltr>Correct!&nbsp; I have seen(back in the day, its been 3ish years since I have seen it) having say 50+ volumes each with a geo rep session take system load levels to the point where pings couldn't be serviced within the ping timeout.&nbsp; So it is known to happen but there has been alot of work in the geo rep space to help here, some of which is discussed: 
<DIV><BR></DIV>
<DIV><A href="https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50">https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50</A></DIV>
<DIV><BR></DIV>
<DIV>(think tar + ssh and other fixes)Your symptoms remind me of that case of 50+ geo repd volumes, thats why I mentioned it from the start.&nbsp; My current shoot from the hip theory is when rsyncing all that data the servers got too busy to service the pings and it lead to disconnects.&nbsp; This is common across all of the clustering / distributed software I have worked on, if the system gets too busy to service heartbeat within the timeout things go crazy(think fork bomb on a single host).&nbsp; Now this could be a case of me putting symptoms from an old issue into what you are describing, but thats where my head is at.&nbsp; If I'm correct I should be able to repro using a similar workload.&nbsp; I think that the multi threaded epoll changes that _just_ landed in master will help resolve this, but they are so new I haven't been able to test this.&nbsp; I'll know more when I get a chance to test tomorrow.</DIV>
<DIV><BR></DIV>
<DIV>-b<BR>
<DIV class=gmail_extra><BR>
<DIV class=gmail_quote>On Thu, Feb 5, 2015 at 6:04 PM, David F. Robinson <SPAN dir=ltr>&lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;</SPAN> wrote:<BR>
<BLOCKQUOTE class=gmail_quote style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: rgb(204,204,204) 1px solid">Isn't rsync what geo-rep uses?<BR><SPAN class=im><BR>David&nbsp; (Sent from mobile)<BR><BR>===============================<BR>David F. Robinson, Ph.D.<BR>President - Corvid Technologies<BR><A href="tel:704.799.6944%20x101" value="+17047996944">704.799.6944 x101</A>&nbsp;[office]<BR><A href="tel:704.252.1310" value="+17042521310">704.252.1310</A>&nbsp; &nbsp; &nbsp; [cell]<BR><A href="tel:704.799.7974" value="+17047997974">704.799.7974</A>&nbsp; &nbsp; &nbsp; [fax]<BR><A href="mailto:David.Robinson@corvidtec.com">David.Robinson@corvidtec.com</A><BR><A href="http://www.corvidtechnologies.com/">http://www.corvidtechnologies.com</A><BR><BR></SPAN>
<DIV>
<DIV class=h5>&gt; On Feb 5, 2015, at 5:41 PM, Ben Turner &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt; wrote:<BR>&gt;<BR>&gt; ----- Original Message -----<BR>&gt;&gt; From: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;<BR>&gt;&gt; To: "David F. Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;<BR>&gt;&gt; Cc: "Pranith Kumar Karampuri" &lt;<A href="mailto:pkarampu@redhat.com">pkarampu@redhat.com</A>&gt;, "Xavier Hernandez" &lt;<A href="mailto:xhernandez@datalab.es">xhernandez@datalab.es</A>&gt;, "Benjamin Turner"<BR>&gt;&gt; &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;, <A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>, "Gluster Devel" &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;<BR>&gt;&gt; Sent: Thursday, February 5, 2015 5:22:26 PM<BR>&gt;&gt; Subject: Re: [Gluster-users] [Gluster-devel] missing files<BR>&gt;&gt;<BR>&gt;&gt; ----- Original Message -----<BR>&gt;&gt;&gt; From: "David F. Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;<BR>&gt;&gt;&gt; To: "Ben Turner" &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt;<BR>&gt;&gt;&gt; Cc: "Pranith Kumar Karampuri" &lt;<A href="mailto:pkarampu@redhat.com">pkarampu@redhat.com</A>&gt;, "Xavier Hernandez"<BR>&gt;&gt;&gt; &lt;<A href="mailto:xhernandez@datalab.es">xhernandez@datalab.es</A>&gt;, "Benjamin Turner"<BR>&gt;&gt;&gt; &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;, <A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>, "Gluster Devel"<BR>&gt;&gt;&gt; &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;<BR>&gt;&gt;&gt; Sent: Thursday, February 5, 2015 5:01:13 PM<BR>&gt;&gt;&gt; Subject: Re: [Gluster-users] [Gluster-devel] missing files<BR>&gt;&gt;&gt;<BR>&gt;&gt;&gt; I'll send you the emails I sent Pranith with the logs. What causes these<BR>&gt;&gt;&gt; disconnects?<BR>&gt;&gt;<BR>&gt;&gt; Thanks David!&nbsp; Disconnects happen when there are interruption in<BR>&gt;&gt; communication between peers, normally there is ping timeout that happens.<BR>&gt;&gt; It could be anything from a flaky NW to the system was to busy to respond<BR>&gt;&gt; to the pings.&nbsp; My initial take is more towards the ladder as rsync is<BR>&gt;&gt; absolutely the worst use case for gluster - IIRC it writes in 4kb blocks.&nbsp; I<BR>&gt;&gt; try to keep my writes at least 64KB as in my testing that is the smallest<BR>&gt;&gt; block size I can write with before perf starts to really drop off.&nbsp; I'll try<BR>&gt;&gt; something similar in the lab.<BR>&gt;<BR>&gt; Ok I do think that the file being self healed is RCA for what you were seeing.&nbsp; Lets look at one of the disconnects:<BR>&gt;<BR>&gt; data-brick02a-homegfs.log:[2015-02-03 20:54:02.772180] I [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting connection from gfs01b.corvidtec.com-4175-2015/02/02-16:44:31:179119-homegfs-client-2-0-1<BR>&gt;<BR>&gt; And in the glustershd.log from the gfs01b_glustershd.log file:<BR>&gt;<BR>&gt; [2015-02-03 20:55:48.001797] I [afr-self-heal-entry.c:554:afr_selfheal_entry_do] 0-homegfs-replicate-0: performing entry selfheal on 6c79a368-edaa-432b-bef9-ec690ab42448<BR>&gt; [2015-02-03 20:55:49.341996] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-homegfs-replicate-0: Completed entry selfheal on 6c79a368-edaa-432b-bef9-ec690ab42448. source=1 sinks=0<BR>&gt; [2015-02-03 20:55:49.343093] I [afr-self-heal-entry.c:554:afr_selfheal_entry_do] 0-homegfs-replicate-0: performing entry selfheal on 792cb0d6-9290-4447-8cd7-2b2d7a116a69<BR>&gt; [2015-02-03 20:55:50.463652] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-homegfs-replicate-0: Completed entry selfheal on 792cb0d6-9290-4447-8cd7-2b2d7a116a69. source=1 sinks=0<BR>&gt; [2015-02-03 20:55:51.465289] I [afr-self-heal-metadata.c:54:__afr_selfheal_metadata_do] 0-homegfs-replicate-0: performing metadata selfheal on 403e661a-1c27-4e79-9867-c0572aba2b3c<BR>&gt; [2015-02-03 20:55:51.466515] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-homegfs-replicate-0: Completed metadata selfheal on 403e661a-1c27-4e79-9867-c0572aba2b3c. source=1 sinks=0<BR>&gt; [2015-02-03 20:55:51.467098] I [afr-self-heal-entry.c:554:afr_selfheal_entry_do] 0-homegfs-replicate-0: performing entry selfheal on 403e661a-1c27-4e79-9867-c0572aba2b3c<BR>&gt; [2015-02-03 20:55:55.257808] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-homegfs-replicate-0: Completed entry selfheal on 403e661a-1c27-4e79-9867-c0572aba2b3c. source=1 sinks=0<BR>&gt; [2015-02-03 20:55:55.258548] I [afr-self-heal-metadata.c:54:__afr_selfheal_metadata_do] 0-homegfs-replicate-0: performing metadata selfheal on c612ee2f-2fb4-4157-a9ab-5a2d5603c541<BR>&gt; [2015-02-03 20:55:55.259367] I [afr-self-heal-common.c:476:afr_log_selfheal] 0-homegfs-replicate-0: Completed metadata selfheal on c612ee2f-2fb4-4157-a9ab-5a2d5603c541. source=1 sinks=0<BR>&gt; [2015-02-03 20:55:55.259980] I [afr-self-heal-entry.c:554:afr_selfheal_entry_do] 0-homegfs-replicate-0: performing entry selfheal on c612ee2f-2fb4-4157-a9ab-5a2d5603c541<BR>&gt;<BR>&gt; As you can see the self heal logs are just spammed with files being healed, and I looked at a couple of disconnects and I see self heals getting run shortly after on the bricks that were down.&nbsp; Now we need to find the cause of the disconnects, I am thinking once the disconnects are resolved the files should be properly copied over without SH having to fix things.&nbsp; Like I said I'll give this a go on my lab systems and see if I can repro the disconnects, I'll have time to run through it tomorrow.&nbsp; If in the mean time anyone else has a theory / anything to add here it would be appreciated.<BR>&gt;<BR>&gt; -b<BR>&gt;<BR>&gt;&gt; -b<BR>&gt;&gt;<BR>&gt;&gt;&gt; David&nbsp; (Sent from mobile)<BR>&gt;&gt;&gt;<BR>&gt;&gt;&gt; ===============================<BR>&gt;&gt;&gt; David F. Robinson, Ph.D.<BR>&gt;&gt;&gt; President - Corvid Technologies<BR>&gt;&gt;&gt; 704.799.6944 x101 [office]<BR>&gt;&gt;&gt; 704.252.1310&nbsp; &nbsp; &nbsp; [cell]<BR>&gt;&gt;&gt; 704.799.7974&nbsp; &nbsp; &nbsp; [fax]<BR>&gt;&gt;&gt; <A href="mailto:David.Robinson@corvidtec.com">David.Robinson@corvidtec.com</A><BR>&gt;&gt;&gt; <A href="http://www.corvidtechnologies.com/">http://www.corvidtechnologies.com</A><BR>&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; On Feb 5, 2015, at 4:55 PM, Ben Turner &lt;<A href="mailto:bturner@redhat.com">bturner@redhat.com</A>&gt; wrote:<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; ----- Original Message -----<BR>&gt;&gt;&gt;&gt;&gt; From: "Pranith Kumar Karampuri" &lt;<A href="mailto:pkarampu@redhat.com">pkarampu@redhat.com</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt; To: "Xavier Hernandez" &lt;<A href="mailto:xhernandez@datalab.es">xhernandez@datalab.es</A>&gt;, "David F. Robinson"<BR>&gt;&gt;&gt;&gt;&gt; &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;, "Benjamin Turner"<BR>&gt;&gt;&gt;&gt;&gt; &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt; Cc: <A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>, "Gluster Devel"<BR>&gt;&gt;&gt;&gt;&gt; &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt; Sent: Thursday, February 5, 2015 5:30:04 AM<BR>&gt;&gt;&gt;&gt;&gt; Subject: Re: [Gluster-users] [Gluster-devel] missing files<BR>&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt; On 02/05/2015 03:48 PM, Pranith Kumar Karampuri wrote:<BR>&gt;&gt;&gt;&gt;&gt;&gt; I believe David already fixed this. I hope this is the same issue he<BR>&gt;&gt;&gt;&gt;&gt;&gt; told about permissions issue.<BR>&gt;&gt;&gt;&gt;&gt; Oops, it is not. I will take a look.<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; Yes David exactly like these:<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; data-brick02a-homegfs.log:[2015-02-03 19:09:34.568842] I<BR>&gt;&gt;&gt;&gt; [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting<BR>&gt;&gt;&gt;&gt; connection from<BR>&gt;&gt;&gt;&gt; gfs02a.corvidtec.com-18563-2015/02/03-19:07:58:519134-homegfs-client-2-0-0<BR>&gt;&gt;&gt;&gt; data-brick02a-homegfs.log:[2015-02-03 19:09:41.286551] I<BR>&gt;&gt;&gt;&gt; [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting<BR>&gt;&gt;&gt;&gt; connection from<BR>&gt;&gt;&gt;&gt; gfs01a.corvidtec.com-12804-2015/02/03-19:09:38:497808-homegfs-client-2-0-0<BR>&gt;&gt;&gt;&gt; data-brick02a-homegfs.log:[2015-02-03 19:16:35.906412] I<BR>&gt;&gt;&gt;&gt; [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting<BR>&gt;&gt;&gt;&gt; connection from<BR>&gt;&gt;&gt;&gt; gfs02b.corvidtec.com-27190-2015/02/03-19:15:53:458467-homegfs-client-2-0-0<BR>&gt;&gt;&gt;&gt; data-brick02a-homegfs.log:[2015-02-03 19:51:22.761293] I<BR>&gt;&gt;&gt;&gt; [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting<BR>&gt;&gt;&gt;&gt; connection from<BR>&gt;&gt;&gt;&gt; gfs01a.corvidtec.com-25926-2015/02/03-19:51:02:89070-homegfs-client-2-0-0<BR>&gt;&gt;&gt;&gt; data-brick02a-homegfs.log:[2015-02-03 20:54:02.772180] I<BR>&gt;&gt;&gt;&gt; [server.c:518:server_rpc_notify] 0-homegfs-server: disconnecting<BR>&gt;&gt;&gt;&gt; connection from<BR>&gt;&gt;&gt;&gt; gfs01b.corvidtec.com-4175-2015/02/02-16:44:31:179119-homegfs-client-2-0-1<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; You can 100% verify my theory if you can correlate the time on the<BR>&gt;&gt;&gt;&gt; disconnects to the time that the missing files were healed.&nbsp; Can you have<BR>&gt;&gt;&gt;&gt; a look at /var/log/glusterfs/glustershd.log?&nbsp; That has all of the healed<BR>&gt;&gt;&gt;&gt; files + timestamps, if we can see a disconnect during the rsync and a<BR>&gt;&gt;&gt;&gt; self<BR>&gt;&gt;&gt;&gt; heal of the missing file I think we can safely assume that the<BR>&gt;&gt;&gt;&gt; disconnects<BR>&gt;&gt;&gt;&gt; may have caused this.&nbsp; I'll try this on my test systems, how much data<BR>&gt;&gt;&gt;&gt; did<BR>&gt;&gt;&gt;&gt; you rsync?&nbsp; What size ish of files / an idea of the dir layout?<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; @Pranith - Could bricks flapping up and down during the rsync cause the<BR>&gt;&gt;&gt;&gt; files to be missing on the first ls(written to 1 subvol but not the other<BR>&gt;&gt;&gt;&gt; cause it was down), the ls triggered SH, and thats why the files were<BR>&gt;&gt;&gt;&gt; there for the second ls be a possible cause here?<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt; -b<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt; Pranith<BR>&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt; Pranith<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; On 02/05/2015 03:44 PM, Xavier Hernandez wrote:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; Is the failure repeatable ? with the same directories ?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; It's very weird that the directories appear on the volume when you do<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; an 'ls' on the bricks. Could it be that you only made a single 'ls'<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; on fuse mount which not showed the directory ? Is it possible that<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; this 'ls' triggered a self-heal that repaired the problem, whatever<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; it was, and when you did another 'ls' on the fuse mount after the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; 'ls' on the bricks, the directories were there ?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; The first 'ls' could have healed the files, causing that the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; following 'ls' on the bricks showed the files as if nothing were<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; damaged. If that's the case, it's possible that there were some<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; disconnections during the copy.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; Added Pranith because he knows better replication and self-heal<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; details.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt; Xavi<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; On 02/04/2015 07:23 PM, David F. Robinson wrote:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Distributed/replicated<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Volume Name: homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Type: Distributed-Replicate<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Volume ID: 1e32672a-f1b7-4b58-ba94-58c085e59071<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Status: Started<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Number of Bricks: 4 x 2 = 8<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Transport-type: tcp<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Bricks:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick1: gfsib01a.corvidtec.com:/data/brick01a/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick2: gfsib01b.corvidtec.com:/data/brick01b/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick3: gfsib01a.corvidtec.com:/data/brick02a/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick4: gfsib01b.corvidtec.com:/data/brick02b/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick5: gfsib02a.corvidtec.com:/data/brick01a/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick6: gfsib02b.corvidtec.com:/data/brick01b/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick7: gfsib02a.corvidtec.com:/data/brick02a/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Brick8: gfsib02b.corvidtec.com:/data/brick02b/homegfs<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Options Reconfigured:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; performance.io-thread-count: 32<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; performance.cache-size: 128MB<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; performance.write-behind-window-size: 128MB<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; server.allow-insecure: on<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; network.ping-timeout: 10<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; storage.owner-gid: 100<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; geo-replication.indexing: off<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; geo-replication.ignore-pid-check: on<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; changelog.changelog: on<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; changelog.fsync-interval: 3<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; changelog.rollover-time: 15<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; server.manage-gids: on<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; ------ Original Message ------<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; From: "Xavier Hernandez" &lt;<A href="mailto:xhernandez@datalab.es">xhernandez@datalab.es</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; To: "David F. Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;; "Benjamin<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Turner" &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Cc: "<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>" &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;; "Gluster<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Devel" &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Sent: 2/4/2015 6:03:45 AM<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Subject: Re: [Gluster-devel] missing files<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; On 02/04/2015 01:30 AM, David F. Robinson wrote:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Sorry. Thought about this a little more. I should have been<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; clearer.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; The files were on both bricks of the replica, not just one side.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; So,<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; both bricks had to have been up... The files/directories just<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; don't show<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; up on the mount.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I was reading and saw a related bug<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; (<A href="https://bugzilla.redhat.com/show_bug.cgi?id=1159484">https://bugzilla.redhat.com/show_bug.cgi?id=1159484</A>). I saw it<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; suggested to run:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp; &nbsp; &nbsp; find &lt;mount&gt; -d -exec getfattr -h -n trusted.ec.heal {} \;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; This command is specific for a dispersed volume. It won't do<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; anything<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; (aside from the error you are seeing) on a replicated volume.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I think you are using a replicated volume, right ?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; In this case I'm not sure what can be happening. Is your volume a<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; pure<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; replicated one or a distributed-replicated ? on a pure replicated it<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; doesn't make sense that some entries do not show in an 'ls' when the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; file is in both replicas (at least without any error message in the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; logs). On a distributed-replicated it could be caused by some<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; problem<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; while combining contents of each replica set.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; What's the configuration of your volume ?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Xavi<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I get a bunch of errors for operation not supported:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [root@gfs02a homegfs]# find wks_backup -d -exec getfattr -h -n<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; trusted.ec.heal {} \;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; find: warning: the -d option is deprecated; please use -depth<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; instead,<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; because the latter is a POSIX-compliant feature.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/backup: trusted.ec.heal: Operation not<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs/2014_05_20.log: trusted.ec.heal:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Operation<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs/2014_05_21.log: trusted.ec.heal:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Operation<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs/2014_05_18.log: trusted.ec.heal:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Operation<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs/2014_05_19.log: trusted.ec.heal:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Operation<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs/2014_05_22.log: trusted.ec.heal:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Operation<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup/logs: trusted.ec.heal: Operation not<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wks_backup/homer_backup: trusted.ec.heal: Operation not supported<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; ------ Original Message ------<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; From: "Benjamin Turner" &lt;<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;mailto:<A href="mailto:bennyturns@gmail.com">bennyturns@gmail.com</A>&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; To: "David F. Robinson" &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;mailto:<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Cc: "Gluster Devel" &lt;<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;mailto:<A href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</A>&gt;&gt;; "<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>"<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A> &lt;mailto:<A href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</A>&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Sent: 2/3/2015 7:12:34 PM<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Subject: Re: [Gluster-devel] missing files<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; It sounds to me like the files were only copied to one replica,<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; werent<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; there for the initial for the initial ls which triggered a self<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; heal,<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; and were there for the last ls because they were healed. Is there<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; any<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; chance that one of the replicas was down during the rsync? It<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; could<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; be that you lost a brick during copy or something like that. To<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; confirm I would look for disconnects in the brick logs as well as<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; checking glusterfshd.log to verify the missing files were actually<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; healed.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; -b<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; On Tue, Feb 3, 2015 at 5:37 PM, David F. Robinson<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;mailto:<A href="mailto:david.robinson@corvidtec.com">david.robinson@corvidtec.com</A>&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; wrote:<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;I rsync'd 20-TB over to my gluster system and noticed that I<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;had<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;some directories missing even though the rsync completed<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; normally.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;The rsync logs showed that the missing files were transferred.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;I went to the bricks and did an 'ls -al<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;/data/brick*/homegfs/dir/*' the files were on the bricks.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; After I<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;did this 'ls', the files then showed up on the FUSE mounts.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;1) Why are the files hidden on the fuse mount?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;2) Why does the ls make them show up on the FUSE mount?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;3) How can I prevent this from happening again?<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;Note, I also mounted the gluster volume using NFS and saw the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; same<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;behavior. The files/directories were not shown until I did the<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;"ls" on the bricks.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;David<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;===============================<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;David F. Robinson, Ph.D.<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;President - Corvid Technologies<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="tel:704.799.6944%20x101" value="+17047996944">704.799.6944 x101</A> &lt;tel:704.799.6944%20x101&gt; [office]<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="tel:704.252.1310" value="+17042521310">704.252.1310</A> &lt;tel:<A href="tel:704.252.1310" value="+17042521310">704.252.1310</A>&gt; [cell]<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="tel:704.799.7974" value="+17047997974">704.799.7974</A> &lt;tel:<A href="tel:704.799.7974" value="+17047997974">704.799.7974</A>&gt; [fax]<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="mailto:David.Robinson@corvidtec.com">David.Robinson@corvidtec.com</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;mailto:<A href="mailto:David.Robinson@corvidtec.com">David.Robinson@corvidtec.com</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="http://www.corvidtechnologies.com/">http://www.corvidtechnologies.com</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; &lt;<A href="http://www.corvidtechnologies.com/">http://www.corvidtechnologies.com/</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;_______________________________________________<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;Gluster-devel mailing list<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&nbsp; &nbsp;<A href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</A> &lt;mailto:<A href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</A>&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; <A href="http://www.gluster.org/mailman/listinfo/gluster-devel">http://www.gluster.org/mailman/listinfo/gluster-devel</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Gluster-devel mailing list<BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; <A href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; <A href="http://www.gluster.org/mailman/listinfo/gluster-devel">http://www.gluster.org/mailman/listinfo/gluster-devel</A><BR>&gt;&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<BR>&gt;&gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<BR>&gt;&gt;&gt;&gt;&gt;&gt; <A href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</A><BR>&gt;&gt;&gt;&gt;&gt;&gt; <A href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</A><BR>&gt;&gt;&gt;&gt;&gt;<BR>&gt;&gt;&gt;&gt;&gt; _______________________________________________<BR>&gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<BR>&gt;&gt;&gt;&gt;&gt; <A href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</A><BR>&gt;&gt;&gt;&gt;&gt; <A href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</A><BR>&gt;&gt;<BR></DIV></DIV></BLOCKQUOTE></DIV><BR></DIV></DIV></DIV></BLOCKQUOTE></DIV></BODY></HTML>