<font size=3 color=blue face="Times New Roman">CC gluster-users.</font>
<br>
<br><font size=3 color=blue face="Times New Roman">No, there aren't any
firewall rules in our server. As I write in one of my earlier emails, if
I kill the mount client, and remount the volume, then the problem disappears.
That is to say, this causes the client to refresh remote port data and
from there everything's fine. Also, we dont' use gfapi - and bind() is
always good.</font>
<br>
<br>
<br>
<br><font size=1 color=#5f5f5f face="sans-serif">From: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">Ben England &lt;bengland@redhat.com&gt;</font>
<br><font size=1 color=#5f5f5f face="sans-serif">To: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">A Ghoshal &lt;a.ghoshal@tcs.com&gt;</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Date: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">02/05/2015 04:40 AM</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Subject: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">Re: [Gluster-devel]
[Gluster-users] In a replica 2 server, file-updates on one server missing
on the other server #Personal#</font>
<br>
<hr noshade>
<br>
<br>
<br><tt><font size=2>could it be a problem with iptables blocking connections?
&nbsp;DO iptables --list and make sure gluster ports are allowed through,
at both ends. &nbsp;Also, if you are using libgfapi, be sure you use rpc-auth-allow-insecure
if you have a lot of gfapi instances, or else you'll run into problems.<br>
<br>
----- Original Message -----<br>
&gt; From: &quot;A Ghoshal&quot; &lt;a.ghoshal@tcs.com&gt;<br>
&gt; To: &quot;Ben England&quot; &lt;bengland@redhat.com&gt;<br>
&gt; Sent: Wednesday, February 4, 2015 6:07:10 PM<br>
&gt; Subject: Re: [Gluster-devel] [Gluster-users] In a replica 2 server,
file-updates on one server missing on the other<br>
&gt; server #Personal#<br>
&gt; <br>
&gt; Thanks, Ben, same here :/ I actually get port numbers for glusterfsd
in<br>
&gt; any of the three ways:<br>
&gt; <br>
&gt; 1. gluster volume status &lt;VOLNAME&gt;<br>
&gt; 2. command line for glusterfsd on target server.<br>
&gt; 3. if you're really paranoid, get the glusterfsd PID and use netstat.<br>
&gt; <br>
&gt; Looking at the code it seems to me that the whole thing operates on
a<br>
&gt; statd-notify paradigm. Your local mount client registers for notify
on all<br>
&gt; remote glusterfsd's. When remote brick goes down and comes back up,
you<br>
&gt; are notified and then it calls portmap to obtain remote glusterfsd
port.<br>
&gt; <br>
&gt; I see here that both glusterd are up. But somehow the port number
of the<br>
&gt; remote glusterfsd with the mount client is now stale - not sure how
it<br>
&gt; happens. Now, the client keeps trying to connect on the stale port
every 3<br>
&gt; seconds. It gets the return errno of -111 (-ECONNREFUSED) which is
clearly<br>
&gt; indicating that there is not listener on the remote host's IP at this<br>
&gt; port.<br>
&gt; <br>
&gt; Design-wise, could it indicate to the mount client that the port number<br>
&gt; information needs to be refreshed? Would you say this is a bug of
sorts?<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; From: &nbsp; Ben England &lt;bengland@redhat.com&gt;<br>
&gt; To: &nbsp; &nbsp; A Ghoshal &lt;a.ghoshal@tcs.com&gt;<br>
&gt; Date: &nbsp; 02/05/2015 03:59 AM<br>
&gt; Subject: &nbsp; &nbsp; &nbsp; &nbsp;Re: [Gluster-devel] [Gluster-users]
In a replica 2 server,<br>
&gt; file-updates on one server missing on the other server #Personal#<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; I thought Gluster was based on ONC RPC, which means there are no fixed<br>
&gt; port numbers except for glusterd (24007). &nbsp;The client connects
to<br>
&gt; Glusterd, reads the volfile, and gets the port numbers of the registered<br>
&gt; glusterfsd processes at that time, then it connects to glusterfsd.
&nbsp;Make<br>
&gt; sense? &nbsp;What you need to know is whether glusterfsd is running
or not, and<br>
&gt; whether glusterd is finding out current state of glusterfsd.<br>
&gt; /var/log/glusterfsd/bricks/*log has log files for each glusterfsd
process,<br>
&gt; you might be able to see from that what glusterfsd port number is.<br>
&gt; /var/log/glusterfs/etc*log is glusterd's log file, it might say whether<br>
&gt; glusterd knows about glusterfsd. &nbsp;I'm not as good at troubleshooting
as<br>
&gt; some of the other people are so don't take my word for it.<br>
&gt; -ben<br>
&gt; <br>
&gt; <br>
&gt; ----- Original Message -----<br>
&gt; &gt; From: &quot;A Ghoshal&quot; &lt;a.ghoshal@tcs.com&gt;<br>
&gt; &gt; To: gluster-devel@gluster.org<br>
&gt; &gt; Cc: gluster-users@gluster.org, gluster-users-bounces@gluster.org<br>
&gt; &gt; Sent: Wednesday, February 4, 2015 4:36:02 PM<br>
&gt; &gt; Subject: Re: [Gluster-devel] [Gluster-users] In a replica 2 server,<br>
&gt; file-updates on one server missing on the other<br>
&gt; &gt; server #Personal#<br>
&gt; &gt; <br>
&gt; &gt; Sorry for spamming you guys, but this is kind of important for
me to<br>
&gt; debug,<br>
&gt; &gt; so if you saw anything like this before, do let me know. Here's
an<br>
&gt; update:<br>
&gt; &gt; <br>
&gt; &gt; It seems the mount client is attempting connection with an invalid
port<br>
&gt; &gt; number. 49175 is NOT the port number of glusterfsd on serv1<br>
&gt; (192.168.24.8).<br>
&gt; &gt; <br>
&gt; &gt; I got me an strace:<br>
&gt; &gt; <br>
&gt; &gt; [pid 31026] open(&quot;/proc/sys/net/ipv4/ip_local_reserved_ports&quot;,
O_RDONLY)<br>
&gt; = -1<br>
&gt; &gt; ENOENT (No such file or directory)<br>
&gt; &gt; [pid 31026] write(4, &quot;[2015-02-04 20:39:02.793154] W [&quot;...,
215) = 215<br>
&gt; &gt; [pid 31026] write(4, &quot;[2015-02-04 20:39:02.793289] W [&quot;...,
194) = 194<br>
&gt; &gt; [pid 31026] bind(10, {sa_family=AF_INET, sin_port=htons(1023),<br>
&gt; &gt; sin_addr=inet_addr(&quot;192.168.24.80&quot;)}, 16) = 0<br>
&gt; &gt; [pid 31026] fcntl(10, F_GETFL) = 0x2 (flags O_RDWR)<br>
&gt; &gt; [pid 31026] fcntl(10, F_SETFL, O_RDWR|O_NONBLOCK) = 0<br>
&gt; &gt; [pid 31026] connect(10, {sa_family=AF_INET, sin_port=htons(49175),<br>
&gt; &gt; sin_addr=inet_addr(&quot;192.168.24.81&quot;)}, 16) = -1 EINPROGRESS
(Operation<br>
&gt; now in<br>
&gt; &gt; progress)<br>
&gt; &gt; [pid 31026] fcntl(10, F_GETFL) = 0x802 (flags O_RDWR|O_NONBLOCK)<br>
&gt; &gt; [pid 31026] fcntl(10, F_SETFL, O_RDWR|O_NONBLOCK) = 0<br>
&gt; &gt; [pid 31026] epoll_ctl(3, EPOLL_CTL_ADD, 10, {EPOLLIN|EPOLLPRI|EPOLLOUT,<br>
&gt; &gt; {u32=10, u64=8589934602}}) = 0<br>
&gt; &gt; [pid 31026] nanosleep({1, 0}, &lt;unfinished ...&gt;<br>
&gt; &gt; [pid 31021] &lt;... epoll_wait resumed&gt;<br>
&gt; {{EPOLLIN|EPOLLOUT|EPOLLERR|EPOLLHUP,<br>
&gt; &gt; {u32=10, u64=8589934602}}}, 257, 4294967295) = 1<br>
&gt; &gt; [pid 31021] getsockopt(10, SOL_SOCKET, SO_ERROR, [29422518842425455],<br>
&gt; [4]) =<br>
&gt; &gt; 0<br>
&gt; &gt; [pid 31021] shutdown(10, 2 /* send and receive */) = -1 ENOTCONN<br>
&gt; (Transport<br>
&gt; &gt; endpoint is not connected)<br>
&gt; &gt; <br>
&gt; &gt; Which basically told me that connection is attempted via a non-blocking<br>
&gt; &gt; socket at port 49175. The errno from the failure is -ECONNREFUSED,
which<br>
&gt; is<br>
&gt; &gt; what is expected.<br>
&gt; &gt; <br>
&gt; &gt; 807 in socket.c<br>
&gt; &gt; (gdb) bt<br>
&gt; &gt; #0 __socket_connect_finish (this=0x6887a0) at socket.c:807<br>
&gt; &gt; #1 socket_connect_finish (this=0x6887a0) at socket.c:2147<br>
&gt; &gt; #2 0x00007fc863de4c04 in socket_event_handler (fd=&lt;value optimized
out&gt;,<br>
&gt; &gt; idx=&lt;value optimized out&gt;, data=0x6887a0,<br>
&gt; &gt; poll_in=1, poll_out=4, poll_err=&lt;value optimized out&gt;)
at socket.c:2223<br>
&gt; &gt; #3 0x00007fc867f7919f in event_dispatch_epoll_handler<br>
&gt; (event_pool=0x62db70)<br>
&gt; &gt; at event-epoll.c:384<br>
&gt; &gt; #4 event_dispatch_epoll (event_pool=0x62db70) at event-epoll.c:445<br>
&gt; &gt; #5 0x0000000000406b06 in main (argc=4, argv=0x7fff25302c38) at<br>
&gt; &gt; glusterfsd.c:1934<br>
&gt; &gt; (gdb) print *optval<br>
&gt; &gt; Cannot access memory at address 0x6f<br>
&gt; &gt; (gdb) print optval<br>
&gt; &gt; $1 = 111<br>
&gt; &gt; <br>
&gt; &gt; Note that this agrees with the following debug log:<br>
&gt; &gt; <br>
&gt; &gt; [2015-02-03 12:11:33.833647] D<br>
&gt; [socket.c:1962:__socket_proto_state_machine]<br>
&gt; &gt; 0-replicated_vol-1: reading from socket failed. Error (No data<br>
&gt; available),<br>
&gt; &gt; peer (192.168.24.81:49175)<br>
&gt; &gt; <br>
&gt; &gt; There is, of course no service running on port 49175. In fact,
listen<br>
&gt; port<br>
&gt; &gt; for corresponding glusterd on serv1 is 49206. Where does the
mount<br>
&gt; client<br>
&gt; &gt; pick this port number from? I know that if I kill and restart
the mount<br>
&gt; &gt; client on serv0 from command line, then the problem will disappear.
So,<br>
&gt; it's<br>
&gt; &gt; not something that is up with the processes on serv1...<br>
&gt; &gt; <br>
&gt; &gt; Thanks,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: A Ghoshal/MUM/TCS<br>
&gt; &gt; To: A Ghoshal &lt;a.ghoshal@tcs.com&gt;<br>
&gt; &gt; Cc: gluster-users@gluster.org, gluster-users-bounces@gluster.org,<br>
&gt; Pranith<br>
&gt; &gt; Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; Date: 02/05/2015 02:03 AM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server #Personal#<br>
&gt; &gt; Sent by: A Ghoshal<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; Ok, more updates here:<br>
&gt; &gt; <br>
&gt; &gt; I turned on trace and it seems bind to secure port on the mount
client<br>
&gt; with<br>
&gt; &gt; the remote brick is successful - afterwards the connect() fails
to<br>
&gt; complete.<br>
&gt; &gt; I saw these logs:<br>
&gt; &gt; <br>
&gt; &gt; [2015-02-03 12:11:33.832615] T [rpc-clnt.c:422:rpc_clnt_reconnect]<br>
&gt; &gt; 0-replicated_vol-1: attempting reconnect<br>
&gt; &gt; [2015-02-03 12:11:33.832666] D [name.c:155:client_fill_address_family]<br>
&gt; &gt; 0-replicated_vol-1: address-family not specified, guessing it
to be inet<br>
&gt; &gt; from (remote-host: serv1)<br>
&gt; &gt; [2015-02-03 12:11:33.832683] T<br>
&gt; &gt; [name.c:225:af_inet_client_get_remote_sockaddr] 0-replicated_vol-1:<br>
&gt; option<br>
&gt; &gt; remote-port missing in volume replicated_vol-1. Defaulting to
24007<br>
&gt; &gt; [2015-02-03 12:11:33.833083] D [common-utils.c:237:gf_resolve_ip6]<br>
&gt; &gt; 0-resolver: returning ip-192.168.24.81 (port-24007) for hostname:
serv1<br>
&gt; and<br>
&gt; &gt; port: 24007<br>
&gt; &gt; [2015-02-03 12:11:33.833113] T [socket.c:731:__socket_nodelay]<br>
&gt; &gt; 0-replicated_vol-1: NODELAY enabled for socket 10<br>
&gt; &gt; [2015-02-03 12:11:33.833128] T [socket.c:790:__socket_keepalive]<br>
&gt; &gt; 0-replicated_vol-1: Keep-alive enabled for socket 10, interval
2, idle:<br>
&gt; 20<br>
&gt; &gt; [2015-02-03 12:11:33.833188] W<br>
&gt; [common-utils.c:2247:gf_get_reserved_ports]<br>
&gt; &gt; 0-glusterfs: could not open the file<br>
&gt; &gt; /proc/sys/net/ipv4/ip_local_reserved_ports for getting reserved
ports<br>
&gt; info<br>
&gt; &gt; (No such file or directory)<br>
&gt; &gt; [2015-02-03 12:11:33.833204] W<br>
&gt; &gt; [common-utils.c:2280:gf_process_reserved_ports] 0-glusterfs:
Not able to<br>
&gt; get<br>
&gt; &gt; reserved ports, hence there is a possibility that glusterfs may
consume<br>
&gt; &gt; reserved port<br>
&gt; &gt; [2015-02-03 12:11:33.833560] D [socket.c:605:__socket_shutdown]<br>
&gt; &gt; 0-replicated_vol-1: shutdown() returned -1. Transport endpoint
is not<br>
&gt; &gt; connected<br>
&gt; &gt; [2015-02-03 12:11:33.833594] T<br>
&gt; [rpc-clnt.c:519:rpc_clnt_connection_cleanup]<br>
&gt; &gt; 0-replicated_vol-1: cleaning up state in transport object 0x6887a0<br>
&gt; &gt; [2015-02-03 12:11:33.833622] D [socket.c:486:__socket_rwv]<br>
&gt; &gt; 0-replicated_vol-1: EOF on socket<br>
&gt; &gt; [2015-02-03 12:11:33.833635] W [socket.c:514:__socket_rwv]<br>
&gt; &gt; 0-replicated_vol-1: readv failed (No data available)<br>
&gt; &gt; [2015-02-03 12:11:33.833647] D<br>
&gt; [socket.c:1962:__socket_proto_state_machine]<br>
&gt; &gt; 0-replicated_vol-1: reading from socket failed. Error (No data<br>
&gt; available),<br>
&gt; &gt; peer (192.168.24.81:49175)<br>
&gt; &gt; [2015-02-03 12:11:33.833659] D [socket.c:2236:socket_event_handler]<br>
&gt; &gt; 0-transport: disconnecting now<br>
&gt; &gt; [2015-02-03 12:11:33.833684] T<br>
&gt; [rpc-clnt.c:519:rpc_clnt_connection_cleanup]<br>
&gt; &gt; 0-replicated_vol-1: cleaning up state in transport object 0x6887a0<br>
&gt; &gt; <br>
&gt; &gt; After that, I attached the mount process to my gdb session and
attached<br>
&gt; a<br>
&gt; &gt; breakpoint at __socket_shutdown(). It gave me the following traceback<br>
&gt; &gt; <br>
&gt; &gt; Breakpoint 1, __socket_shutdown (this=0x68a7f0) at socket.c:594<br>
&gt; &gt; 594 socket.c: No such file or directory.<br>
&gt; &gt; in socket.c<br>
&gt; &gt; (gdb) bt<br>
&gt; &gt; #0 __socket_shutdown (this=0x68a7f0) at socket.c:594<br>
&gt; &gt; #1 0x00007f3391906553 in __socket_disconnect (this=0x68a7f0)
at<br>
&gt; socket.c:623<br>
&gt; &gt; #2 0x00007f339190856a in socket_connect_finish (this=0x68a7f0)
at<br>
&gt; &gt; socket.c:2160<br>
&gt; &gt; #3 0x00007f339190dc04 in socket_event_handler (fd=&lt;value optimized
out&gt;,<br>
&gt; &gt; idx=&lt;value optimized out&gt;, data=0x68a7f0,<br>
&gt; &gt; poll_in=1, poll_out=4, poll_err=&lt;value optimized out&gt;)
at socket.c:2223<br>
&gt; &gt; #4 0x00007f3395aa219f in event_dispatch_epoll_handler<br>
&gt; (event_pool=0x62d8b0)<br>
&gt; &gt; at event-epoll.c:384<br>
&gt; &gt; #5 event_dispatch_epoll (event_pool=0x62d8b0) at event-epoll.c:445<br>
&gt; &gt; #6 0x0000000000406b06 in main (argc=4, argv=0x7fff71108c38) at<br>
&gt; &gt; glusterfsd.c:1934<br>
&gt; &gt; (gdb)<br>
&gt; &gt; <br>
&gt; &gt; In case somebody could give me a clue or two on my next move
(I'm<br>
&gt; looking at<br>
&gt; &gt; the code in the meantime), I'd be very grateful.<br>
&gt; &gt; <br>
&gt; &gt; Thanks,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: A Ghoshal &lt;a.ghoshal@tcs.com&gt;<br>
&gt; &gt; To: Pranith Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; Cc: gluster-users@gluster.org<br>
&gt; &gt; Date: 02/03/2015 05:24 AM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server #Personal#<br>
&gt; &gt; Sent by: gluster-users-bounces@gluster.org<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; Hi Pranith,<br>
&gt; &gt; <br>
&gt; &gt; I finally understood what you meant the secure ports, because
the issue<br>
&gt; &gt; occurred in one of our setups once more. It seems one of the
clients on<br>
&gt; &gt; serv1 could not open a connection to the glusterfsd running on
serv0.<br>
&gt; I'd<br>
&gt; &gt; actually started a mail trail about it (believing it might be
something<br>
&gt; &gt; else, initially) here:<br>
&gt; &gt; </font></tt><a href="http://www.gluster.org/pipermail/gluster-users/2015-February/020465.html"><tt><font size=2>http://www.gluster.org/pipermail/gluster-users/2015-February/020465.html</font></tt></a><tt><font size=2><br>
&gt; &gt; <br>
&gt; &gt; I think I can write me a rudimentary kind of patch altering<br>
&gt; &gt; af_inet_bind_to_port_lt_ceiling() to get it to call bind with
port 0,<br>
&gt; rather<br>
&gt; &gt; than specify a port explicitly when the client.bind-insecure
is<br>
&gt; specified<br>
&gt; &gt; ...<br>
&gt; &gt; <br>
&gt; &gt; Then I'd need to create a way to set server.allow-insecure using
the cli<br>
&gt; (or<br>
&gt; &gt; if you already sent around the patch to do that like you said
in the<br>
&gt; earlier<br>
&gt; &gt; mail, do let me know). I'll keep you posted about it round here
or @<br>
&gt; &gt; [gluster-devel] if I can get it to work.<br>
&gt; &gt; <br>
&gt; &gt; Thanks a lot,<br>
&gt; &gt; <br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: A Ghoshal/MUM/TCS<br>
&gt; &gt; To: Pranith Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; Cc: gluster-users@gluster.org, Niels de Vos &lt;ndevos@redhat.com&gt;<br>
&gt; &gt; Date: 01/23/2015 02:45 PM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server #Personal#<br>
&gt; &gt; Sent by: A Ghoshal<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; Oh, I didn't I only read a fragment of the IRC log and assumed<br>
&gt; &gt; --xlator-option would be enough. Apparently it's a lot more work....<br>
&gt; &gt; <br>
&gt; &gt; I do have a query, though. These connections, from one of our
setups,<br>
&gt; are<br>
&gt; &gt; these on secure ports? Or, maybe I didn't get it the first time.....<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:/root&gt; ps -ef | grep replicated_vol<br>
&gt; &gt; root 8851 25307 0 10:03 pts/2 00:00:00 grep replicated_vol<br>
&gt; &gt; root 29751 1 4 Jan21 ? 01:47:20 /usr/sbin/glusterfsd -s serv0<br>
&gt; --volfile-id<br>
&gt; &gt; replicated_vol.serv0.mnt-bricks-replicated_vol-brick -p<br>
&gt; &gt; <br>
&gt; /var/lib/glusterd/vols/_replicated_vol/run/serv0-mnt-bricks-replicated_vol-brick.pid<br>
&gt; &gt; -S /var/run/dff9fa3c93e82f20103f2a3d91adc4a8.socket --brick-name<br>
&gt; &gt; /mnt/bricks/replicated_vol/brick -l<br>
&gt; &gt; /var/log/glusterfs/bricks/mnt-bricks-replicated_vol-brick.log<br>
&gt; &gt; --xlator-option<br>
&gt; *-posix.glusterd-uuid=1a1d1ebc-4b92-428f-b66b-9c5efa49574d<br>
&gt; &gt; --brick-port 49185 --xlator-option<br>
&gt; replicated_vol-server.listen-port=49185<br>
&gt; &gt; root 30399 1 0 Jan21 ? 00:19:06 /usr/sbin/glusterfs<br>
&gt; &gt; --volfile-id=replicated_vol --volfile-server=serv0 /mnt/replicated_vol<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:/root&gt; netstat -p | grep 30399<br>
&gt; &gt; tcp 0 0 serv0:969 serv0:49185 ESTABLISHED 30399/glusterfs<br>
&gt; &gt; tcp 0 0 serv0:999 serv1:49159 ESTABLISHED 30399/glusterfs<br>
&gt; &gt; tcp 0 0 serv0:1023 serv0:24007 ESTABLISHED 30399/glusterfs<br>
&gt; &gt; root@serv0:/root&gt;<br>
&gt; &gt; <br>
&gt; &gt; Thanks again,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: Pranith Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; To: A Ghoshal &lt;a.ghoshal@tcs.com&gt;<br>
&gt; &gt; Cc: gluster-users@gluster.org, Niels de Vos &lt;ndevos@redhat.com&gt;<br>
&gt; &gt; Date: 01/23/2015 01:58 PM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server #Personal#<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; On 01/23/2015 01:54 PM, A Ghoshal wrote:<br>
&gt; &gt; Thanks a lot, Pranith.<br>
&gt; &gt; <br>
&gt; &gt; We'll set this option on our test servers and keep the setup
under<br>
&gt; &gt; observation.<br>
&gt; &gt; How did you get the bind-insecure option working?<br>
&gt; &gt; I guess I will send a patch to make it 'volume set option'<br>
&gt; &gt; <br>
&gt; &gt; Pranith<br>
&gt; &gt; <br>
&gt; &gt; Thanks,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: Pranith Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; To: A Ghoshal &lt;a.ghoshal@tcs.com&gt;<br>
&gt; &gt; Cc: gluster-users@gluster.org , Niels de Vos &lt;ndevos@redhat.com&gt;<br>
&gt; &gt; Date: 01/23/2015 01:28 PM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server #Personal#<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; On 01/22/2015 02:07 PM, A Ghoshal wrote:<br>
&gt; &gt; Hi Pranith,<br>
&gt; &gt; <br>
&gt; &gt; Yes, the very same ( chalcogen_eg_oxygen@yahoo.com ). Justin
Clift sent<br>
&gt; me a<br>
&gt; &gt; mail a while back telling me that it is better if we all use
our<br>
&gt; business<br>
&gt; &gt; email addresses so I made me a new profile.<br>
&gt; &gt; <br>
&gt; &gt; Glusterfs complains about /proc/sys/net/ipv4/ip_local_reserved_ports<br>
&gt; because<br>
&gt; &gt; we use a really old Linux kernel (2.6.34) wherein this feature
is not<br>
&gt; &gt; present. We plan to upgrade our Linux so often but each time
we are<br>
&gt; &gt; dissuaded from it by some compatibility issue or the other. So,
we get<br>
&gt; this<br>
&gt; &gt; log every time - on both good volumes and bad ones. What bothered
me was<br>
&gt; &gt; this (on serv1):<br>
&gt; &gt; Basically to make the connections to servers i.e. bricks clients
need to<br>
&gt; &gt; choose secure ports i.e. port less than 1024. Since this file
is not<br>
&gt; &gt; present, it is not binding to any port as per the code I just
checked.<br>
&gt; There<br>
&gt; &gt; is an option called client-bind-insecure which bypasses this
check. I<br>
&gt; feel<br>
&gt; &gt; that is one (probably only way) to get around this.<br>
&gt; &gt; You have to &quot;volume set server.allow-insecure on&quot; option
and<br>
&gt; bind-insecure<br>
&gt; &gt; option.<br>
&gt; &gt; CC ndevos who seemed to have helped someone set bind-insecure
option<br>
&gt; &gt; correctly here ( </font></tt><a href="http://irclog.perlgeek.de/gluster/2014-04-09/text"><tt><font size=2>http://irclog.perlgeek.de/gluster/2014-04-09/text</font></tt></a><tt><font size=2>
)<br>
&gt; &gt; <br>
&gt; &gt; Pranith<br>
&gt; &gt; <br>
&gt; &gt; [2015-01-20 09:37:49.151744] T<br>
&gt; [rpc-clnt.c:1182:rpc_clnt_record_build_header]<br>
&gt; &gt; 0-rpc-clnt: Request fraglen 456, payload: 360, rpc hdr: 96<br>
&gt; &gt; [2015-01-20 09:37:49.151780] T [rpc-clnt.c:1499:rpc_clnt_submit]<br>
&gt; 0-rpc-clnt:<br>
&gt; &gt; submitted request (XID: 0x39620x Program: GlusterFS 3.3, ProgVers:
330,<br>
&gt; &gt; Proc: 27) to rpc-transport (replicated_vol-client-0)<br>
&gt; &gt; [2015-01-20 09:37:49.151810] T [rpc-clnt.c:1302:rpc_clnt_record]<br>
&gt; &gt; 0-replicated_vol-client-1: Auth Info: pid: 7599, uid: 0, gid:
0, owner:<br>
&gt; &gt; 0000000000000000<br>
&gt; &gt; [2015-01-20 09:37:49.151824] T<br>
&gt; [rpc-clnt.c:1182:rpc_clnt_record_build_header]<br>
&gt; &gt; 0-rpc-clnt: Request fraglen 456, payload: 360, rpc hdr: 96<br>
&gt; &gt; [2015-01-20 09:37:49.151889] T [rpc-clnt.c:1499:rpc_clnt_submit]<br>
&gt; 0-rpc-clnt:<br>
&gt; &gt; submitted request (XID: 0x39563x Program: GlusterFS 3.3, ProgVers:
330,<br>
&gt; &gt; Proc: 27) to rpc-transport (replicated_vol-client-1)<br>
&gt; &gt; [2015-01-20 09:37:49.152239] T [rpc-clnt.c:669:rpc_clnt_reply_init]<br>
&gt; &gt; 0-replicated_vol-client-1: received rpc message (RPC XID: 0x39563x<br>
&gt; Program:<br>
&gt; &gt; GlusterFS 3.3, ProgVers: 330, Proc: 27) from rpc-transport<br>
&gt; &gt; (replicated_vol-client-1)<br>
&gt; &gt; [2015-01-20 09:37:49.152484] T [rpc-clnt.c:669:rpc_clnt_reply_init]<br>
&gt; &gt; 0-replicated_vol-client-0: received rpc message (RPC XID: 0x39620x<br>
&gt; Program:<br>
&gt; &gt; GlusterFS 3.3, ProgVers: 330, Proc: 27) from rpc-transport<br>
&gt; &gt; (replicated_vol-client-0)<br>
&gt; &gt; <br>
&gt; &gt; When I write on the good server (serv1), we see that an RPC request
is<br>
&gt; sent<br>
&gt; &gt; to both client-0 and client-1. While, when I write on the bad
server<br>
&gt; &gt; (serv0), the RPC request is sent only to client-0, which is why
it is no<br>
&gt; &gt; wonder that the writes are not synced over to serv1. Somehow
I could not<br>
&gt; &gt; make the daemon on serv0 understand that there are two up-children
and<br>
&gt; not<br>
&gt; &gt; just one.<br>
&gt; &gt; <br>
&gt; &gt; One additional detail - since we are using a kernel that's too
old, we<br>
&gt; do not<br>
&gt; &gt; have the (Anand Avati's?) FUse readdirplus patches, either. I've
noticed<br>
&gt; &gt; that the fixes in the readdirplus version of glusterfs aren't
always<br>
&gt; &gt; guaranteed to be present on the non-readdirplus version of the
patches.<br>
&gt; I'd<br>
&gt; &gt; filed a bug around one such anomaly back, but never got around
to<br>
&gt; writing a<br>
&gt; &gt; patch for it (sorry!) Here it is:<br>
&gt; &gt; </font></tt><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1062287"><tt><font size=2>https://bugzilla.redhat.com/show_bug.cgi?id=1062287</font></tt></a><tt><font size=2><br>
&gt; &gt; I don't this has anything to do with readdirplus.<br>
&gt; &gt; <br>
&gt; &gt; Maybe something on similar lines here?<br>
&gt; &gt; <br>
&gt; &gt; Thanks,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; P.s. Please ignore the #Personal# in the subject line - we need
to do<br>
&gt; that to<br>
&gt; &gt; push mails to the public domain past the email filter safely.<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; From: Pranith Kumar Karampuri &lt;pkarampu@redhat.com&gt;<br>
&gt; &gt; To: A Ghoshal &lt;a.ghoshal@tcs.com&gt; , gluster-users@gluster.org<br>
&gt; &gt; Date: 01/22/2015 12:09 AM<br>
&gt; &gt; Subject: Re: [Gluster-users] In a replica 2 server, file-updates
on one<br>
&gt; &gt; server missing on the other server<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; hi,<br>
&gt; &gt; Responses inline.<br>
&gt; &gt; <br>
&gt; &gt; PS: You are chalkogen_oxygen?<br>
&gt; &gt; <br>
&gt; &gt; Pranith<br>
&gt; &gt; On 01/20/2015 05:34 PM, A Ghoshal wrote:<br>
&gt; &gt; Hello,<br>
&gt; &gt; <br>
&gt; &gt; I am using the following replicated volume:<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:~&gt; gluster v info replicated_vol<br>
&gt; &gt; <br>
&gt; &gt; Volume Name: replicated_vol<br>
&gt; &gt; Type: Replicate<br>
&gt; &gt; Volume ID: 26d111e3-7e4c-479e-9355-91635ab7f1c2<br>
&gt; &gt; Status: Started<br>
&gt; &gt; Number of Bricks: 1 x 2 = 2<br>
&gt; &gt; Transport-type: tcp<br>
&gt; &gt; Bricks:<br>
&gt; &gt; Brick1: serv0:/mnt/bricks/replicated_vol/brick<br>
&gt; &gt; Brick2: serv1:/mnt/bricks/replicated_vol/brick<br>
&gt; &gt; Options Reconfigured:<br>
&gt; &gt; diagnostics.client-log-level: INFO<br>
&gt; &gt; network.ping-timeout: 10<br>
&gt; &gt; nfs.enable-ino32: on<br>
&gt; &gt; cluster.self-heal-daemon: on<br>
&gt; &gt; nfs.disable: off<br>
&gt; &gt; <br>
&gt; &gt; replicated_vol is mounted at /mnt/replicated_vol on both serv0
and<br>
&gt; serv1. If<br>
&gt; &gt; I do the following on serv0:<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:~&gt;echo &quot;cranberries&quot; &gt; /mnt/replicated_vol/testfile<br>
&gt; &gt; root@serv0:~&gt;echo &quot;tangerines&quot; &gt;&gt; /mnt/replicated_vol/testfile<br>
&gt; &gt; <br>
&gt; &gt; And then I check for the state of the replicas in the bricks,
then I<br>
&gt; find<br>
&gt; &gt; that<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:~&gt;cat /mnt/bricks/replicated_vol/brick/testfile<br>
&gt; &gt; cranberries<br>
&gt; &gt; tangerines<br>
&gt; &gt; root@serv0:~&gt;<br>
&gt; &gt; <br>
&gt; &gt; root@serv1:~&gt;cat /mnt/bricks/replicated_vol/brick/testfile<br>
&gt; &gt; root@serv1:~&gt;<br>
&gt; &gt; <br>
&gt; &gt; As may be seen, the replica on serv1 is blank, when I write into<br>
&gt; testfile<br>
&gt; &gt; from serv0 (even though the file is created on both bricks).<br>
&gt; Interestingly,<br>
&gt; &gt; if I write something to the file at serv1, then the two replicas
become<br>
&gt; &gt; identical.<br>
&gt; &gt; <br>
&gt; &gt; root@serv1:~&gt;echo &quot;artichokes&quot; &gt;&gt; /mnt/replicated_vol/testfile<br>
&gt; &gt; <br>
&gt; &gt; root@serv1:~&gt;cat /mnt/bricks/replicated_vol/brick/testfile<br>
&gt; &gt; cranberries<br>
&gt; &gt; tangerines<br>
&gt; &gt; artichokes<br>
&gt; &gt; root@serv1:~&gt;<br>
&gt; &gt; <br>
&gt; &gt; root@serv0:~&gt;cat /mnt/bricks/replicated_vol/brick/testfile<br>
&gt; &gt; cranberries<br>
&gt; &gt; tangerines<br>
&gt; &gt; artichokes<br>
&gt; &gt; root@serv0:~&gt;<br>
&gt; &gt; <br>
&gt; &gt; So, I dabbled into the logs a little bit, after upping the diagnostic<br>
&gt; level,<br>
&gt; &gt; and this is what I saw:<br>
&gt; &gt; <br>
&gt; &gt; When I write on serv0 (bad case):<br>
&gt; &gt; <br>
&gt; &gt; [2015-01-20 09:21:52.197704] T [fuse-bridge.c:546:fuse_lookup_resume]<br>
&gt; &gt; 0-glusterfs-fuse: 53027: LOOKUP<br>
&gt; &gt; /testfl(f0a76987-8a42-47a2-b027-a823254b736b)<br>
&gt; &gt; [2015-01-20 09:21:52.197959] D<br>
&gt; &gt; [afr-common.c:131:afr_lookup_xattr_req_prepare]<br>
&gt; &gt; 0-replicated_vol-replicate-0: /testfl: failed to get the gfid
from dict<br>
&gt; &gt; [2015-01-20 09:21:52.198006] T [rpc-clnt.c:1302:rpc_clnt_record]<br>
&gt; &gt; 0-replicated_vol-client-0: Auth Info: pid: 28151, uid: 0, gid:
0, owner:<br>
&gt; &gt; 0000000000000000<br>
&gt; &gt; [2015-01-20 09:21:52.198024] T<br>
&gt; [rpc-clnt.c:1182:rpc_clnt_record_build_header]<br>
&gt; &gt; 0-rpc-clnt: Request fraglen 456, payload: 360, rpc hdr: 96<br>
&gt; &gt; [2015-01-20 09:21:52.198108] T [rpc-clnt.c:1499:rpc_clnt_submit]<br>
&gt; 0-rpc-clnt:<br>
&gt; &gt; submitted request (XID: 0x78163x Program: GlusterFS 3.3, ProgVers:
330,<br>
&gt; &gt; Proc: 27) to rpc-transport (replicated_vol-client-0)<br>
&gt; &gt; [2015-01-20 09:21:52.198565] T [rpc-clnt.c:669:rpc_clnt_reply_init]<br>
&gt; &gt; 0-replicated_vol-client-0: received rpc message (RPC XID: 0x78163x<br>
&gt; Program:<br>
&gt; &gt; GlusterFS 3.3, ProgVers: 330, Proc: 27) from rpc-transport<br>
&gt; &gt; (replicated_vol-client-0)<br>
&gt; &gt; [2015-01-20 09:21:52.198640] D<br>
&gt; &gt; [afr-self-heal-common.c:138:afr_sh_print_pending_matrix]<br>
&gt; &gt; 0-replicated_vol-replicate-0: pending_matrix: [ 0 3 ]<br>
&gt; &gt; [2015-01-20 09:21:52.198669] D<br>
&gt; &gt; [afr-self-heal-common.c:138:afr_sh_print_pending_matrix]<br>
&gt; &gt; 0-replicated_vol-replicate-0: pending_matrix: [ 0 0 ]<br>
&gt; &gt; [2015-01-20 09:21:52.198681] D<br>
&gt; [afr-self-heal-common.c:887:afr_mark_sources]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Number of sources: 1<br>
&gt; &gt; [2015-01-20 09:21:52.198694] D<br>
&gt; &gt; [afr-self-heal-data.c:825:afr_lookup_select_read_child_by_txn_type]<br>
&gt; &gt; 0-replicated_vol-replicate-0: returning read_child: 0<br>
&gt; &gt; [2015-01-20 09:21:52.198705] D<br>
&gt; &gt; [afr-common.c:1380:afr_lookup_select_read_child]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Source selected as 0 for /testfl<br>
&gt; &gt; [2015-01-20 09:21:52.198720] D<br>
&gt; &gt; [afr-common.c:1117:afr_lookup_build_response_params]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Building lookup response from 0<br>
&gt; &gt; [2015-01-20 09:21:52.198732] D<br>
&gt; &gt; [afr-common.c:1732:afr_lookup_perform_self_heal]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Only 1 child up - do not attempt
to detect<br>
&gt; &gt; self heal<br>
&gt; &gt; <br>
&gt; &gt; When I write on serv1 (good case):<br>
&gt; &gt; <br>
&gt; &gt; [2015-01-20 09:37:49.151506] T [fuse-bridge.c:546:fuse_lookup_resume]<br>
&gt; &gt; 0-glusterfs-fuse: 31212: LOOKUP</font></tt>
<br><tt><font size=2>&gt; &gt; /testfl(f0a76987-8a42-47a2-b027-a823254b736b)<br>
&gt; &gt; [2015-01-20 09:37:49.151683] D<br>
&gt; &gt; [afr-common.c:131:afr_lookup_xattr_req_prepare]<br>
&gt; &gt; 0-replicated_vol-replicate-0: /testfl: failed to get the gfid
from dict<br>
&gt; &gt; [2015-01-20 09:37:49.151726] T [rpc-clnt.c:1302:rpc_clnt_record]<br>
&gt; &gt; 0-replicated_vol-client-0: Auth Info: pid: 7599, uid: 0, gid:
0, owner:<br>
&gt; &gt; 0000000000000000<br>
&gt; &gt; [2015-01-20 09:37:49.151744] T<br>
&gt; [rpc-clnt.c:1182:rpc_clnt_record_build_header]<br>
&gt; &gt; 0-rpc-clnt: Request fraglen 456, payload: 360, rpc hdr: 96<br>
&gt; &gt; [2015-01-20 09:37:49.151780] T [rpc-clnt.c:1499:rpc_clnt_submit]<br>
&gt; 0-rpc-clnt:<br>
&gt; &gt; submitted request (XID: 0x39620x Program: GlusterFS 3.3, ProgVers:
330,<br>
&gt; &gt; Proc: 27) to rpc-transport (replicated_vol-client-0)<br>
&gt; &gt; [2015-01-20 09:37:49.151810] T [rpc-clnt.c:1302:rpc_clnt_record]<br>
&gt; &gt; 0-replicated_vol-client-1: Auth Info: pid: 7599, uid: 0, gid:
0, owner:<br>
&gt; &gt; 0000000000000000<br>
&gt; &gt; [2015-01-20 09:37:49.151824] T<br>
&gt; [rpc-clnt.c:1182:rpc_clnt_record_build_header]<br>
&gt; &gt; 0-rpc-clnt: Request fraglen 456, payload: 360, rpc hdr: 96<br>
&gt; &gt; [2015-01-20 09:37:49.151889] T [rpc-clnt.c:1499:rpc_clnt_submit]<br>
&gt; 0-rpc-clnt:<br>
&gt; &gt; submitted request (XID: 0x39563x Program: GlusterFS 3.3, ProgVers:
330,<br>
&gt; &gt; Proc: 27) to rpc-transport (replicated_vol-client-1)<br>
&gt; &gt; [2015-01-20 09:37:49.152239] T [rpc-clnt.c:669:rpc_clnt_reply_init]<br>
&gt; &gt; 0-replicated_vol-client-1: received rpc message (RPC XID: 0x39563x<br>
&gt; Program:<br>
&gt; &gt; GlusterFS 3.3, ProgVers: 330, Proc: 27) from rpc-transport<br>
&gt; &gt; (replicated_vol-client-1)<br>
&gt; &gt; [2015-01-20 09:37:49.152484] T [rpc-clnt.c:669:rpc_clnt_reply_init]<br>
&gt; &gt; 0-replicated_vol-client-0: received rpc message (RPC XID: 0x39620x<br>
&gt; Program:<br>
&gt; &gt; GlusterFS 3.3, ProgVers: 330, Proc: 27) from rpc-transport<br>
&gt; &gt; (replicated_vol-client-0)<br>
&gt; &gt; [2015-01-20 09:37:49.152582] D<br>
&gt; &gt; [afr-self-heal-common.c:138:afr_sh_print_pending_matrix]<br>
&gt; &gt; 0-replicated_vol-replicate-0: pending_matrix: [ 0 3 ]<br>
&gt; &gt; [2015-01-20 09:37:49.152596] D<br>
&gt; &gt; [afr-self-heal-common.c:138:afr_sh_print_pending_matrix]<br>
&gt; &gt; 0-replicated_vol-replicate-0: pending_matrix: [ 0 0 ]<br>
&gt; &gt; [2015-01-20 09:37:49.152621] D<br>
&gt; [afr-self-heal-common.c:887:afr_mark_sources]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Number of sources: 1<br>
&gt; &gt; [2015-01-20 09:37:49.152633] D<br>
&gt; &gt; [afr-self-heal-data.c:825:afr_lookup_select_read_child_by_txn_type]<br>
&gt; &gt; 0-replicated_vol-replicate-0: returning read_child: 0<br>
&gt; &gt; [2015-01-20 09:37:49.152644] D<br>
&gt; &gt; [afr-common.c:1380:afr_lookup_select_read_child]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Source selected as 0 for /testfl<br>
&gt; &gt; [2015-01-20 09:37:49.152657] D<br>
&gt; &gt; [afr-common.c:1117:afr_lookup_build_response_params]<br>
&gt; &gt; 0-replicated_vol-replicate-0: Building lookup response from 0<br>
&gt; &gt; <br>
&gt; &gt; We see that when you write on serv1, the RPC request is sent
to both<br>
&gt; &gt; replicated_vol-client-0 and replicated_vol-client-1, while when
we write<br>
&gt; on<br>
&gt; &gt; serv0, the request is sent only to replicated_vol-client-0, and
the FUse<br>
&gt; &gt; client is unaware of the presence of client-1 in the latter case.<br>
&gt; &gt; <br>
&gt; &gt; I checked a bit more in the logs. When I turn on my trace, I
found many<br>
&gt; &gt; instances of these logs on serv0 but NOT on serv1:<br>
&gt; &gt; <br>
&gt; &gt; [2015-01-20 09:21:15.520784] T [fuse-bridge.c:681:fuse_attr_cbk]<br>
&gt; &gt; 0-glusterfs-fuse: 53011: LOOKUP() / =&gt; 1<br>
&gt; &gt; [2015-01-20 09:21:17.683088] T [rpc-clnt.c:422:rpc_clnt_reconnect]<br>
&gt; &gt; 0-replicated_vol-client-1: attempting reconnect<br>
&gt; &gt; [2015-01-20 09:21:17.683159] D [name.c:155:client_fill_address_family]<br>
&gt; &gt; 0-replicated_vol-client-1: address-family not specified, guessing
it to<br>
&gt; be<br>
&gt; &gt; inet from (remote-host: serv1)<br>
&gt; &gt; [2015-01-20 09:21:17.683178] T<br>
&gt; &gt; [name.c:225:af_inet_client_get_remote_sockaddr]<br>
&gt; 0-replicated_vol-client-1:<br>
&gt; &gt; option remote-port missing in volume replicated_vol-client-1.
Defaulting<br>
&gt; to<br>
&gt; &gt; 24007<br>
&gt; &gt; [2015-01-20 09:21:17.683191] T [common-utils.c:188:gf_resolve_ip6]<br>
&gt; &gt; 0-resolver: flushing DNS cache<br>
&gt; &gt; [2015-01-20 09:21:17.683202] T [common-utils.c:195:gf_resolve_ip6]<br>
&gt; &gt; 0-resolver: DNS cache not present, freshly probing hostname:
serv1<br>
&gt; &gt; [2015-01-20 09:21:17.683814] D [common-utils.c:237:gf_resolve_ip6]<br>
&gt; &gt; 0-resolver: returning ip-192.168.24.81 (port-24007) for hostname:
serv1<br>
&gt; and<br>
&gt; &gt; port: 24007<br>
&gt; &gt; [2015-01-20 09:21:17.684139] D [common-utils.c:257:gf_resolve_ip6]<br>
&gt; &gt; 0-resolver: next DNS query will return: ip-192.168.24.81 port-24007<br>
&gt; &gt; [2015-01-20 09:21:17.684164] T [socket.c:731:__socket_nodelay]<br>
&gt; &gt; 0-replicated_vol-client-1: NODELAY enabled for socket 10<br>
&gt; &gt; [2015-01-20 09:21:17.684177] T [socket.c:790:__socket_keepalive]<br>
&gt; &gt; 0-replicated_vol-client-1: Keep-alive enabled for socket 10,
interval 2,<br>
&gt; &gt; idle: 20<br>
&gt; &gt; [2015-01-20 09:21:17.684236] W<br>
&gt; [common-utils.c:2247:gf_get_reserved_ports]<br>
&gt; &gt; 0-glusterfs: could not open the file<br>
&gt; &gt; /proc/sys/net/ipv4/ip_local_reserved_ports for getting reserved
ports<br>
&gt; info<br>
&gt; &gt; (No such file or directory)<br>
&gt; &gt; [2015-01-20 09:21:17.684253] W<br>
&gt; &gt; [common-utils.c:2280:gf_process_reserved_ports] 0-glusterfs:
Not able to<br>
&gt; get<br>
&gt; &gt; reserved ports, hence there is a possibility that glusterfs may
consume<br>
&gt; &gt; reserved port<br>
&gt; &gt; Logs above suggest that mount process couldn't assign a reserved
port<br>
&gt; because<br>
&gt; &gt; it couldn't find the file /proc/sys/net/ipv4/ip_local_reserved_ports<br>
&gt; &gt; <br>
&gt; &gt; I guess reboot of the machine fixed it. Wonder why it was not
found in<br>
&gt; the<br>
&gt; &gt; first place.<br>
&gt; &gt; <br>
&gt; &gt; Pranith.<br>
&gt; &gt; [2015-01-20 09:21:17.684660] D [socket.c:605:__socket_shutdown]<br>
&gt; &gt; 0-replicated_vol-client-1: shutdown() returned -1. Transport
endpoint is<br>
&gt; not<br>
&gt; &gt; connected<br>
&gt; &gt; [2015-01-20 09:21:17.684699] T<br>
&gt; [rpc-clnt.c:519:rpc_clnt_connection_cleanup]<br>
&gt; &gt; 0-replicated_vol-client-1: cleaning up state in transport object<br>
&gt; 0x68a630<br>
&gt; &gt; [2015-01-20 09:21:17.684731] D [socket.c:486:__socket_rwv]<br>
&gt; &gt; 0-replicated_vol-client-1: EOF on socket<br>
&gt; &gt; [2015-01-20 09:21:17.684750] W [socket.c:514:__socket_rwv]<br>
&gt; &gt; 0-replicated_vol-client-1: readv failed (No data available)<br>
&gt; &gt; [2015-01-20 09:21:17.684766] D<br>
&gt; [socket.c:1962:__socket_proto_state_machine]<br>
&gt; &gt; 0-replicated_vol-client-1: reading from socket failed. Error
(No data<br>
&gt; &gt; available), peer (192.168.24.81:49198)<br>
&gt; &gt; <br>
&gt; &gt; I could not find a 'remote-port' option in /var/lib/glusterd
on either<br>
&gt; peer.<br>
&gt; &gt; Could somebody tell me where this configuration is looked up
from? Also,<br>
&gt; &gt; sometime later, I rebooted serv0 and that seemed to solve the
problem.<br>
&gt; &gt; However, stop+start of replicated_vol and restart of<br>
&gt; /etc/init.d/glusterd<br>
&gt; &gt; did NOT solve the problem.<br>
&gt; &gt; Ignore that log. If no port is given in that volfile, it picks
24007 as<br>
&gt; the<br>
&gt; &gt; port, which is the default port where glusterd 'listens'<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; Any help on this matter will be greatly appreciated as I need
to provide<br>
&gt; &gt; robustness assurances for our setup.<br>
&gt; &gt; <br>
&gt; &gt; Thanks a lot,<br>
&gt; &gt; Anirban<br>
&gt; &gt; <br>
&gt; &gt; P.s. Additional details:<br>
&gt; &gt; glusterfs version: 3.4.2<br>
&gt; &gt; Linux kernel version: 2.6.34<br>
&gt; &gt; <br>
&gt; &gt; =====-----=====-----=====<br>
&gt; &gt; Notice: The information contained in this e-mail<br>
&gt; &gt; message and/or attachments to it may contain<br>
&gt; &gt; confidential or privileged information. If you are<br>
&gt; &gt; not the intended recipient, any dissemination, use,<br>
&gt; &gt; review, distribution, printing or copying of the<br>
&gt; &gt; information contained in this e-mail message<br>
&gt; &gt; and/or attachments to it are strictly prohibited. If<br>
&gt; &gt; you have received this communication in error,<br>
&gt; &gt; please notify us by reply e-mail or telephone and<br>
&gt; &gt; immediately and permanently delete the message<br>
&gt; &gt; and any attachments. Thank you<br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-users mailing list<br>
&gt; &gt; Gluster-users@gluster.org<br>
&gt; &gt; </font></tt><a href="http://www.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://www.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-users mailing list<br>
&gt; &gt; Gluster-users@gluster.org<br>
&gt; &gt; </font></tt><a href="http://www.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://www.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; <br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-devel mailing list<br>
&gt; &gt; Gluster-devel@gluster.org<br>
&gt; &gt; </font></tt><a href="http://www.gluster.org/mailman/listinfo/gluster-devel"><tt><font size=2>http://www.gluster.org/mailman/listinfo/gluster-devel</font></tt></a><tt><font size=2><br>
&gt; &gt; <br>
&gt; <br>
&gt; <br>
</font></tt>
<br>