<div dir="ltr">I replaced the brick in a node in my 3x2 dist+repl volume (RHS 3). I&#39;m seeing that the heal process, which should essentially be a dump from the working replica to the newly added one is taking exceptionally long. It has moved ~100 G over a day on a 1Gigabit network. The CPU usage on both the nodes of the replica has been pretty high. I also think that nagios is making it worse. The heal is slow enough as it is, and nagios keeps triggering heal info, which I think never completes. I also see my logs filling up These are some of the log contents which I got by running tail on them:<div><br></div><div>cli.log</div><div><div>[2015-08-06 19:52:20.926000] T [socket.c:2759:socket_connect] (--&gt;/lib64/libpthread.so.0() [0x3ec1407a51] (--&gt;/usr/lib64/libglusterfs.so.0(gf_timer_proc+0x120) [0x7fb84c0f6980] (--&gt;/usr/lib64/libgfrpc.so.0(rpc_clnt_reconnect+0xd9) [0x7fb84bc96249]))) 0-glusterfs: connect () called on transport already connected</div><div>[2015-08-06 19:52:21.926068] T [rpc-clnt.c:418:rpc_clnt_reconnect] 0-glusterfs: attempting reconnect</div><div>[2015-08-06 19:52:21.926091] T [socket.c:2767:socket_connect] 0-glusterfs: connecting 0xa198b0, state=0 gen=0 sock=-1</div><div>[2015-08-06 19:52:21.926114] W [dict.c:1060:data_to_str] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(+0x6bea)">3.6.0.53/rpc-transport/socket.so(+0x6bea)</a> [0x7fb844f82bea] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(socket_client_get_remote_sockaddr+0xad)">3.6.0.53/rpc-transport/socket.so(socket_client_get_remote_sockaddr+0xad)</a> [0x7fb844f873bd] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(client_fill_address_family+0x200)">3.6.0.53/rpc-transport/socket.so(client_fill_address_family+0x200)</a> [0x7fb844f87270]))) 0-dict: data is NULL</div><div>[2015-08-06 19:52:21.926125] W [dict.c:1060:data_to_str] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(+0x6bea)">3.6.0.53/rpc-transport/socket.so(+0x6bea)</a> [0x7fb844f82bea] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(socket_client_get_remote_sockaddr+0xad)">3.6.0.53/rpc-transport/socket.so(socket_client_get_remote_sockaddr+0xad)</a> [0x7fb844f873bd] (--&gt;/usr/lib64/glusterfs/<a href="http://3.6.0.53/rpc-transport/socket.so(client_fill_address_family+0x20b)">3.6.0.53/rpc-transport/socket.so(client_fill_address_family+0x20b)</a> [0x7fb844f8727b]))) 0-dict: data is NULL</div><div>[2015-08-06 19:52:21.926129] E [name.c:140:client_fill_address_family] 0-glusterfs: transport.address-family not specified. Could not guess default value from (remote-host:(null) or transport.unix.connect-path:(null)) options</div><div>[2015-08-06 19:52:21.926179] T [cli-quotad-client.c:100:cli_quotad_notify] 0-glusterfs: got RPC_CLNT_DISCONNECT</div></div><div><br></div><div><br></div><div>brick log full of these messages:</div><div><br></div><div><div>[2015-08-06 19:54:22.494254] I [server-rpc-fops.c:693:server_removexattr_cbk] 0-gluster-server: 2206495: REMOVEXATTR file path (fadccb1e-ea0c-416a-94ec-ec88fafec2a5) of key security.ima ==&gt; (No data available)</div><div>[2015-08-06 19:54:22.514814] E [marker.c:2574:marker_removexattr_cbk] 0-gluster-marker: No data available occurred while creating symlinks </div></div><div><br></div><div><br></div><div><div>sestatus</div><div>SELinux status:                 disabled</div></div><div><br></div><div><div>glusterfs --version</div><div>glusterfs 3.6.0.53 built on Mar 18 2015 08:12:38</div><div><br></div></div><div><br></div><div>Does anyone know what&#39;s going on ?</div><div><br></div><div>PS: I am using RHS because our school&#39;s satellite has the repos. Contacting RHN over this would likely be complicated, and i would prefer solving this on my own. </div><div><div><br></div><div><br></div></div></div>