<div dir="ltr"><br><div>Hi,</div><div><br></div><div>Can you please check if glusterd on the node &quot;<a href="http://192.168.22.28:24007/" rel="noreferrer" target="_blank" style="font-size:12.8px">192.168.22.28</a>&quot; is ruuning?</div><div><br></div><div>&quot;service glusterd status&quot; or &quot;ps aux | grep glusterd&quot;.</div><div><br></div><div>Regards,</div><div>Raghavendra</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Apr 26, 2016 at 7:26 AM, Dmitry Melekhov <span dir="ltr">&lt;<a href="mailto:dm@belkam.com" target="_blank">dm@belkam.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello!<br>
<br>
I have 3 servers setup- centos 7 and gluster 3.7.11<br>
and don&#39;t know did it work with previous versions or not...<br>
<br>
<br>
Volume is replicated 3.<br>
<br>
If I shutdown port on switch for one of nodes, then qemu can&#39;t start, because it can&#39;t connects to gluster:<br>
<br>
<br>
<br>
[2016-04-26 10:51:53.881654] I [MSGID: 114057] [client-handshake.c:1437:select_server_supported_programs] 0-pool-client-7: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-04-26 10:51:53.882271] I [MSGID: 114046] [client-handshake.c:1213:client_setvolume_cbk] 0-pool-client-7: Connected to pool-client-7, attached to remote volume &#39;/wall/pool/brick&#39;.<br>
[2016-04-26 10:51:53.882299] I [MSGID: 114047] [client-handshake.c:1224:client_setvolume_cbk] 0-pool-client-7: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-04-26 10:51:53.882620] I [MSGID: 114035] [client-handshake.c:193:client_set_lk_version_cbk] 0-pool-client-7: Server lk version = 1<br>
[2016-04-26 10:51:55.373983] E [socket.c:2279:socket_connect_finish] 0-pool-client-8: connection to <a href="http://192.168.22.28:24007" rel="noreferrer" target="_blank">192.168.22.28:24007</a> failed (No route to host)<br>
[2016-04-26 10:51:55.416522] I [MSGID: 108031] [afr-common.c:1900:afr_local_discovery_cbk] 0-pool-replicate-0: selecting local read_child pool-client-6<br>
[2016-04-26 10:51:55.416919] I [MSGID: 104041] [glfs-resolve.c:869:__glfs_active_subvol] 0-pool: switched to graph 66617468-6572-2d35-3334-372d32303136 (0)<br>
qemu: terminating on signal 15 from pid 9767<br>
[2016-04-26 10:53:36.418693] I [MSGID: 114021] [client.c:2115:notify] 0-pool-client-6: current graph is no longer active, destroying rpc_client<br>
[2016-04-26 10:53:36.418802] I [MSGID: 114021] [client.c:2115:notify] 0-pool-client-7: current graph is no longer active, destroying rpc_client<br>
[2016-04-26 10:53:36.418840] I [MSGID: 114021] [client.c:2115:notify] 0-pool-client-8: current graph is no longer active, destroying rpc_client<br>
[2016-04-26 10:53:36.418870] I [MSGID: 114018] [client.c:2030:client_rpc_notify] 0-pool-client-6: disconnected from pool-client-6. Client process will keep trying to connect to glusterd until brick&#39;s port is avai<br>
lable<br>
[2016-04-26 10:53:36.418880] I [MSGID: 114018] [client.c:2030:client_rpc_notify] 0-pool-client-7: disconnected from pool-client-7. Client process will keep trying to connect to glusterd until brick&#39;s port is avai<br>
lable<br>
[2016-04-26 10:53:36.418949] W [MSGID: 108001] [afr-common.c:4090:afr_notify] 0-pool-replicate-0: Client-quorum is not met<br>
[2016-04-26 10:53:36.419002] E [MSGID: 108006] [afr-common.c:4046:afr_notify] 0-pool-replicate-0: All subvolumes are down. Going offline until atleast one of them comes back up.<br>
<br>
<br>
192.168.22.28 is node , which is not available.<br>
<br>
I don&#39;t see any errors in bricks logs, only<br>
[2016-04-26 10:53:41.807032] I [dict.c:473:dict_get] (--&gt;/lib64/libglusterfs.so.0(default_getxattr_cbk+0xac) [0x7f7405415cbc] --&gt;/usr/lib64/glusterfs/3.7.11/xlator/features/marker.so(marker_getxattr_cbk+0xa7) [0x<br>
7f73f59da917] --&gt;/lib64/libglusterfs.so.0(dict_get+0xac) [0x7f74054060fc] ) 0-dict: !this || key=() [Invalid argument]<br>
<br>
But I guess it is not related.<br>
<br>
<br>
Could you tell me what can cause this problem ?<br>
<br>
Thank you!<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>