<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On 3 July 2015 at 16:45, John Ewing <span dir="ltr">&lt;<a href="mailto:johnewing1@gmail.com" target="_blank">johnewing1@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra">I am only allowing port 22 inbound on the slave server , I thought that the traffic would be tunnelled over ssh, is this not the case ?</div></div></blockquote><div><br></div><div>Well, to mount the volume client needs to communicate with the glusterd (which runs on 24007). So that needs to be open. Also the client talks to bricks once mounted, so bricks port (49152 in your case) should be open too.<br><br></div><div>Best Regards,<br></div><div>Vishwanath<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><br></div><div class="gmail_extra">Thanks</div><span class=""><font color="#888888"><div class="gmail_extra"><br></div><div class="gmail_extra">J.</div></font></span><div><div class="h5"><div class="gmail_extra"><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jul 3, 2015 at 12:09 PM, M S Vishwanath Bhat <span dir="ltr">&lt;<a href="mailto:msvbhat@gmail.com" target="_blank">msvbhat@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On 3 July 2015 at 15:54, John Ewing <span dir="ltr">&lt;<a href="mailto:johnewing1@gmail.com" target="_blank">johnewing1@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Hi <span style="font-size:12.8px">Vishwanath,</span></div><div><br></div><div>The slave volume is definitely started</div><div><br></div><div>[root@ip-192-168-4-55 ~]# gluster volume start myvol start</div><div>volume start: myvol: failed: Volume myvol already started<br></div></div></blockquote><div><br></div></span><div>IIRC geo-rep create first tries to mount the slave volume in master in some temporary location.<br><br></div><div>Can you try mounting the slave in master once manually? If the mount doesn&#39;t work, there might some firewall restrictions in the slave volume? Can you please check that as well?<br><br></div><div>Hope it helps...<br><br></div><div>Best Regards,<br></div><div>Vishwanath<br><br></div><div><div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div></div><div><br></div><div><div>[root@ip-192-168-4-55 ~]# gluster volume status</div><div>Status of volume: myvol</div><div>Gluster process                                         Port    Online  Pid</div><div>------------------------------------------------------------------------------</div><div>Brick 192.168.4.55:/export/xvdb1/brick                  49152   Y       9972</div><div>NFS Server on localhost                                 2049    Y       12238</div><div><br></div><div>Task Status of Volume myvol</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div></div><div><br></div><div><br></div><div>Anyone have any debugging suggestions ?</div><div><br></div><div>Thanks</div><span><font color="#888888"><div><br></div><div>John.</div></font></span></div><div><div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jul 2, 2015 at 8:46 PM, M S Vishwanath Bhat <span dir="ltr">&lt;<a href="mailto:msvbhat@gmail.com" target="_blank">msvbhat@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On 2 July 2015 at 21:33, John Ewing <span dir="ltr">&lt;<a href="mailto:johnewing1@gmail.com" target="_blank">johnewing1@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi,<div><br></div><div>I&#39;m trying to build a new geo-replicated cluster using Centos 6.6 and Gluster 3.6.3</div><div><br></div><div>I&#39;ve got as far creating a replicated volume with two peers on site, and a slave volume in EC2.</div><div><br></div><div>I&#39;ve set up passwordless ssh from one of the pair to the slave server, and I&#39;ve run  </div><div><br></div><div>gluster system:: execute gsec_create</div><div><br></div><div><br></div><div>When I try and create the geo-replication relationship between the servers I get:</div><div><br></div><div><br></div><div>gluster volume geo-replication myvol X.X.X.X::myvol create  push-pem force<br></div><div> </div><div> Unable to fetch slave volume details. Please check the slave cluster and slave volume.<br></div><div><div> geo-replication command failed</div></div></div></blockquote><div><br></div></span><div>I remember seeing this error when the slave volume is either not created or not started or not present in your x.x.x.x host.<br><br></div><div>Can you check if the slave volume is started?<br><br></div><div>Best Regards,<br></div><div>Vishwanath<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div><div dir="ltr"><div><br></div><div><br></div><div>The geo-replication-slaves log file from the master looks like this</div><div><br></div><div><br></div><div><div>[2015-07-02 15:13:37.324823] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-myvol-client-0: changing port to 49152 (from 0)</div><div>[2015-07-02 15:13:37.334874] I [client-handshake.c:1413:select_server_supported_programs] 0-myvol-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)</div><div>[2015-07-02 15:13:37.335419] I [client-handshake.c:1200:client_setvolume_cbk] 0-myvol-client-0: Connected to myvol-client-0, attached to remote volume &#39;/export/sdb1/brick,&#39;.</div><div>[2015-07-02 15:13:37.335493] I [client-handshake.c:1210:client_setvolume_cbk] 0-myvol-client-0: Server and Client lk-version numbers are not same, reopening the fds</div><div>[2015-07-02 15:13:37.336050] I [MSGID: 108005] [afr-common.c:3669:afr_notify] 0-myvol-replicate-0: Subvolume &#39;myvol-client-0&#39; came back up; going online.</div><div>[2015-07-02 15:13:37.336170] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-myvol-client-1: changing port to 49152 (from 0)</div><div>[2015-07-02 15:13:37.336298] I [client-handshake.c:188:client_set_lk_version_cbk] 0-myvol-client-0: Server lk version = 1</div><div>[2015-07-02 15:13:37.343247] I [client-handshake.c:1413:select_server_supported_programs] 0-myvol-client-1: Using Program GlusterFS 3.3, Num (1298437), Version (330)</div><div>[2015-07-02 15:13:37.343964] I [client-handshake.c:1200:client_setvolume_cbk] 0-myvol-client-1: Connected to myvol-client-1, attached to remote volume &#39;/export/sdb1/brick&#39;.</div><div>[2015-07-02 15:13:37.344043] I [client-handshake.c:1210:client_setvolume_cbk] 0-myvol-client-1: Server and Client lk-version numbers are not same, reopening the fds</div><div>[2015-07-02 15:13:37.351151] I [fuse-bridge.c:5080:fuse_graph_setup] 0-fuse: switched to graph 0</div><div>[2015-07-02 15:13:37.351491] I [client-handshake.c:188:client_set_lk_version_cbk] 0-myvol-client-1: Server lk version = 1</div><div>[2015-07-02 15:13:37.352078] I [fuse-bridge.c:4009:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.22 kernel 7.14</div><div>[2015-07-02 15:13:37.355056] I [afr-common.c:1477:afr_local_discovery_cbk] 0-myvol-replicate-0: selecting local read_child myvol-client-0</div><div>[2015-07-02 15:13:37.396403] I [fuse-bridge.c:4921:fuse_thread_proc] 0-fuse: unmounting /tmp/tmp.NPixVv7xk9</div><div>[2015-07-02 15:13:37.396922] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt; 0-: received signum (15), shutting down</div><div>[2015-07-02 15:13:37.396970] I [fuse-bridge.c:5599:fini] 0-fuse: Unmounting &#39;/tmp/tmp.NPixVv7xk9&#39;.</div><div>[2015-07-02 15:13:37.412584] I [MSGID: 100030] [glusterfsd.c:2018:main] 0-glusterfs: Started running glusterfs version 3.6.3 (args: glusterfs --xlator-option=*dht.lookup-unhashed=off --volfile-server X.X.X.X --volfile-id myvol -l /var/log/glusterfs/geo-replication-slaves/slave.log /tmp/tmp.am6rnOYxE7)</div><div>[2015-07-02 15:14:40.423812] E [socket.c:2276:socket_connect_finish] 0-glusterfs: connection to X.X.X.X:24007 failed (Connection timed out)</div><div>[2015-07-02 15:14:40.424077] E [glusterfsd-mgmt.c:1811:mgmt_rpc_notify] 0-glusterfsd-mgmt: failed to connect with remote-host: X.X.X.X (Transport endpoint is not connected)</div><div>[2015-07-02 15:14:40.424119] I [glusterfsd-mgmt.c:1817:mgmt_rpc_notify] 0-glusterfsd-mgmt: Exhausted all volfile servers</div><div>[2015-07-02 15:14:40.424557] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt; 0-: received signum (1), shutting down</div><div>[2015-07-02 15:14:40.424626] I [fuse-bridge.c:5599:fini] 0-fuse: Unmounting &#39;/tmp/tmp.am6rnOYxE7&#39;.</div></div><div><br></div><div><br></div><div>I&#39;m confused by the error message about not being able to connect to the slave on port 24007. Should it not be connecting over ssh ?</div><div><br></div><div>Thanks</div><span><font color="#888888"><div><br></div><div>John.</div></font></span></div>
<br></div></div>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div>
</blockquote></div><br></div>
</div></div></blockquote></div></div></div><br></div></div>
</blockquote></div><br></div></div></div></div>
</blockquote></div><br></div></div>