<div dir="ltr"><div class="gmail_extra">I am only allowing port 22 inbound on the slave server , I thought that the traffic would be tunnelled over ssh, is this not the case ?</div><div class="gmail_extra"><br></div><div class="gmail_extra">Thanks</div><div class="gmail_extra"><br></div><div class="gmail_extra">J.</div><div class="gmail_extra"><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jul 3, 2015 at 12:09 PM, M S Vishwanath Bhat <span dir="ltr">&lt;<a href="mailto:msvbhat@gmail.com" target="_blank">msvbhat@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On 3 July 2015 at 15:54, John Ewing <span dir="ltr">&lt;<a href="mailto:johnewing1@gmail.com" target="_blank">johnewing1@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi <span style="font-size:12.8000001907349px">Vishwanath,</span></div><div><br></div><div>The slave volume is definitely started</div><div><br></div><div>[root@ip-192-168-4-55 ~]# gluster volume start myvol start</div><div>volume start: myvol: failed: Volume myvol already started<br></div></div></blockquote><div><br></div></span><div>IIRC geo-rep create first tries to mount the slave volume in master in some temporary location.<br><br></div><div>Can you try mounting the slave in master once manually? If the mount doesn&#39;t work, there might some firewall restrictions in the slave volume? Can you please check that as well?<br><br></div><div>Hope it helps...<br><br></div><div>Best Regards,<br></div><div>Vishwanath<br><br></div><div><div class="h5"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div></div><div><br></div><div><div>[root@ip-192-168-4-55 ~]# gluster volume status</div><div>Status of volume: myvol</div><div>Gluster process                                         Port    Online  Pid</div><div>------------------------------------------------------------------------------</div><div>Brick 192.168.4.55:/export/xvdb1/brick                  49152   Y       9972</div><div>NFS Server on localhost                                 2049    Y       12238</div><div><br></div><div>Task Status of Volume myvol</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div></div><div><br></div><div><br></div><div>Anyone have any debugging suggestions ?</div><div><br></div><div>Thanks</div><span><font color="#888888"><div><br></div><div>John.</div></font></span></div><div><div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jul 2, 2015 at 8:46 PM, M S Vishwanath Bhat <span dir="ltr">&lt;<a href="mailto:msvbhat@gmail.com" target="_blank">msvbhat@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On 2 July 2015 at 21:33, John Ewing <span dir="ltr">&lt;<a href="mailto:johnewing1@gmail.com" target="_blank">johnewing1@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div><br></div><div>I&#39;m trying to build a new geo-replicated cluster using Centos 6.6 and Gluster 3.6.3</div><div><br></div><div>I&#39;ve got as far creating a replicated volume with two peers on site, and a slave volume in EC2.</div><div><br></div><div>I&#39;ve set up passwordless ssh from one of the pair to the slave server, and I&#39;ve run  </div><div><br></div><div>gluster system:: execute gsec_create</div><div><br></div><div><br></div><div>When I try and create the geo-replication relationship between the servers I get:</div><div><br></div><div><br></div><div>gluster volume geo-replication myvol X.X.X.X::myvol create  push-pem force<br></div><div> </div><div> Unable to fetch slave volume details. Please check the slave cluster and slave volume.<br></div><div><div> geo-replication command failed</div></div></div></blockquote><div><br></div></span><div>I remember seeing this error when the slave volume is either not created or not started or not present in your x.x.x.x host.<br><br></div><div>Can you check if the slave volume is started?<br><br></div><div>Best Regards,<br></div><div>Vishwanath<br> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div dir="ltr"><div><br></div><div><br></div><div>The geo-replication-slaves log file from the master looks like this</div><div><br></div><div><br></div><div><div>[2015-07-02 15:13:37.324823] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-myvol-client-0: changing port to 49152 (from 0)</div><div>[2015-07-02 15:13:37.334874] I [client-handshake.c:1413:select_server_supported_programs] 0-myvol-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)</div><div>[2015-07-02 15:13:37.335419] I [client-handshake.c:1200:client_setvolume_cbk] 0-myvol-client-0: Connected to myvol-client-0, attached to remote volume &#39;/export/sdb1/brick,&#39;.</div><div>[2015-07-02 15:13:37.335493] I [client-handshake.c:1210:client_setvolume_cbk] 0-myvol-client-0: Server and Client lk-version numbers are not same, reopening the fds</div><div>[2015-07-02 15:13:37.336050] I [MSGID: 108005] [afr-common.c:3669:afr_notify] 0-myvol-replicate-0: Subvolume &#39;myvol-client-0&#39; came back up; going online.</div><div>[2015-07-02 15:13:37.336170] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-myvol-client-1: changing port to 49152 (from 0)</div><div>[2015-07-02 15:13:37.336298] I [client-handshake.c:188:client_set_lk_version_cbk] 0-myvol-client-0: Server lk version = 1</div><div>[2015-07-02 15:13:37.343247] I [client-handshake.c:1413:select_server_supported_programs] 0-myvol-client-1: Using Program GlusterFS 3.3, Num (1298437), Version (330)</div><div>[2015-07-02 15:13:37.343964] I [client-handshake.c:1200:client_setvolume_cbk] 0-myvol-client-1: Connected to myvol-client-1, attached to remote volume &#39;/export/sdb1/brick&#39;.</div><div>[2015-07-02 15:13:37.344043] I [client-handshake.c:1210:client_setvolume_cbk] 0-myvol-client-1: Server and Client lk-version numbers are not same, reopening the fds</div><div>[2015-07-02 15:13:37.351151] I [fuse-bridge.c:5080:fuse_graph_setup] 0-fuse: switched to graph 0</div><div>[2015-07-02 15:13:37.351491] I [client-handshake.c:188:client_set_lk_version_cbk] 0-myvol-client-1: Server lk version = 1</div><div>[2015-07-02 15:13:37.352078] I [fuse-bridge.c:4009:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.22 kernel 7.14</div><div>[2015-07-02 15:13:37.355056] I [afr-common.c:1477:afr_local_discovery_cbk] 0-myvol-replicate-0: selecting local read_child myvol-client-0</div><div>[2015-07-02 15:13:37.396403] I [fuse-bridge.c:4921:fuse_thread_proc] 0-fuse: unmounting /tmp/tmp.NPixVv7xk9</div><div>[2015-07-02 15:13:37.396922] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt; 0-: received signum (15), shutting down</div><div>[2015-07-02 15:13:37.396970] I [fuse-bridge.c:5599:fini] 0-fuse: Unmounting &#39;/tmp/tmp.NPixVv7xk9&#39;.</div><div>[2015-07-02 15:13:37.412584] I [MSGID: 100030] [glusterfsd.c:2018:main] 0-glusterfs: Started running glusterfs version 3.6.3 (args: glusterfs --xlator-option=*dht.lookup-unhashed=off --volfile-server X.X.X.X --volfile-id myvol -l /var/log/glusterfs/geo-replication-slaves/slave.log /tmp/tmp.am6rnOYxE7)</div><div>[2015-07-02 15:14:40.423812] E [socket.c:2276:socket_connect_finish] 0-glusterfs: connection to X.X.X.X:24007 failed (Connection timed out)</div><div>[2015-07-02 15:14:40.424077] E [glusterfsd-mgmt.c:1811:mgmt_rpc_notify] 0-glusterfsd-mgmt: failed to connect with remote-host: X.X.X.X (Transport endpoint is not connected)</div><div>[2015-07-02 15:14:40.424119] I [glusterfsd-mgmt.c:1817:mgmt_rpc_notify] 0-glusterfsd-mgmt: Exhausted all volfile servers</div><div>[2015-07-02 15:14:40.424557] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt; 0-: received signum (1), shutting down</div><div>[2015-07-02 15:14:40.424626] I [fuse-bridge.c:5599:fini] 0-fuse: Unmounting &#39;/tmp/tmp.am6rnOYxE7&#39;.</div></div><div><br></div><div><br></div><div>I&#39;m confused by the error message about not being able to connect to the slave on port 24007. Should it not be connecting over ssh ?</div><div><br></div><div>Thanks</div><span><font color="#888888"><div><br></div><div>John.</div></font></span></div>
<br></div></div>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div></div>
</blockquote></div><br></div>
</div></div></blockquote></div></div></div><br></div></div>
</blockquote></div><br></div></div>