<div dir="ltr"><div><div>Hi all,<br><br>I am having issue to copy/move files to my replicated volume residing inside the aws volume. I will explain my current setup. I have created two instances in aws and attached a 50GB volume to each of them. I have mounted those volumes at the mount points /gluster_brick1 and /gluster_brick2 respectively. I have created another directory /gluster_brick1/data/ and /gluster_brick2/data/ as two bricks for the glusterfs replications. I have followed the below link for replication setup that was working nicely for me.<br><br><a href="https://gopukrish.wordpress.com/glusterfs/">https://gopukrish.wordpress.com/glusterfs/</a><br><br>My volume name is datavol and is mounted to each of the servers in the location /home/mytestlo/public_html.<br><br><br>gluster replication is working fine as expected when i create files. But when I copy or  move files to the datavolume, i get error : Remote I/O error.<br><br><br>[root@mytestlocal1 ~]# df -h<br>Filesystem            Size  Used Avail Use% Mounted on<br>/dev/xvda1            9.9G  7.1G  2.4G  76% /<br>none                  1.8G     0  1.8G   0% /dev/shm<br>/dev/xvdb              50G  7.1G   40G  16% /gluster_brick1<br>mytestlocal1.com:/datavol<br>                       50G  7.1G   40G  16% /home/mytestlo/public_html<br><br>[root@mytestlocal1 ~]# cd /home/mytestlo/public_html<br>[root@mytestlocal1 public_html]# mv /root/phpmyadmin/ /home/mytestlo/public_html/<br><span style="color:rgb(255,0,0)"><u><i><b>mv: cannot create directory `/home/mytestlo/public_html/phpmyadmin&#39;: Remote I/O error</b></i></u></span><br><br>Only log I was able to find out was :<br><br>nfs.log <br>[2015-05-28 13:29:26.713278] I [MSGID: 109036] [dht-common.c:6689:dht_log_new_layout_for_dir_selfheal] 0-datavol-dht: Setting layout of /phpmyadmin with [Subvol_name: datavol-replicate-0, Err: -1 , Start: 0 , Stop: 4294967295 , Hash: 1 ], <br><br>Following are my gluster details.<br><br>[root@mytestlocal1 public_html]# cat /etc/redhat-release <br>CentOS release 6.6 (Final)<br><br><br>[root@mytestlocal1 public_html]# glusterfs -V<br>glusterfs 3.7.0 built on May 20 2015 13:30:40<br>Repository revision: git://<a href="http://git.gluster.com/glusterfs.git">git.gluster.com/glusterfs.git</a><br>Copyright (c) 2006-2013 Red Hat, Inc. &lt;<a href="http://www.redhat.com/">http://www.redhat.com/</a>&gt;<br>GlusterFS comes with ABSOLUTELY NO WARRANTY.<br>It is licensed to you under your choice of the GNU Lesser<br>General Public License, version 3 or any later version (LGPLv3<br>or later), or the GNU General Public License, version 2 (GPLv2),<br>in all cases as published by the Free Software Foundation.<br><br><br>[root@mytestlocal1 ~]# gluster volume info<br> <br>Volume Name: datavol<br>Type: Replicate<br>Volume ID: 1c77f0cf-c3b7-49a3-bcb4-e6fe950c0b6a<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: mytestlocal1.com:/gluster_brick1/data<br>Brick2: mytestlocal2.com:/gluster_brick2/data<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>auth.allow: IP1,IP2<br><br><br><br><br><br><br>[root@mytestlocal1 public_html]# gluster volume status<br>Status of volume: datavol<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick mytestlocal1.com:/gluster_brick1/data 49152     0          Y       27422<br>Brick mytestlocal2.com:/gluster_brick2/data 49152     0          Y       26015<br>NFS Server on localhost                     2049      0          Y       27407<br>Self-heal Daemon on localhost               N/A       N/A        Y       27417<br>NFS Server on <a href="http://mytestlocal2.com">mytestlocal2.com</a>              2049      0          Y       26004<br>Self-heal Daemon on <a href="http://mytestlocal2.com">mytestlocal2.com</a>        N/A       N/A        Y       26014<br> <br>Task Status of Volume datavol<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br><br>[root@mytestlocal1 public_html]# gluster peer status<br>Number of Peers: 1<br><br>Hostname: <a href="http://mytestlocal2.com">mytestlocal2.com</a><br>Uuid: 2a6a1341-9e8c-4c3a-980c-d0592e4aeeca<br>State: Peer in Cluster (Connected)<br><br><br><br>[root@mytestlocal1 public_html]# gluster volume heal datavol info split-brain<br>Brick mytestlocal1.com:/gluster_brick1/data/<br>Number of entries in split-brain: 0<br><br>Brick mytestlocal2.com:/gluster_brick2/data/<br>Number of entries in split-brain: 0<br><br><br>I am not sure whether aws volume is causing the error. Please help !<br><br></div>Thanks,<br></div>Gopu<br><div><div><br><br><br><br><br><br></div></div></div>