<html><body><div style="font-family: garamond,new york,times,serif; font-size: 12pt; color: #000000"><div>Hi,</div><div><br></div><div>I see that you have posted logs from nfs.log.</div><div>Even so, let me go ahead and ask you this just to be doubly sure - were the mounts using NFS protocol?</div><div>In case it's FUSE, could you provide logs of the fuse mount? You should find that in /var/log/glusterfs/home-mytestlo-public_html.log.</div><div><br></div><div>-Krutika</div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="border-left: 2px solid #1010FF; margin-left: 5px; padding-left: 5px; color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Gopu Krishnan" &lt;gopukrishnantec@gmail.com&gt;<br><b>To: </b>"gluster-users Discussion List" &lt;Gluster-users@gluster.org&gt;, "Gluster Devel" &lt;gluster-devel@gluster.org&gt;<br><b>Sent: </b>Thursday, May 28, 2015 7:29:35 PM<br><b>Subject: </b>[Gluster-users] Glusterfs : unable to copy/move files to the&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;replicated volume<br><div><br></div><div dir="ltr"><div><div>Hi all,<br><div><br></div>I am having issue to copy/move files to my replicated volume residing inside the aws volume. I will explain my current setup. I have created two instances in aws and attached a 50GB volume to each of them. I have mounted those volumes at the mount points /gluster_brick1 and /gluster_brick2 respectively. I have created another directory /gluster_brick1/data/ and /gluster_brick2/data/ as two bricks for the glusterfs replications. I have followed the below link for replication setup that was working nicely for me.<br><div><br></div><a href="https://gopukrish.wordpress.com/glusterfs/" target="_blank" data-mce-href="https://gopukrish.wordpress.com/glusterfs/">https://gopukrish.wordpress.com/glusterfs/</a><br><div><br></div>My volume name is datavol and is mounted to each of the servers in the location /home/mytestlo/public_html.<br><div><br></div><br>gluster replication is working fine as expected when i create files. But when I copy or&nbsp; move files to the datavolume, i get error : Remote I/O error.<br><div><br></div><br>[root@mytestlocal1 ~]# df -h<br>Filesystem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size&nbsp; Used Avail Use% Mounted on<br>/dev/xvda1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 9.9G&nbsp; 7.1G&nbsp; 2.4G&nbsp; 76% /<br>none&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1.8G&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp; 1.8G&nbsp;&nbsp; 0% /dev/shm<br>/dev/xvdb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 50G&nbsp; 7.1G&nbsp;&nbsp; 40G&nbsp; 16% /gluster_brick1<br>mytestlocal1.com:/datavol<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 50G&nbsp; 7.1G&nbsp;&nbsp; 40G&nbsp; 16% /home/mytestlo/public_html<br><div><br></div>[root@mytestlocal1 ~]# cd /home/mytestlo/public_html<br>[root@mytestlocal1 public_html]# mv /root/phpmyadmin/ /home/mytestlo/public_html/<br><span style="color:rgb(255,0,0)" data-mce-style="color: #ff0000;"><span data-mce-style="text-decoration: underline;" style="text-decoration: underline;"><i><b>mv: cannot create directory `/home/mytestlo/public_html/phpmyadmin': Remote I/O error</b></i></span></span><br><div><br></div>Only log I was able to find out was :<br><div><br></div>nfs.log <br>[2015-05-28 13:29:26.713278] I [MSGID: 109036] [dht-common.c:6689:dht_log_new_layout_for_dir_selfheal] 0-datavol-dht: Setting layout of /phpmyadmin with [Subvol_name: datavol-replicate-0, Err: -1 , Start: 0 , Stop: 4294967295 , Hash: 1 ], <br><div><br></div>Following are my gluster details.<br><div><br></div>[root@mytestlocal1 public_html]# cat /etc/redhat-release <br>CentOS release 6.6 (Final)<br><div><br></div><br>[root@mytestlocal1 public_html]# glusterfs -V<br>glusterfs 3.7.0 built on May 20 2015 13:30:40<br>Repository revision: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank" data-mce-href="http://git.gluster.com/glusterfs.git">git.gluster.com/glusterfs.git</a><br>Copyright (c) 2006-2013 Red Hat, Inc. &lt;<a href="http://www.redhat.com/" target="_blank" data-mce-href="http://www.redhat.com/">http://www.redhat.com/</a>&gt;<br>GlusterFS comes with ABSOLUTELY NO WARRANTY.<br>It is licensed to you under your choice of the GNU Lesser<br>General Public License, version 3 or any later version (LGPLv3<br>or later), or the GNU General Public License, version 2 (GPLv2),<br>in all cases as published by the Free Software Foundation.<br><div><br></div><br>[root@mytestlocal1 ~]# gluster volume info<br>&nbsp;<br>Volume Name: datavol<br>Type: Replicate<br>Volume ID: 1c77f0cf-c3b7-49a3-bcb4-e6fe950c0b6a<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: mytestlocal1.com:/gluster_brick1/data<br>Brick2: mytestlocal2.com:/gluster_brick2/data<br>Options Reconfigured:<br>performance.readdir-ahead: on<br>auth.allow: IP1,IP2<br><div><br></div><br><div><br></div><br><div><br></div><br>[root@mytestlocal1 public_html]# gluster volume status<br>Status of volume: datavol<br>Gluster process&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; TCP Port&nbsp; RDMA Port&nbsp; Online&nbsp; Pid<br>------------------------------------------------------------------------------<br>Brick mytestlocal1.com:/gluster_brick1/data 49152&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 27422<br>Brick mytestlocal2.com:/gluster_brick2/data 49152&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 26015<br>NFS Server on localhost&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2049&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 27407<br>Self-heal Daemon on localhost&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 27417<br>NFS Server on <a href="http://mytestlocal2.com" target="_blank" data-mce-href="http://mytestlocal2.com">mytestlocal2.com</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2049&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 26004<br>Self-heal Daemon on <a href="http://mytestlocal2.com" target="_blank" data-mce-href="http://mytestlocal2.com">mytestlocal2.com</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 26014<br>&nbsp;<br>Task Status of Volume datavol<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><div><br></div><br>[root@mytestlocal1 public_html]# gluster peer status<br>Number of Peers: 1<br><div><br></div>Hostname: <a href="http://mytestlocal2.com" target="_blank" data-mce-href="http://mytestlocal2.com">mytestlocal2.com</a><br>Uuid: 2a6a1341-9e8c-4c3a-980c-d0592e4aeeca<br>State: Peer in Cluster (Connected)<br><div><br></div><br><div><br></div>[root@mytestlocal1 public_html]# gluster volume heal datavol info split-brain<br>Brick mytestlocal1.com:/gluster_brick1/data/<br>Number of entries in split-brain: 0<br><div><br></div>Brick mytestlocal2.com:/gluster_brick2/data/<br>Number of entries in split-brain: 0<br><div><br></div><br>I am not sure whether aws volume is causing the error. Please help !<br><div><br></div></div>Thanks,<br></div>Gopu<br><div><div><br><div><br></div><br><div><br></div><br><div><br></div></div></div></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://www.gluster.org/mailman/listinfo/gluster-users</blockquote><div><br></div></div></body></html>