<div dir="ltr"><div><div><div><div><div><div>Hi, and thanks for your replies.<br><br></div>For Kotresh : No, I am not using tar ssh for my geo-replication.<br><br></div>For Aravinda: I had to recreate my slave volume all over et restart the geo-replication.<br><br></div>If I have thousands of files with this problem, do I have to execute the fix for all of them? is there an easy way?<br></div>Can checkpoints help me in this situation?<br></div><div>and more important, what can cause this problem?<br><br></div><div>I am syncing containers, they contain lot of files small files, using tar ssh, would it be more suitable?<br></div><div><br></div><br>PS: I tried to execute this command on the Master<br></div><pre><span style="font-family:arial,helvetica,sans-serif">bash generate-gfid-file.sh localhost:data2   $PWD/get-gfid.sh    /tmp/master_gfid_file.txt<br><br></span></pre><pre><span style="font-family:arial,helvetica,sans-serif">but I got errors with files that have blank (space) in their names, for example: Admin Guide.pdf<br></span></pre><pre><span style="font-family:arial,helvetica,sans-serif">the script sees two files Admin and Guide.pdf, then the get-gfid.sh returns errors &quot;no such file or directory&quot;<br><br></span></pre><pre><span style="font-family:arial,helvetica,sans-serif">thanks.</span><br></pre></div><div class="gmail_extra"><br><div class="gmail_quote">2015-05-25 7:00 GMT+01:00 Aravinda <span dir="ltr">&lt;<a href="mailto:avishwan@redhat.com" target="_blank">avishwan@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Looks like this is GFID conflict issue not the tarssh issue.<span class=""><br>
<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;e529a399-756d-4cb1-9779-0af2822a0d94&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.mdb&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
<br></span>
    Data: {&#39;uid&#39;: 0,<span class=""><br>
           &#39;gfid&#39;: &#39;e529a399-756d-4cb1-9779-0af2822a0d94&#39;,<br>
           &#39;gid&#39;: 0,<br>
           &#39;mode&#39;: 33152,<br>
           &#39;entry&#39;: &#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.mdb&#39;,<br>
           &#39;op&#39;: &#39;CREATE&#39;}<br>
<br></span>
    and Error: 2<br>
<br>
During creation of &quot;main.mdb&quot; RPC failed with error number 2, ie, ENOENT. This error comes when parent directory not exists or exists with different GFID.<br>
In this case Parent GFID &quot;874799ef-df75-437b-bc8f-3fcd58b54789&quot; does not exists on slave.<br>
<br>
<br>
To fix the issue,<br>
-----------------<br>
Find the parent directory of &quot;main.mdb&quot;,<br>
Get the GFID of that directory, using getfattr<br>
Check the GFID of the same directory in Slave(To confirm GFIDs are different)<br>
To fix the issue, Delete that directory in Slave.<br>
Set virtual xattr for that directory and all the files inside that directory.<br>
    setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;DIR&gt;<br>
    setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;file-path&gt;<br>
<br>
<br>
Geo-rep will recreate the directory with Proper GFID and starts sync.<br>
<br>
Let us know if you need any help.<br>
<br>
--<br>
regards<span class="HOEnZb"><font color="#888888"><br>
Aravinda</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<br>
<br>
On 05/25/2015 10:54 AM, Kotresh Hiremath Ravishankar wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Wodel,<br>
<br>
Is the sync mode, tar over ssh (i.e., config use_tarssh is true) ?<br>
If yes, there is known issue with it and patch is already up in master.<br>
<br>
But it can be resolved in either of the two ways.<br>
<br>
1. If sync mode required is tar over ssh, just disable sync_xattrs which is true<br>
    by default.<br>
<br>
     gluster vol geo-rep &lt;master-vol&gt; &lt;slave-host&gt;::&lt;slave-vol&gt; config sync_xattrs false<br>
<br>
2. If sync mode is ok to be changed to rsync. Please do.<br>
          gluster vol geo-rep &lt;master-vol&gt; &lt;slave-host&gt;::&lt;slave-vol&gt; use_tarssh false<br>
<br>
NOTE: rsync supports syncing of acls and xattrs where as tar over ssh does not.<br>
       In 3.7.0-2, tar over ssh should be used with sync_xattrs to false<br>
<br>
Hope this helps.<br>
<br>
Thanks and Regards,<br>
Kotresh H R<br>
<br>
----- Original Message -----<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
From: &quot;wodel youchi&quot; &lt;<a href="mailto:wodel.youchi@gmail.com" target="_blank">wodel.youchi@gmail.com</a>&gt;<br>
To: &quot;gluster-users&quot; &lt;<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a>&gt;<br>
Sent: Sunday, May 24, 2015 3:31:38 AM<br>
Subject: [Gluster-users] [Centos7x64] Geo-replication problem glusterfs 3.7.0-2<br>
<br>
Hi,<br>
<br>
I have two gluster servers in replicated mode as MASTERS<br>
and one server for replicated geo-replication.<br>
<br>
I&#39;ve updated my glusterfs installation to 3.7.0-2, all three servers<br>
<br>
I&#39;ve recreated my slave volumes<br>
I&#39;ve started the geo-replication, it worked for a while and now I have some<br>
problmes<br>
<br>
1- Files/directories are not deleted on slave<br>
2- New files/rectories are not synced to the slave.<br>
<br>
I have these lines on the active master<br>
<br>
[2015-05-23 06:21:17.156939] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;e529a399-756d-4cb1-9779-0af2822a0d94&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.mdb&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.158066] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;b4bffa4c-2e88-4b60-9f6a-c665c4d9f7ed&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.hdb&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.159154] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;9920cdee-6b87-4408-834b-4389f5d451fe&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.db&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.160242] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;307756d2-d924-456f-b090-10d3ff9caccb&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/main.ndb&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.161283] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;69ebb4cb-1157-434b-a6e9-386bea81fc1d&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/874799ef-df75-437b-bc8f-3fcd58b54789/COPYING&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.162368] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;7d132fda-fc82-4ad8-8b6c-66009999650c&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/f6f2582e-0c5c-4cba-943a-6d5f64baf340/daily.cld&#39;, &#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
[2015-05-23 06:21:17.163718] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;d8a0303e-ba45-4e45-a8fd-17994c34687b&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 16832, &#39;entry&#39;:<br>
&#39;.gfid/f6f2582e-0c5c-4cba-943a-6d5f64baf340/clamav-54acc14b44e696e1cfb4a75ecc395fe0&#39;,<br>
&#39;op&#39;: &#39;MKDIR&#39;}, 2)<br>
[2015-05-23 06:21:17.165102] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;49d42bf6-3146-42bd-bc29-e704927d6133&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 16832, &#39;entry&#39;:<br>
&#39;.gfid/f6f2582e-0c5c-4cba-943a-6d5f64baf340/clamav-debec3aa6afe64bffaee8d099e76f3d4&#39;,<br>
&#39;op&#39;: &#39;MKDIR&#39;}, 2)<br>
[2015-05-23 06:21:17.166147] W [master(/mnt/brick2/brick):792:log_failures]<br>
_GMaster: ENTRY FAILED: ({&#39;uid&#39;: 0, &#39;gfid&#39;:<br>
&#39;1ddb93ae-3717-4347-910f-607afa67cdb0&#39;, &#39;gid&#39;: 0, &#39;mode&#39;: 33152, &#39;entry&#39;:<br>
&#39;.gfid/49d42bf6-3146-42bd-bc29-e704927d6133/clamav-704a1e9a3e2c97ccac127632d7c6b8e4&#39;,<br>
&#39;op&#39;: &#39;CREATE&#39;}, 2)<br>
<br>
<br>
in the slave lot of lines like this<br>
<br>
[2015-05-22 07:53:57.071999] W [fuse-bridge.c:1970:fuse_create_cbk]<br>
0-glusterfs-fuse: 25833: /.gfid/03a5a40b-c521-47ac-a4e3-916a6df42689 =&gt; -1<br>
(Operation not permitted)<br>
<br>
<br>
in the active master I have 3.7 GB of XSYNC-CHANGELOG.xxxxxxx files in<br>
/var/lib/misc/glusterfsd/data2/ssh%3A%2F%2Froot%4010.10.10.10%3Agluster%3A%2F%2F127.0.0.1%3Aslavedata2/e55761a256af4acfe9b4a419be62462a/xsync<br>
<br>
I don&#39;t know if this is normal.<br>
<br>
any idea?<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
<br>
</div></div></blockquote></div><br></div>