<div dir="ltr">Hi Dietmar,<br>After discussion with Aravinda we realized that unfortunately the suggestion to:<br>      setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;DIR&gt;<br>      setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;file-path&gt;<br><br>won&#39;t work with 3.6.7, since provision for that workaround was added after 3.6.7.<br><br>There&#39;s an alternative way to achieve the geo-replication:<br>1. stop geo-replication<br>2. delete files and directories with conflicting gfid on SLAVE<br>3. use the &quot;touch&quot; command to touch files and directories with conflicting gfid<br>   on MASTER<br>4. start geo-replication<br><br>This *should* get things correctly replicated to SLAVE.<br>Geo-replication should start with hybrid-crawl and trigger the replication to SLAVE.<br><br>If not, then there&#39;s more to look at.<br>You could then send us output of the strace command for the gsyncd process, while<br>geo-replication is running:<br># strace -ff -p &lt;gsyncd-pid&gt; -o gsyncd-strace<br><br>You could terminate strace after about one minute and send us all the gsyncd-strace.&lt;pid&gt;<br>files which will help us debug the issue if its not resolved by the alternative<br>mechanism mentioned above.<br><br>Also, crawl status Hybrid Crawl is not an entirely bad thing. It just could mean<br>that there&#39;s a lot of entries that are being processed. However, if things don&#39;t<br>return back to the normal state after trying out the alternative suggestion, we<br>could take a look at the strace output and get some clues.<br><br>--<br>Milind<br><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jan 14, 2016 at 11:07 PM, Dietmar Putz <span dir="ltr">&lt;<a href="mailto:putz@3qmedien.net" target="_blank">putz@3qmedien.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello all,<br>
<br>
after some days of inactivity i started another attempt to solve this geo-replication issue...step by step.<br>
it looks like that some of the directories on the slave volume does not have the same gfid like the corresponding directory on the master volume.<br>
<br>
for example :<br>
<br>
on a master-node i can see a lot of &#39;errcode: 23&#39; lines like :<br>
[2016-01-14 09:58:36.96585] W [master(/gluster-export):301:regjob] _GMaster: Rsync: .gfid/a8d0387d-c5ad-4eeb-9fc6-637fb8299a50 [errcode: 23]<br>
<br>
on the corresponding slave the corresponding message :<br>
[2016-01-14 09:57:06.070452] W [fuse-bridge.c:1967:fuse_create_cbk] 0-glusterfs-fuse: 1185648: /.gfid/a8d0387d-c5ad-4eeb-9fc6-637fb8299a50 =&gt; -1 (Operation not permitted)<br>
<br>
This is the file on the master, the file is still not replicated to the slave.<br>
<br>
120533444364 97332 -rw-r--r-- 2 2001 2001 99662854 Jan  8 13:40 /gluster-export/3912/uploads/BSZ-2015/Z_002895D0-C832-4698-84E6-89F34CDEC2AE_20144555_ST_1.mp4<br>
120533444364 97332 -rw-r--r-- 2 2001 2001 99662854 Jan  8 13:40 /gluster-export/.glusterfs/a8/d0/a8d0387d-c5ad-4eeb-9fc6-637fb8299a50<br>
<br>
The directory on the slave already contain some files, all of them are not available on the master anymore, obviously deleted in meantime on the master by a client.<br>
i have deleted and recreated this file on the master and observed the logs for recurrence of the newly created gfid of this file...same as before.<br>
<br>
in <a href="http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20703" rel="noreferrer" target="_blank">http://comments.gmane.org/gmane.comp.file-systems.gluster.user/20703</a> a user reports a geo-replication problem which is possibly caused by different gfid&#39;s of underlying directories.<br>
and yes, the directory of this file-example above shows that the gfid of the underlying directory differs from the gfid on the master while the most other directories have the same gfid.<br>
<br>
master :<br>
...<br>
# file: gluster-export/3912/uploads/BSP-2012<br>
trusted.gfid=0x8f1d480351bb455b9adde190f2c2b350<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2003<br>
trusted.gfid=0xe80adc088e604234b778997d8e8c2018<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2004<br>
trusted.gfid=0xfe417dd16bbe4ae4a6a1936cfee7aced<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2010<br>
trusted.gfid=0x8044e436407d4ed3a67c81df8a7ad47f        ###<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2015<br>
trusted.gfid=0x0c30f50480204e02b65d4716a048b029        ###<br>
<br>
slave :<br>
...<br>
# file: gluster-export/3912/uploads/BSP-2012<br>
trusted.gfid=0x8f1d480351bb455b9adde190f2c2b350<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2003<br>
trusted.gfid=0xe80adc088e604234b778997d8e8c2018<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2004<br>
trusted.gfid=0xfe417dd16bbe4ae4a6a1936cfee7aced<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2010<br>
trusted.gfid=0xd83e8fb568c74e33a2091c547512a6ce        ###<br>
--------------<br>
# file: gluster-export/3912/uploads/BSZ-2015<br>
trusted.gfid=0xa406e1bec7f3454d8f2ce9c5f9c70eb3        ###<br>
<br>
<br>
now the question...how to fix this..?<br>
in the thread above Aravinda wrote :<br>
<br>
...<br>
To fix the issue,<br>
-----------------<br>
Find the parent directory of &quot;main.mdb&quot;,<br>
Get the GFID of that directory, using getfattr<br>
Check the GFID of the same directory in Slave(To confirm GFIDs are different)<br>
To fix the issue, Delete that directory in Slave.<br>
Set virtual xattr for that directory and all the files inside that directory.<br>
     setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;DIR&gt;<br>
     setfattr -n glusterfs.geo-rep.trigger-sync -v &quot;1&quot; &lt;file-path&gt;<br>
<br>
Geo-rep will recreate the directory with Proper GFID and starts sync.<br>
<br>
deletion of the affected slave directory might be helpful...<br>
but do i have to execute above shown setfattr commands on the master or do they just speed up synchronization ?<br>
usually sync should start automatically or could there be a problem because crawl status is still in &#39;hybrid crawl&#39;...?<br>
<br>
thanks in advance...<br>
best regards<br>
dietmar<div class="HOEnZb"><div class="h5"><br>
<br>
<br>
<br>
<br>
On 04.01.2016 12:08, Dietmar Putz wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello Aravinda,<br>
<br>
thank you for your reply.<br>
i just made a &#39;find /gluster-export -type f -exec ls -lisa {} \; &gt; ls-lisa-gluster-export-`hostname`.out&#39; on each brick and checked the output for files with less than 2 link counts.<br>
i found nothing...all files on each brick have exact 2 links.<br>
<br>
the entire output for all bricks contain more than 7 million lines including .glusterfs but without non relevant directories and files..<br>
tron@dp-server:~/geo_rep_3$ cat ls-lisa-gluster-wien-0* | egrep -v &#39;indices|landfill|changelogs|health_check&#39; | wc -l<br>
7007316<br>
<br>
link count is on $4 :<br>
tron@dp-server:~/geo_rep_3$ cat ls-lisa-gluster-wien-0* | egrep -v &#39;indices|landfill|changelogs|health_check&#39; | awk &#39;{if($4==&quot;2&quot;)print}&#39; | tail -1<br>
62648153697 4 -rw-rw-rw- 2 root root 1713 Jan  4 01:44 /gluster-export/3500/files/16/01/387233/3500-6dqMmBcVby97PQtR.ism<br>
<br>
tron@dp-server:~/geo_rep_3$ cat ls-lisa-gluster-wien-0* | egrep -v &#39;indices|landfill|changelogs|health_check&#39; | awk &#39;{if($4==&quot;1&quot;)print}&#39;<br>
tron@dp-server:~/geo_rep_3$<br>
tron@dp-server:~/geo_rep_3$ cat ls-lisa-gluster-wien-0* | egrep -v &#39;indices|landfill|changelogs|health_check&#39; | awk &#39;{if($4!=&quot;2&quot;)print}&#39;<br>
tron@dp-server:~/geo_rep_3$<br>
tron@dp-server:~/geo_rep_3$ cat ls-lisa-gluster-wien-0* | egrep -v &#39;indices|landfill|changelogs|health_check&#39; | awk &#39;{print $4}&#39; | sort | uniq -c<br>
7007316 2<br>
tron@dp-server:~/geo_rep_3$<br>
<br>
If i understood you right this can not be the reason for the problem.<br>
is there any other hint which i can check on the master or slave to analyse the problem....?<br>
<br>
Any help would be very appreciated<br>
best regards<br>
dietmar<br>
<br>
<br>
<br>
Am 04.01.2016 um 07:14 schrieb Aravinda:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
Looks like issue with Geo-rep due to race between Create and Rename. Geo-replication uses gfid-access (Mount Volume with aux-gfid-mount) to create and rename files. If Create and Rename replayed more than once then Geo-rep creates a two files with same GFID(not hardlink). This causes one file without backend GFID link.<br>
<br>
Milind is working on the patch to disallow the creation of second file with same GFID.<br>
@Milind, Please provide more update about your patch.<br>
<br>
As a workaround, identify all the files in Slave volume which do not have backend links and delete those files(Only in Slaves, keep backup if required)<br>
<br>
In Brick backend, Crawl and look for files with link count less than 2. (Exclude .glusterfs and .trashcan directory)<br>
<br>
regards<br>
Aravinda<br>
<br>
On 01/02/2016 09:56 PM, Dietmar Putz wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello all,<br>
<br>
one more time i need some help with a geo-replication problem.<br>
recently i started a new geo-replication. the master volume contains about 45 TB data and the slave volume was new created before geo-replication setup was done.<br>
master and slave is a 6 node distributed replicated volume running glusterfs-server 3.6.7-ubuntu1~trusty1.<br>
geo-rep was starting without problems. since few days the slave volume contains about 200 GB more data than the master volume and i expected that the crawl status changes from &#39;hybrid crawl&#39; to &#39;changelog crawl&#39; but it remains in &#39;hybrid crawl&#39;.<br>
the &#39;status detail&#39; output far below shows more than 10 million synced files while the entire master volume contains just about 2 million files. some tests show that files are not deleted on the slave volume.<br>
as far as i know the hybrid crawl has the limitation of not replicating deletes and renames to the slave thus the geo-rep needs to achieve the &#39;changelog crawl&#39; status after initial sync...<br>
usually this should happen more or less automatically, is this right ?<br>
<br>
the geo-rep frequently fails with below shown &quot;OSError: [Errno 16] Device or resource busy&quot;, this error appears about every 3-4 hours on each active master node.<br>
i guess the frequent appearance of this error prevent geo-rep from changing to &#39;changelog crawl&#39;, does somebody experienced such problem, is this the cause of the problem ?<br>
<br>
i found some similar reports on <a href="http://gluster.org" rel="noreferrer" target="_blank">gluster.org</a> for gfs 3.5, 3.6 and 3.7 but none of them point me to a solution...<br>
does anybody know a solution or is there a workaround to achieve the changelog crawl status...?<br>
<br>
Any help would be very appreciated<br>
best regards<br>
dietmar<br>
<br>
<br>
<br>
<br>
Master gluster-ger-ber-07:<br>
-----------------------------<br>
<br>
[2016-01-02 11:39:48.122546] I [master(/gluster-export):1343:crawl] _GMaster: processing xsync changelog /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01/9d7139ecf10a6fc33a<br>
6e41d8d6e56984/xsync/XSYNC-CHANGELOG.1451724692<br>
[2016-01-02 11:42:55.182342] I [master(/gluster-export):1343:crawl] _GMaster: processing xsync changelog /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01/9d7139ecf10a6fc33a<br>
6e41d8d6e56984/xsync/XSYNC-CHANGELOG.1451724751<br>
[2016-01-02 11:44:11.168962] I [master(/gluster-export):1340:crawl] _GMaster: finished hybrid crawl syncing, stime: (-1, 0)<br>
[2016-01-02 11:44:11.246845] I [master(/gluster-export):490:crawlwrap] _GMaster: primary master with volume id 6a071cfa-b150-4f0b-b1ed-96ab5d4bd671 ...<br>
[2016-01-02 11:44:11.265209] I [master(/gluster-export):501:crawlwrap] _GMaster: crawl interval: 3 seconds<br>
[2016-01-02 11:44:11.896940] I [master(/gluster-export):1192:crawl] _GMaster: slave&#39;s time: (-1, 0)<br>
[2016-01-02 11:44:12.171761] E [repce(/gluster-export):207:__call__] RepceClient: call 18897:139899553576768:1451735052.09 (entry_ops) failed on peer with OSError<br>
[2016-01-02 11:44:12.172101] E [syncdutils(/gluster-export):270:log_raise_exception] &lt;top&gt;: FAIL:<br>
Traceback (most recent call last):<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/gsyncd.py&quot;, line 164, in main<br>
    main_i()<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/gsyncd.py&quot;, line 643, in main_i<br>
    local.service_loop(*[r for r in [remote] if r])<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/resource.py&quot;, line 1344, in service_loop<br>
    g2.crawlwrap()<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/master.py&quot;, line 539, in crawlwrap<br>
    self.crawl(no_stime_update=no_stime_update)<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/master.py&quot;, line 1204, in crawl<br>
    self.process(changes)<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/master.py&quot;, line 956, in process<br>
    self.process_change(change, done, retry)<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/master.py&quot;, line 920, in process_change<br>
    self.slave.server.entry_ops(entries)<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/repce.py&quot;, line 226, in __call__<br>
    return self.ins(self.meth, *a)<br>
  File &quot;/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/repce.py&quot;, line 208, in __call__<br>
    raise res<br>
OSError: [Errno 16] Device or resource busy<br>
[2016-01-02 11:44:12.258982] I [syncdutils(/gluster-export):214:finalize] &lt;top&gt;: exiting.<br>
[2016-01-02 11:44:12.321808] I [repce(agent):92:service_loop] RepceServer: terminating on reaching EOF.<br>
[2016-01-02 11:44:12.349766] I [syncdutils(agent):214:finalize] &lt;top&gt;: exiting.<br>
[2016-01-02 11:44:12.435992] I [monitor(monitor):141:set_state] Monitor: new state: faulty<br>
[2016-01-02 11:44:23.164284] I [monitor(monitor):215:monitor] Monitor: ------------------------------------------------------------<br>
[2016-01-02 11:44:23.169981] I [monitor(monitor):216:monitor] Monitor: starting gsyncd worker<br>
[2016-01-02 11:44:23.216662] I [changelogagent(agent):72:__init__] ChangelogAgent: Agent listining...<br>
[2016-01-02 11:44:23.239778] I [gsyncd(/gluster-export):633:main_i] &lt;top&gt;: syncing: gluster://localhost:ger-ber-01 -&gt; ssh://root@gluster-wien-07-int:gluster://localhost:aut-wien-vol-01<br>
[2016-01-02 11:44:26.358613] I [master(/gluster-export):75:gmaster_builder] &lt;top&gt;: setting up xsync change detection mode<br>
[2016-01-02 11:44:26.358983] I [master(/gluster-export):413:__init__] _GMaster: using &#39;rsync&#39; as the sync engine<br>
[2016-01-02 11:44:26.359985] I [master(/gluster-export):75:gmaster_builder] &lt;top&gt;: setting up changelog change detection mode<br>
[2016-01-02 11:44:26.360243] I [master(/gluster-export):413:__init__] _GMaster: using &#39;rsync&#39; as the sync engine<br>
[2016-01-02 11:44:26.361159] I [master(/gluster-export):75:gmaster_builder] &lt;top&gt;: setting up changeloghistory change detection mode<br>
[2016-01-02 11:44:26.361377] I [master(/gluster-export):413:__init__] _GMaster: using &#39;rsync&#39; as the sync engine<br>
[2016-01-02 11:44:26.402601] I [master(/gluster-export):1311:register] _GMaster: xsync temp directory: /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01/9d7139ecf10a6fc33a6e<br>
41d8d6e56984/xsync<br>
[2016-01-02 11:44:26.402848] I [resource(/gluster-export):1318:service_loop] GLUSTER: Register time: 1451735066<br>
[2016-01-02 11:44:27.26012] I [master(/gluster-export):490:crawlwrap] _GMaster: primary master with volume id 6a071cfa-b150-4f0b-b1ed-96ab5d4bd671 ...<br>
[2016-01-02 11:44:27.31605] I [master(/gluster-export):501:crawlwrap] _GMaster: crawl interval: 1 seconds<br>
[2016-01-02 11:44:27.66868] I [master(/gluster-export):1226:crawl] _GMaster: starting history crawl... turns: 1, stime: (-1, 0)<br>
[2016-01-02 11:44:27.67043] I [master(/gluster-export):1229:crawl] _GMaster: stime not available, abandoning history crawl<br>
[2016-01-02 11:44:27.112426] I [master(/gluster-export):490:crawlwrap] _GMaster: primary master with volume id 6a071cfa-b150-4f0b-b1ed-96ab5d4bd671 ...<br>
[2016-01-02 11:44:27.117506] I [master(/gluster-export):501:crawlwrap] _GMaster: crawl interval: 60 seconds<br>
[2016-01-02 11:44:27.140610] I [master(/gluster-export):1333:crawl] _GMaster: starting hybrid crawl..., stime: (-1, 0)<br>
[2016-01-02 11:45:23.417233] I [monitor(monitor):141:set_state] Monitor: new state: Stable<br>
[2016-01-02 11:45:48.225915] I [master(/gluster-export):1343:crawl] _GMaster: processing xsync changelog /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01/9d7139ecf10a6fc33a<br>
6e41d8d6e56984/xsync/XSYNC-CHANGELOG.1451735067<br>
[2016-01-02 11:47:08.65231] I [master(/gluster-export):1343:crawl] _GMaster: processing xsync changelog /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01/9d7139ecf10a6fc33a6<br>
e41d8d6e56984/xsync/XSYNC-CHANGELOG.1451735148<br>
...<br>
<br>
<br>
slave gluster-wien-07 :<br>
------------------------<br>
<br>
[2016-01-02 11:44:12.007744] W [fuse-bridge.c:1261:fuse_err_cbk] 0-glusterfs-fuse: 1959820: SETXATTR() /.gfid/5e436e5b-086b-4720-9e70-0e49c8e09698 =&gt; -1 (File exists)<br>
[2016-01-02 11:44:12.010970] W [client-rpc-fops.c:240:client3_3_mknod_cbk] 0-aut-wien-vol-01-client-5: remote operation failed: File exists. Path: &lt;gfid:666bceac-7c14-4efd-81fe-8185458fcf1f&gt;/11-kxyrM3NgdtBWPFv4.webm<br>
[2016-01-02 11:44:12.011327] W [client-rpc-fops.c:240:client3_3_mknod_cbk] 0-aut-wien-vol-01-client-4: remote operation failed: File exists. Path: &lt;gfid:666bceac-7c14-4efd-81fe-8185458fcf1f&gt;/11-kxyrM3NgdtBWPFv4.webm<br>
[2016-01-02 11:44:12.012054] W [fuse-bridge.c:1261:fuse_err_cbk] 0-glusterfs-fuse: 1959822: SETXATTR() /.gfid/666bceac-7c14-4efd-81fe-8185458fcf1f =&gt; -1 (File exists)<br>
[2016-01-02 11:44:12.024743] W [client-rpc-fops.c:240:client3_3_mknod_cbk] 0-aut-wien-vol-01-client-5: remote operation failed: File exists. Path: &lt;gfid:5bfd6f99-07e8-4b2f-844b-aa0b6535c055&gt;/Gf4FYbpDTC7yK2mv.png<br>
[2016-01-02 11:44:12.024970] W [client-rpc-fops.c:240:client3_3_mknod_cbk] 0-aut-wien-vol-01-client-4: remote operation failed: File exists. Path: &lt;gfid:5bfd6f99-07e8-4b2f-844b-aa0b6535c055&gt;/Gf4FYbpDTC7yK2mv.png<br>
[2016-01-02 11:44:12.025601] W [fuse-bridge.c:1261:fuse_err_cbk] 0-glusterfs-fuse: 1959823: SETXATTR() /.gfid/5bfd6f99-07e8-4b2f-844b-aa0b6535c055 =&gt; -1 (File exists)<br>
[2016-01-02 11:44:12.100688] I [dht-selfheal.c:1065:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: chunk size = 0xffffffff / 57217563 = 0x4b<br>
[2016-01-02 11:44:12.100765] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-0<br>
[2016-01-02 11:44:12.100785] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-1<br>
[2016-01-02 11:44:12.100800] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-2<br>
[2016-01-02 11:44:12.100839] I [MSGID: 109036] [dht-common.c:6296:dht_log_new_layout_for_dir_selfheal] 0-aut-wien-vol-01-dht: Setting layout of &lt;gfid:d4815ee4-3348-4105-9136-d0219d956ed8&gt;/.dstXXX0HUpRD with [Subvol_name: aut-wien-vol-01-re<br>
plicate-0, Err: -1 , Start: 0 , Stop: 1430439074 ], [Subvol_name: aut-wien-vol-01-replicate-1, Err: -1 , Start: 1430439075 , Stop: 2860878149 ], [Subvol_name: aut-wien-vol-01-replicate-2, Err: -1 , Start: 2860878150 , Stop: 4294967295 ],<br>
[2016-01-02 11:44:12.114192] W [client-rpc-fops.c:306:client3_3_mkdir_cbk] 0-aut-wien-vol-01-client-2: remote operation failed: File exists. Path: &lt;gfid:cd3fd9ba-34b8-4c6b-ba72-4796b80b0ff2&gt;/.dstXXb70G3x<br>
[2016-01-02 11:44:12.114275] W [client-rpc-fops.c:306:client3_3_mkdir_cbk] 0-aut-wien-vol-01-client-3: remote operation failed: File exists. Path: &lt;gfid:cd3fd9ba-34b8-4c6b-ba72-4796b80b0ff2&gt;/.dstXXb70G3x<br>
[2016-01-02 11:44:12.114879] W [fuse-bridge.c:1261:fuse_err_cbk] 0-glusterfs-fuse: 1959831: SETXATTR() /.gfid/cd3fd9ba-34b8-4c6b-ba72-4796b80b0ff2 =&gt; -1 (File exists)<br>
[2016-01-02 11:44:12.118473] I [dht-layout.c:663:dht_layout_normalize] 0-aut-wien-vol-01-dht: Found anomalies in /.gfid/cd3fd9ba-34b8-4c6b-ba72-4796b80b0ff2/.dstXXb70G3x (gfid = 00000000-0000-0000-0000-000000000000). Holes=1 overlaps=0<br>
[2016-01-02 11:44:12.118537] I [dht-selfheal.c:1065:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: chunk size = 0xffffffff / 57217563 = 0x4b<br>
[2016-01-02 11:44:12.118562] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-2<br>
[2016-01-02 11:44:12.118579] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-0<br>
[2016-01-02 11:44:12.118613] I [dht-selfheal.c:1103:dht_selfheal_layout_new_directory] 0-aut-wien-vol-01-dht: assigning range size 0x5542c4a3 to aut-wien-vol-01-replicate-1<br>
[2016-01-02 11:44:12.120352] I [MSGID: 109036] [dht-common.c:6296:dht_log_new_layout_for_dir_selfheal] 0-aut-wien-vol-01-dht: Setting layout of /.gfid/cd3fd9ba-34b8-4c6b-ba72-4796b80b0ff2/.dstXXb70G3x with [Subvol_name: aut-wien-vol-01-rep<br>
licate-0, Err: -1 , Start: 1430439075 , Stop: 2860878149 ], [Subvol_name: aut-wien-vol-01-replicate-1, Err: -1 , Start: 2860878150 , Stop: 4294967295 ], [Subvol_name: aut-wien-vol-01-replicate-2, Err: -1 , Start: 0 , Stop: 1430439074 ],<br>
[2016-01-02 11:44:12.630949] I [fuse-bridge.c:4927:fuse_thread_proc] 0-fuse: unmounting /tmp/gsyncd-aux-mount-tOUOsz<br>
[2016-01-02 11:44:12.633952] W [glusterfsd.c:1211:cleanup_and_exit] (--&gt; 0-: received signum (15), shutting down<br>
[2016-01-02 11:44:12.633964] I [fuse-bridge.c:5607:fini] 0-fuse: Unmounting &#39;/tmp/gsyncd-aux-mount-tOUOsz&#39;.<br>
[2016-01-02 11:44:23.946702] I [MSGID: 100030] [glusterfsd.c:2035:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.6.7 (args: /usr/sbin/glusterfs --aux-gfid-mount --log-file=/var/log/glusterfs/geo-replication-slav<br>
es/6a071cfa-b150-4f0b-b1ed-96ab5d4bd671:gluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.gluster.log --volfile-server=localhost --volfile-id=aut-wien-vol-01 --client-pid=-1 /tmp/gsyncd-aux-mount-otU3wS)<br>
[2016-01-02 11:44:24.042128] I [dht-shared.c:337:dht_init_regex] 0-aut-wien-vol-01-dht: using regex rsync-hash-regex = ^\.(.+)\.[^.]+$<br>
[2016-01-02 11:44:24.046315] I [client.c:2268:notify] 0-aut-wien-vol-01-client-0: parent translators are ready, attempting connect on transport<br>
[2016-01-02 11:44:24.046532] I [client.c:2268:notify] 0-aut-wien-vol-01-client-1: parent translators are ready, attempting connect on transport<br>
[2016-01-02 11:44:24.046664] I [client.c:2268:notify] 0-aut-wien-vol-01-client-2: parent translators are ready, attempting connect on transport<br>
[2016-01-02 11:44:24.046806] I [client.c:2268:notify] 0-aut-wien-vol-01-client-3: parent translators are ready, attempting connect on transport<br>
[2016-01-02 11:44:24.046940] I [client.c:2268:notify] 0-aut-wien-vol-01-client-4: parent translators are ready, attempting connect on transport<br>
[2016-01-02 11:44:24.047070] I [client.c:2268:notify] 0-aut-wien-vol-01-client-5: parent translators are ready, attempting connect on transport<br>
Final graph:<br>
+------------------------------------------------------------------------------+ <br>
  1: volume aut-wien-vol-01-client-0<br>
  2:     type protocol/client<br>
  3:     option ping-timeout 10<br>
  4:     option remote-host gluster-wien-02-int<br>
  5:     option remote-subvolume /gluster-export<br>
  6:     option transport-type socket<br>
  7:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
  8:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
  9:     option send-gids true<br>
 10: end-volume<br>
 11:<br>
 12: volume aut-wien-vol-01-client-1<br>
 13:     type protocol/client<br>
 14:     option ping-timeout 10<br>
 15:     option remote-host gluster-wien-03-int<br>
 16:     option remote-subvolume /gluster-export<br>
 17:     option transport-type socket<br>
 18:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
 19:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
 20:     option send-gids true<br>
 21: end-volume<br>
 22:<br>
 23: volume aut-wien-vol-01-replicate-0<br>
 24:     type cluster/replicate<br>
 25:     subvolumes aut-wien-vol-01-client-0 aut-wien-vol-01-client-1<br>
 26: end-volume<br>
 27:<br>
 28: volume aut-wien-vol-01-client-2<br>
 29:     type protocol/client<br>
 30:     option ping-timeout 10<br>
 31:     option remote-host gluster-wien-04-int<br>
 32:     option remote-subvolume /gluster-export<br>
 33:     option transport-type socket<br>
 34:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
 35:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
 36:     option send-gids true<br>
 37: end-volume<br>
 38:<br>
 39: volume aut-wien-vol-01-client-3<br>
 40:     type protocol/client<br>
 41:     option ping-timeout 10<br>
 42:     option remote-host gluster-wien-05-int<br>
 43:     option remote-subvolume /gluster-export<br>
 44:     option transport-type socket<br>
 45:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
 46:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
 47:     option send-gids true<br>
 48: end-volume<br>
 49:<br>
 50: volume aut-wien-vol-01-replicate-1<br>
 51:     type cluster/replicate<br>
 52:     subvolumes aut-wien-vol-01-client-2 aut-wien-vol-01-client-3<br>
 53: end-volume<br>
 54:<br>
 55: volume aut-wien-vol-01-client-4<br>
 56:     type protocol/client<br>
 57:     option ping-timeout 10<br>
 58:     option remote-host gluster-wien-06-int<br>
 59:     option remote-subvolume /gluster-export<br>
 60:     option transport-type socket<br>
 61:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
 62:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
 63:     option send-gids true<br>
 64: end-volume<br>
 65:<br>
 66: volume aut-wien-vol-01-client-5<br>
 67:     type protocol/client<br>
 68:     option ping-timeout 10<br>
 69:     option remote-host gluster-wien-07-int<br>
 70:     option remote-subvolume /gluster-export<br>
 71:     option transport-type socket<br>
 72:     option username 6b3d1fae-fa3e-4305-a4a0-fd27c7ac9929<br>
 73:     option password 8777e154-476c-449a-89b2-3199872e4a1f<br>
 74:     option send-gids true<br>
 75: end-volume<br>
 76:<br>
 77: volume aut-wien-vol-01-replicate-2<br>
 78:     type cluster/replicate<br>
 79:     subvolumes aut-wien-vol-01-client-4 aut-wien-vol-01-client-5<br>
 80: end-volume<br>
 81:<br>
 82: volume aut-wien-vol-01-dht<br>
 83:     type cluster/distribute<br>
 84:     subvolumes aut-wien-vol-01-replicate-0 aut-wien-vol-01-replicate-1 aut-wien-vol-01-replicate-2<br>
 85: end-volume<br>
 86:<br>
 87: volume aut-wien-vol-01-write-behind<br>
 88:     type performance/write-behind<br>
 89:     subvolumes aut-wien-vol-01-dht<br>
 90: end-volume<br>
 91:<br>
 92: volume aut-wien-vol-01-read-ahead<br>
 93:     type performance/read-ahead<br>
 94:     subvolumes aut-wien-vol-01-write-behind<br>
 95: end-volume<br>
 96:<br>
 97: volume aut-wien-vol-01-io-cache<br>
 98:     type performance/io-cache<br>
 99:     option min-file-size 0<br>
100:     option cache-timeout 2<br>
101:     option cache-size 1024MB<br>
102:     subvolumes aut-wien-vol-01-read-ahead<br>
103: end-volume<br>
104:<br>
105: volume aut-wien-vol-01-quick-read<br>
106:     type performance/quick-read<br>
107:     option cache-size 1024MB<br>
108:     subvolumes aut-wien-vol-01-io-cache<br>
109: end-volume<br>
110:<br>
111: volume aut-wien-vol-01-open-behind<br>
112:     type performance/open-behind<br>
113:     subvolumes aut-wien-vol-01-quick-read<br>
114: end-volume<br>
115:<br>
116: volume aut-wien-vol-01-md-cache<br>
117:     type performance/md-cache<br>
118:     subvolumes aut-wien-vol-01-open-behind<br>
119: end-volume<br>
120:<br>
121: volume aut-wien-vol-01<br>
122:     type debug/io-stats<br>
123:     option latency-measurement off<br>
124:     option count-fop-hits off<br>
125:     subvolumes aut-wien-vol-01-md-cache<br>
126: end-volume<br>
127:<br>
128: volume gfid-access-autoload<br>
129:     type features/gfid-access<br>
130:     subvolumes aut-wien-vol-01<br>
131: end-volume<br>
132:<br>
133: volume meta-autoload<br>
134:     type meta<br>
135:     subvolumes gfid-access-autoload<br>
136: end-volume<br>
137:<br>
+------------------------------------------------------------------------------+ <br>
[2016-01-02 11:44:24.047642] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-5: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.047927] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-5: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.048044] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-5: Connected to aut-wien-vol-01-client-5, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.048050] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-5: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.048088] I [MSGID: 108005] [afr-common.c:3684:afr_notify] 0-aut-wien-vol-01-replicate-2: Subvolume &#39;aut-wien-vol-01-client-5&#39; came back up; going online.<br>
[2016-01-02 11:44:24.048114] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-5: Server lk version = 1<br>
[2016-01-02 11:44:24.048124] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-0: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.048132] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-1: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.048138] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-2: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.048146] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-3: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.048153] I [rpc-clnt.c:1761:rpc_clnt_reconfig] 0-aut-wien-vol-01-client-4: changing port to 49153 (from 0)<br>
[2016-01-02 11:44:24.049070] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.049094] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-3: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.049113] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-2: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.049131] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-1: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.049224] I [client-handshake.c:1413:select_server_supported_programs] 0-aut-wien-vol-01-client-4: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>
[2016-01-02 11:44:24.049307] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-0: Connected to aut-wien-vol-01-client-0, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.049312] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-0: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.049324] I [MSGID: 108005] [afr-common.c:3684:afr_notify] 0-aut-wien-vol-01-replicate-0: Subvolume &#39;aut-wien-vol-01-client-0&#39; came back up; going online.<br>
[2016-01-02 11:44:24.049384] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-3: Connected to aut-wien-vol-01-client-3, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.049389] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-3: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.049400] I [MSGID: 108005] [afr-common.c:3684:afr_notify] 0-aut-wien-vol-01-replicate-1: Subvolume &#39;aut-wien-vol-01-client-3&#39; came back up; going online.<br>
[2016-01-02 11:44:24.049418] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-2: Connected to aut-wien-vol-01-client-2, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.049422] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-2: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.049460] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-1: Connected to aut-wien-vol-01-client-1, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.049465] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-1: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.049493] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-0: Server lk version = 1<br>
[2016-01-02 11:44:24.049567] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-3: Server lk version = 1<br>
[2016-01-02 11:44:24.049632] I [client-handshake.c:1200:client_setvolume_cbk] 0-aut-wien-vol-01-client-4: Connected to aut-wien-vol-01-client-4, attached to remote volume &#39;/gluster-export&#39;.<br>
[2016-01-02 11:44:24.049638] I [client-handshake.c:1210:client_setvolume_cbk] 0-aut-wien-vol-01-client-4: Server and Client lk-version numbers are not same, reopening the fds<br>
[2016-01-02 11:44:24.052103] I [fuse-bridge.c:5086:fuse_graph_setup] 0-fuse: switched to graph 0<br>
[2016-01-02 11:44:24.052150] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-2: Server lk version = 1<br>
[2016-01-02 11:44:24.052163] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-4: Server lk version = 1<br>
[2016-01-02 11:44:24.052192] I [client-handshake.c:188:client_set_lk_version_cbk] 0-aut-wien-vol-01-client-1: Server lk version = 1<br>
[2016-01-02 11:44:24.052204] I [fuse-bridge.c:4015:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.22 kernel 7.20<br>
[2016-01-02 11:44:24.053991] I [afr-common.c:1491:afr_local_discovery_cbk] 0-aut-wien-vol-01-replicate-2: selecting local read_child aut-wien-vol-01-client-5<br>
[2016-01-02 11:45:48.613563] W [client-rpc-fops.c:306:client3_3_mkdir_cbk] 0-aut-wien-vol-01-client-5: remote operation failed: File exists. Path: /keys<br>
[2016-01-02 11:45:48.614131] W [client-rpc-fops.c:306:client3_3_mkdir_cbk] 0-aut-wien-vol-01-client-4: remote operation failed: File exists. Path: /keys<br>
[2016-01-02 11:45:48.614436] W [fuse-bridge.c:1261:fuse_err_cbk] 0-glusterfs-fuse: 12: SETXATTR() /.gfid/00000000-0000-0000-0000-000000000001 =&gt; -1 (File exists)<br>
...<br>
<br>
<br>
[ 13:41:40 ] - root@gluster-ger-ber-07 /var/log/glusterfs/geo-replication/ger-ber-01 $gluster volume geo-replication ger-ber-01 gluster-wien-07::aut-wien-vol-01 status detail<br>
<br>
MASTER NODE           MASTER VOL    MASTER BRICK SLAVE                                   STATUS     CHECKPOINT STATUS    CRAWL STATUS    FILES SYNCD    FILES PENDING BYTES PENDING    DELETES PENDING    FILES SKIPPED<br>
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- <br>
gluster-ger-ber-07    ger-ber-01    /gluster-export gluster-wien-07-int::aut-wien-vol-01    Active N/A                  Hybrid Crawl    10743644 8192 0                0 0<br>
gluster-ger-ber-11    ger-ber-01    /gluster-export gluster-wien-03-int::aut-wien-vol-01    Active N/A                  Hybrid Crawl    16037091 8192 0                0 0<br>
gluster-ger-ber-10    ger-ber-01    /gluster-export gluster-wien-02-int::aut-wien-vol-01    Passive N/A                  N/A             0 0 0                0 0<br>
gluster-ger-ber-12    ger-ber-01    /gluster-export gluster-wien-06-int::aut-wien-vol-01    Passive N/A                  N/A             0 0 0                0 0<br>
gluster-ger-ber-09    ger-ber-01    /gluster-export gluster-wien-05-int::aut-wien-vol-01    Active N/A                  Hybrid Crawl    16180514 8192 0                0 0<br>
gluster-ger-ber-08    ger-ber-01    /gluster-export gluster-wien-04-int::aut-wien-vol-01    Passive N/A                  N/A             0 0 0                0 0<br>
<br>
<br>
[ 13:41:55 ] - root@gluster-ger-ber-07 /var/log/glusterfs/geo-replication/ger-ber-01 $gluster volume geo-replication ger-ber-01 gluster-wien-07::aut-wien-vol-01 config<br>
special_sync_mode: partial<br>
state_socket_unencoded: /var/lib/glusterd/geo-replication/ger-ber-01_gluster-wien-07_aut-wien-vol-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.socket<br>
gluster_log_file: /var/log/glusterfs/geo-replication/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.gluster.log<br>
ssh_command: ssh -p 2503 -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /var/lib/glusterd/geo-replication/secret.pem<br>
ignore_deletes: true<br>
change_detector: changelog<br>
ssh_command_tar: ssh -p 2503 -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /var/lib/glusterd/geo-replication/tar_ssh.pem<br>
state_file: /var/lib/glusterd/geo-replication/ger-ber-01_gluster-wien-07_aut-wien-vol-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.status<br>
remote_gsyncd: /nonexistent/gsyncd<br>
log_file: /var/log/glusterfs/geo-replication/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.log<br>
changelog_log_file: /var/log/glusterfs/geo-replication/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01-changes.log<br>
socketdir: /var/run<br>
working_dir: /var/lib/misc/glusterfsd/ger-ber-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01<br>
state_detail_file: /var/lib/glusterd/geo-replication/ger-ber-01_gluster-wien-07_aut-wien-vol-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01-detail.status<br>
session_owner: 6a071cfa-b150-4f0b-b1ed-96ab5d4bd671<br>
gluster_command_dir: /usr/sbin/<br>
pid_file: /var/lib/glusterd/geo-replication/ger-ber-01_gluster-wien-07_aut-wien-vol-01/ssh%3A%2F%2Froot%4082.199.131.132%3Agluster%3A%2F%2F127.0.0.1%3Aaut-wien-vol-01.pid<br>
georep_session_working_dir: /var/lib/glusterd/geo-replication/ger-ber-01_gluster-wien-07_aut-wien-vol-01/<br>
gluster_params: aux-gfid-mount<br>
volume_id: 6a071cfa-b150-4f0b-b1ed-96ab5d4bd671<br>
[ 13:42:11 ] - root@gluster-ger-ber-07 /var/log/glusterfs/geo-replication/ger-ber-01 $<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
<br>
</blockquote>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
<br></div></div><span class="HOEnZb"><font color="#888888">
-- <br>
Dietmar Putz<br>
3Q Medien GmbH<br>
Wetzlarer Str. 86<br>
D-14482 Potsdam<br>
 Telefax:  +49 (0)331 / 2797 866 - 1<br>
Telefon:  +49 (0)331 / 2792 866 - 8<br>
Mobile:   +49 171 / 90 160 39<br>
Mail:     <a href="mailto:putz@3qmedien.net" target="_blank">putz@3qmedien.net</a></font></span><div class="HOEnZb"><div class="h5"><br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>