<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Wed, Mar 18, 2015 at 6:22 PM, Rumen Telbizov <span dir="ltr">&lt;<a href="mailto:telbizov@gmail.com" target="_blank">telbizov@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div style="font-family:tahoma,sans-serif"><br><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote"><b>Can I directly access the data on the underlying storage volumes?</b><br><br>If you are just doing just read()/access()/stat() like operations, you should be fine. If you are not using any new features (like quota/geo-replication etc etc) then technically, you can modify (but surely not rename(2) and link(2)) the data inside.<br><br>Note that this is not tested as part of gluster’s release cycle and not recommended for production use.<br clear="all"></blockquote><div><br></div><div>The last sentence doesn&#39;t recommend it for production use. I was wondering if there&#39;s any other concern besides the fact that it&#39;s not tested as part of the release cycle or one could expect actual some problems with the data being read while doing so?<br><br></div><div>What I am interested is <b>only</b> read operations (readdir, stat, read data). All the write operations will continue going over the shared/mounted drive. So what I want to know is that the data that I am reading will be consistent with the rest of the bricks and not corrupted in any way.<br></div></div></div></blockquote><div><br></div><div>This is not necessarily a direct answer to your question but I&#39;ve tested something similar. With a running volume (but not mounted anywhere), I copied a file directly to the underlying FS directory (a tarball) to test how it would react if a client would mount the volume afterwards.<br><br></div><div>When a client mounted the Gluster filesystem (FUSE client), after some time, the tarball I copied on one of the bricks was replicated to the other servers in my 3 replica test environment.<br><br></div><div>I tested the tarball on each gluster server and it was perfectly consistent.<br><br></div><div>During all my other tests, I did things like the one you intend to do. Mounted the gluster volume on a client and copied some big files there. While the copy was doing its job, I directly accessed the resulting file on the servers to see if it was consistent (checking the first few KB of the file to check headers)<br><br></div><div>I haven&#39;t found anything to complain about and all seemed consistent to me so I&#39;d say that what you plan to do is fairly safe.<br></div></div><br><br clear="all"><br>-- <br><div class="gmail_signature">Unix _IS_ user friendly, it&#39;s just selective about who its friends are.</div>
</div></div>