<font size=3 color=blue face="Times New Roman">Hello,</font>
<br>
<br><font size=3 color=blue face="Times New Roman">I tried using the linuxl's
NFS server by exporting mount.glusterfs mounts, and man it didn't go well
either (similar, stale file handle issues from time to time). Actually,
it's not just glusterfs, but all FUse based file-systems that encounter
problems with the linuxl's nfs server. Which is why we finally moved to
the glusterfs NFS server. It was a lot smoother afterwards.</font>
<br>
<br><font size=3 color=blue face="Times New Roman">In your volume configuration
I can see that nfs.disable is ON. To start glusterfs's NFS server, you
would need to shut down your current NFS service and set nfs.disable to
OFF, just so: </font>
<br>
<br><font size=2 face="Courier New">gluster volume set vol_home nfs.disable
off</font>
<br>
<br><font size=3 color=blue face="Times New Roman">Then, your mountable
export (say, on promethee in your example) would be hades:vol_home, and
your mount command would look like this:</font>
<br>
<br><font size=2 face="Courier New">mount -otcp,nfsvers=3 -t nfs &nbsp;hades:vol_home
/hades</font>
<br>
<br><font size=3 color=blue face="Times New Roman">Thanks,</font>
<br><font size=3 color=blue face="Times New Roman">Anirban</font>
<br>
<br>
<br>
<br><font size=1 color=#5f5f5f face="sans-serif">From: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">Geoffrey Letessier
&lt;geoffrey.letessier@cnrs.fr&gt;</font>
<br><font size=1 color=#5f5f5f face="sans-serif">To: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">gluster-users@gluster.org</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Date: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">01/22/2015 05:05 PM</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Subject: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">[Gluster-users]
NFS share issue</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Sent by: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">gluster-users-bounces@gluster.org</font>
<br>
<hr noshade>
<br>
<br>
<br><tt><font size=2>Dear all,<br>
<br>
Since a few days, some users raise IT issues concerning GlusterFS NFS <br>
Shares and more specifically, in about NFS shares available on my HPC <br>
clusters.<br>
Indeed, from their workstations which, if they try to copy some <br>
directories/files from the NFS share into somewhere else (taking place
<br>
in), they get some &quot;Stale NFS file handle&quot; errors.<br>
<br>
Here is an example: my machine is promethee and the remote machine where
<br>
is located the NFS share is hades. the mount point of my NFS share in my
<br>
machine is /hades.<br>
<br>
[me@promethee ~]$ cp -r /hades/Gquads/ /home/me/Gquads/<br>
=&gt; here all is OK<br>
<br>
[me@promethee ~]$ cd /hades<br>
[me@promethee ~]$ cp -r Gquads/ /home/me/Gquads/<br>
cp: reading `2KF8/dihedrals/traj.pdb': Stale NFS file handle<br>
cp: failed to extend `/data/pasquali/Gquads/2KF8/dihedrals/traj.pdb': <br>
Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/line_14.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/polar_log_14.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/polar_9.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/polar_log_13.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/line_15.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/polar_log_12.png': Stale NFS file handle<br>
cp: cannot stat `2KF8/dihedrals/line_21.png': Stale NFS file handle<br>
<br>
It looks like to have problems to solve relative paths...<br>
<br>
For information: i use NFS export over my GlusterFS volume remote mount.
<br>
In other words: hades is a master whose the /home is a mount of a <br>
GlusterFS volume. Here is my volume settings:<br>
 &nbsp;[root@hades ~]# gluster volume info vol_home<br>
<br>
Volume Name: vol_home<br>
Type: Distributed-Replicate<br>
Volume ID: f6ebcfc1-b735-4a0e-b1d7-47ed2d2e7af6<br>
Status: Started<br>
Number of Bricks: 4 x 2 = 8<br>
Transport-type: tcp,rdma<br>
Bricks:<br>
Brick1: ib-storage1:/export/brick_home/brick1<br>
Brick2: ib-storage2:/export/brick_home/brick1<br>
Brick3: ib-storage3:/export/brick_home/brick1<br>
Brick4: ib-storage4:/export/brick_home/brick1<br>
Brick5: ib-storage1:/export/brick_home/brick2<br>
Brick6: ib-storage2:/export/brick_home/brick2<br>
Brick7: ib-storage3:/export/brick_home/brick2<br>
Brick8: ib-storage4:/export/brick_home/brick2<br>
Options Reconfigured:<br>
features.default-soft-limit: 90%<br>
features.quota: on<br>
diagnostics.brick-log-level: CRITICAL<br>
auth.allow: localhost,127.0.0.1,10.*<br>
nfs.disable: on<br>
performance.cache-size: 64MB<br>
performance.write-behind-window-size: 1MB<br>
performance.quick-read: on<br>
performance.io-cache: on<br>
performance.io-thread-count: 64<br>
<br>
[root@hades ~]# cat /etc/exports<br>
/home *.lbt.ibpc.fr(fsid=0,rw,root_squash)<br>
<br>
[root@lucifer ~]# mount |grep home<br>
ib-storage1:vol_home.rdma on /home type fuse.glusterfs <br>
(rw,default_permissions,allow_other,max_read=131072)<br>
<br>
Any idea? Am I the only one with this problem?<br>
<br>
Thanks in advance,<br>
Geoffrey<br>
<br>
-- <br>
-----------------------------------------------<br>
Geoffrey Letessier<br>
<br>
Responsable informatique<br>
CNRS - UPR 9080 - Laboratoire de Biochimie Théorique<br>
Institut de Biologie Physico-Chimique<br>
13, rue Pierre et Marie Curie - 75005 Paris<br>
Tel: 01 58 41 50 93 - eMail:geoffrey.letessier@cnrs.fr<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
</font></tt><a href="http://www.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://www.gluster.org/mailman/listinfo/gluster-users</font></tt></a>
<br><p>=====-----=====-----=====<br>
Notice: The information contained in this e-mail<br>
message and/or attachments to it may contain <br>
confidential or privileged information. If you are <br>
not the intended recipient, any dissemination, use, <br>
review, distribution, printing or copying of the <br>
information contained in this e-mail message <br>
and/or attachments to it are strictly prohibited. If <br>
you have received this communication in error, <br>
please notify us by reply e-mail or telephone and <br>
immediately and permanently delete the message <br>
and any attachments. Thank you</p>

<p></p>