<p dir="ltr">Ravishankar/Anuradha (In cc) should be able to help you out.</p>
<p dir="ltr">-Atin<br>
Sent from one plus one</p>
<div class="gmail_quote">On Aug 16, 2015 4:22 PM, &quot;Miloš Kozák&quot; &lt;<a href="mailto:milos.kozak@lejmr.com">milos.kozak@lejmr.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi, I have been running an glusterfs for a while, and everything works just fine even after one node failure.. However, I went for brick replacement due to my bricks were not thin-provisioned and I wanted to use snapshots. In short, whole volume went down due to heal daemon which tool all IO and all VMs running on top of that volume started to be unresponsive.<br>
<br>
In short, I am rebuilding the volume from scratch. I created new thinly provisioned bricks:<br>
lvs:<br>
  brick_s3-sata-10k                  vg_s3-sata-10k Vwi-aotz 931,25g s3-sata-10k_pool                     2,95<br>
  s3-sata-10k_pool                   vg_s3-sata-10k twi-a-tz 931,25g<br>
<br>
vgs:<br>
  vg_s3-sata-10k   1   3   0 wz--n- 931,51g 148,00m<br>
<br>
df:<br>
  /dev/mapper/vg_s3--sata--10k-brick_s3--sata--10k 976009600  28383480 947626120   3% /gfs/s3-sata-10k<br>
<br>
and mounted. When I uploaded two images onto it I found there might be a problem. For the time being I run the volume in replica 2 mode on top of two servers. The files were copied from node1, and I think the files are OK on node1 only. However, the volume heal indicates everything is OK. My symptoms are as follows:<br>
<br>
df information from both servers:<br>
/dev/mapper/vg_s3--sata--10k-brick_s3--sata--10k 976009600 30754296 945255304   4% /gfs/s3-sata-10k<br>
/dev/mapper/vg_s3--sata--10k-brick_s3--sata--10k 976009600  28383480 947626120   3% /gfs/s3-sata-10k<br>
<br>
<br>
<br>
[root@nodef01i ~]#  du /gfs/s3-sata-10k/<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/indices/xattrop<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/indices<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs/htime<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs/csnap<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/00/00<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/00<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/landfill<br>
20480004    /gfs/s3-sata-10k/fs/.glusterfs/84/26<br>
20480004    /gfs/s3-sata-10k/fs/.glusterfs/84<br>
10240000    /gfs/s3-sata-10k/fs/.glusterfs/d0/ff<br>
10240000    /gfs/s3-sata-10k/fs/.glusterfs/d0<br>
30720008    /gfs/s3-sata-10k/fs/.glusterfs<br>
30720008    /gfs/s3-sata-10k/fs<br>
30720008    /gfs/s3-sata-10k/<br>
<br>
[root@nodef02i ~]# du /gfs/s3-sata-10k/<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/indices/xattrop<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/indices<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs/htime<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs/csnap<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/changelogs<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/00/00<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/00<br>
0    /gfs/s3-sata-10k/fs/.glusterfs/landfill<br>
18727172    /gfs/s3-sata-10k/fs/.glusterfs/84/26<br>
18727172    /gfs/s3-sata-10k/fs/.glusterfs/84<br>
9622016    /gfs/s3-sata-10k/fs/.glusterfs/d0/ff<br>
9622016    /gfs/s3-sata-10k/fs/.glusterfs/d0<br>
28349192    /gfs/s3-sata-10k/fs/.glusterfs<br>
28349192    /gfs/s3-sata-10k/fs<br>
28349192    /gfs/s3-sata-10k/<br>
<br>
<br>
[root@nodef01i ~]# du /gfs/s3-sata-10k/fs/*<br>
20480004    /gfs/s3-sata-10k/fs/f1607f25aa52f4fb6f98f20ef0f3f9d7<br>
10240000    /gfs/s3-sata-10k/fs/3706a2cb0bb27ba5787b3c12388f4ebb<br>
<br>
[root@nodef02i ~]# du /gfs/s3-sata-10k/fs/*<br>
18727172    /gfs/s3-sata-10k/fs/f1607f25aa52f4fb6f98f20ef0f3f9d7<br>
9622016        /gfs/s3-sata-10k/fs/3706a2cb0bb27ba5787b3c12388f4ebb<br>
<br>
<br>
[root@nodef01i ~]# ll /gfs/s3-sata-10k/fs/<br>
celkem 30720004<br>
-rw-r----- 2 oneadmin oneadmin 20971520512  3. srp 23.53 f1607f25aa52f4fb6f98f20ef0f3f9d7<br>
-rw-r----- 2 oneadmin oneadmin 10485760000 16. srp 11.23 3706a2cb0bb27ba5787b3c12388f4ebb<br>
<br>
[root@nodef02i ~]# ll /gfs/s3-sata-10k/fs/<br>
celkem 28349188<br>
-rw-r----- 2 oneadmin oneadmin 20971520512  3. srp 23.53 f1607f25aa52f4fb6f98f20ef0f3f9d7<br>
-rw-r----- 2 oneadmin oneadmin 10485760000 16. srp 11.22 3706a2cb0bb27ba5787b3c12388f4ebb<br>
<br>
<br>
[root@nodef01i ~]# gluster volume heal ph-fs-0 info split-brain<br>
Gathering list of split brain entries on volume ph-fs-0 has been successful<br>
<br>
Brick 10.11.100.1:/gfs/s3-sata-10k/fs<br>
Number of entries: 0<br>
<br>
Brick 10.11.100.2:/gfs/s3-sata-10k/fs<br>
Number of entries: 0<br>
<br>
<br>
[root@nodef01i ~]# gluster volume heal ph-fs-0 info<br>
Brick nodef01i.czprg:/gfs/s3-sata-10k/fs/<br>
Number of entries: 0<br>
<br>
Brick nodef02i.czprg:/gfs/s3-sata-10k/fs/<br>
Number of entries: 0<br>
<br>
<br>
[root@nodef01i ~]# gluster volume status<br>
Status of volume: ph-fs-0<br>
Gluster process                        Port    Online    Pid<br>
------------------------------------------------------------------------------<br>
Brick 10.11.100.1:/gfs/s3-sata-10k/fs            49152    Y    3733<br>
Brick 10.11.100.2:/gfs/s3-sata-10k/fs            49152    Y    64711<br>
NFS Server on localhost                    2049    Y    3747<br>
Self-heal Daemon on localhost                N/A    Y    3752<br>
NFS Server on 10.11.100.2                2049    Y    64725<br>
Self-heal Daemon on 10.11.100.2                N/A    Y    64730<br>
<br>
Task Status of Volume ph-fs-0<br>
------------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
[root@nodef02i ~]# gluster volume status<br>
Status of volume: ph-fs-0<br>
Gluster process                        Port    Online    Pid<br>
------------------------------------------------------------------------------<br>
Brick 10.11.100.1:/gfs/s3-sata-10k/fs            49152    Y    3733<br>
Brick 10.11.100.2:/gfs/s3-sata-10k/fs            49152    Y    64711<br>
NFS Server on localhost                    2049    Y    64725<br>
Self-heal Daemon on localhost                N/A    Y    64730<br>
NFS Server on 10.11.100.1                2049    Y    3747<br>
Self-heal Daemon on 10.11.100.1                N/A    Y    3752<br>
<br>
Task Status of Volume ph-fs-0<br>
------------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
<br>
[root@nodef02i ~]# rpm -qa | grep gluster<br>
glusterfs-server-3.6.2-1.el6.x86_64<br>
glusterfs-3.6.2-1.el6.x86_64<br>
glusterfs-api-3.6.2-1.el6.x86_64<br>
glusterfs-libs-3.6.2-1.el6.x86_64<br>
glusterfs-cli-3.6.2-1.el6.x86_64<br>
glusterfs-fuse-3.6.2-1.el6.x86_64<br>
<br>
What other information should I provide?<br>
<br>
Thanks Milos<br>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div>