<div dir="ltr">Have anyone encounter this behavior?<div><br></div><div>Running 3.7.16 from centos-gluster37, on CentOS 7.2 with NFS-Ganesha 2.3.0. VMs are running fine without problems and with Sharding on. However, when i either do a &quot;add-brick&quot; or &quot;remove-brick start force&quot;. VM files will then be corrupted, and the VM will not be able to boot anymore. </div><div><br></div><div>So far, as i access files through regular NFS, all regular files, or directories seems to be accessible fine. I am not sure if this somehow relate to bug1318136, but any help will be appreciated. Or, m i missing any settings? Below is the vol info of gluster volume.</div><div><br></div><div><div>Volume Name: nfsvol1</div><div>Type: Distributed-Replicate</div><div>Volume ID: 06786467-4c8a-48ad-8b1f-346aa8342283</div><div>Status: Started</div><div>Number of Bricks: 2 x 2 = 4</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: stor4:/data/brick1/nfsvol1</div><div>Brick2: stor5:/data/brick1/nfsvol1</div><div>Brick3: stor1:/data/brick1/nfsvol1</div><div>Brick4: stor2:/data/brick1/nfsvol1</div><div>Options Reconfigured:</div><div>features.shard-block-size: 64MB</div><div>features.shard: on</div><div>ganesha.enable: on</div><div>features.cache-invalidation: off</div><div>nfs.disable: on</div><div>performance.readdir-ahead: on</div><div>nfs-ganesha: enable</div><div>cluster.enable-shared-storage: enable</div></div><div><br></div><div>thanks,</div><div>Melvin</div>







</div>