<html><body><div style="font-family: garamond,new york,times,serif; font-size: 12pt; color: #000000"><div>Hi,<br></div><div><br></div><div>Although I do not have experience with VM live migration,&nbsp; IIUC, it is got to do with a different server (and as a result a new glusterfs client process) taking over the operations and mgmt of the VM.<br></div><div>If this is a correct assumption, then I think this could be the result of the same caching bug that I talked about sometime back in 3.7.5, which is fixed in 3.7.6.<br></div><div>The issue could cause the new client to not see the correct size and block count of the file, leading to errors in reads (perhaps triggered by the restart of the vm) and writes on the image.<br></div><div><br></div><div>-Krutika<br></div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="border-left: 2px solid #1010FF; margin-left: 5px; padding-left: 5px; color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Lindsay Mathieson" &lt;lindsay.mathieson@gmail.com&gt;<br><b>To: </b>"gluster-users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Thursday, November 5, 2015 3:53:25 AM<br><b>Subject: </b>[Gluster-users] File Corruption with shards - 100% reproducable<br><div><br></div><div dir="ltr"><div><div>Gluster 3.7.5, gluster repos, on proxmox (debian 8) <br><div><br></div>I have an issue with VM images (qcow2) being corrupted.<br><div><br></div></div>- gluster replica 3, shards on, shard size = 256MB<br></div><div>- Gluster nodes are all also VM host nodes<br></div><div>- VM image mounted from qemu via gfapi<br><div><br></div></div><div>To reproduce<br></div><div>- Start VM<br></div><div>- live migrate it to another node<br></div><div>- VM will rapidly become unresponsive and have to be stopped<br></div><div>- attempting to restart the vm results in a "qcow2: Image is corrupt; cannot be opened read/write" error.<br><div><br></div></div><div>I have never seen this before. 100% reproducible with shards on, never happens with shards off.<br><div><br></div></div><div>I don't think this happens when using NFS to access the shard volume, I suspect because with NFS it is still accessing the one node, whereas with gfapi it's handed off to the node the VM is running on.<br></div><div><br></div><br clear="all"><div><div><div><br>-- <br><div class="gmail_signature">Lindsay</div></div></div></div></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://www.gluster.org/mailman/listinfo/gluster-users</blockquote><div><br></div></div></body></html>