<div dir="ltr"><div>Hi Lindsay,<br><br>&gt;<br><div>- start the vm, open a console to it.<br><br></div>- live migrate the VM to a another node<br><br>- It will rapdily barf itself with disk errors<br><br>&gt;<br><br></div>Can you please share which &#39;cache&#39; option ( none, writeback, writethrough..etc)  has been set for I/O on  this problematic VM ?  This can be fetched either from process output or from xml schema of the VM.<br></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><div>--Humble<br></div><br></div></div></div>
<br><div class="gmail_quote">On Fri, Nov 13, 2015 at 11:57 AM, Lindsay Mathieson <span dir="ltr">&lt;<a href="mailto:lindsay.mathieson@gmail.com" target="_blank">lindsay.mathieson@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On 12 November 2015 at 15:46, Krutika Dhananjay <span dir="ltr">&lt;<a href="mailto:kdhananj@redhat.com" target="_blank">kdhananj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>OK. What do the client logs say?<br></div></blockquote><div><br></div></span><div>Dumb question - Which logs are those?  <br><br><br></div><span class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div></div><div>Could you share the exact steps to recreate this, and I will try it locally on my setup?<br></div></blockquote><div><br></div></span><div>I&#39;m running this on a 3 node proxmox cluster, which makes the vm creation &amp; migration easy to test.<br><br></div><div>Steps:<br></div><div>- Create 3 node gluster datastore using proxmox vm host nodes<br></div><div><br>- Add gluster datastore as a storage dvice to proxmox<br></div><div>  * qemu vms use the gfapi to access the datastore<br></div><div>  * proxmox also adds a fuse mount for easy acces<br><br></div><div>- create a VM on the gluster storage, QCOW2 format. I just created a simple debain Mate vm<br><br></div><div>- start the vm, open a console to it.<br><br></div><div>- live migrate the VM to a another node<br><br></div><div>- It will rapdily barf itself with disk errors<br><br></div><div>- stop the VM<br></div><div><br></div><div>- qemu will show file corruption (many many errors)<br></div><div>  * qemu-img check &lt;vm disk image&gt;<br>  * qemu-img info &lt;vm disk image&gt;<br></div><div><br><br></div><div>Repeating the process with sharding off has no errors.<br></div><span class=""><div><br> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div></div><div><br></div><div>Also, want to see the output of &#39;gluster volume info&#39;.</div></blockquote></span></div><br></div><div class="gmail_extra"><br>I&#39;ve trimmed settings down to a bare minimum. This is a test gluster cluster so I can do with it as I wish.<br><br><br></div><div class="gmail_extra"><span style="font-family:monospace,monospace"><br>gluster volume info<br> <br>Volume Name: datastore1<br>Type: Replicate<br>Volume ID: 238fddd0-a88c-4edb-8ac5-ef87c58682bf<br>Status: Started<br>Number of Bricks: 1 x 3 = 3<br>Transport-type: tcp<br>Bricks:<br>Brick1: vnb.proxmox.softlog:/mnt/ext4<br>Brick2: vng.proxmox.softlog:/mnt/ext4<br>Brick3: vna.proxmox.softlog:/mnt/ext4<br>Options Reconfigured:<br>performance.strict-write-ordering: on<br>performance.readdir-ahead: off<br>cluster.quorum-type: auto<br>features.shard: on</span><span class="HOEnZb"><font color="#888888"><br><br><br clear="all"><br>-- <br><div>Lindsay</div>
</font></span></div></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>