<div dir="ltr"><div>this is the info file contents.. is there another file you would want to see for config?</div><div>type=2</div><div>count=2</div><div>status=1</div><div>sub_count=2</div><div>stripe_count=1</div><div>replica_count=2</div><div>disperse_count=0</div><div>redundancy_count=0</div><div>version=3</div><div>transport-type=0</div><div>volume-id=98c258e6-ae9e-4407-8f25-7e3f7700e100</div><div>username=removed just cause</div><div>password=removed just cause</div><div>op-version=3</div><div>client-op-version=3</div><div>quota-version=0</div><div>parent_volname=N/A</div><div>restored_from_snap=00000000-0000-0000-0000-000000000000</div><div>snap-max-hard-limit=256</div><div>diagnostics.count-fop-hits=on</div><div>diagnostics.latency-measurement=on</div><div>performance.readdir-ahead=on</div><div>brick-0=media1-be:-gluster-brick1-gluster_volume_0</div><div>brick-1=media2-be:-gluster-brick1-gluster_volume_0</div><div><br></div><div>here are some log entries, etc-glusterfs-glusterd.vol.log:</div><div><div>The message &quot;I [MSGID: 106006] [glusterd-svc-mgmt.c:323:glusterd_svc_common_rpc_notify] 0-management: nfs has disconnected from glusterd.&quot; repeated 39 times between [2016-10-06 20:10:14.963402] and [2016-10-06 20:12:11.979684]</div></div><div><div>[2016-10-06 20:12:14.980203] I [MSGID: 106006] [glusterd-svc-mgmt.c:323:glusterd_svc_common_rpc_notify] 0-management: nfs has disconnected from glusterd.</div><div>[2016-10-06 20:13:50.993490] W [socket.c:596:__socket_rwv] 0-nfs: readv on /var/run/gluster/360710d59bc4799f8c8a6374936d2b1b.socket failed (Invalid argument)</div></div><div><br></div><div>I can provide any specific details you would like to see.. Last night I tried 1 more time and it appeared to be working ok for running 1 VM under VMware but as soon as I had 3 running the targets became unresponsive. I believe gluster volume is ok but for whatever reason the ISCSI target daemon seems to be having some issues...</div><div><br></div><div>here is from the messages file:</div><div><div>Oct  5 23:13:00 media2 kernel: MODE SENSE: unimplemented page/subpage: 0x1c/0x02</div><div>Oct  5 23:13:00 media2 kernel: MODE SENSE: unimplemented page/subpage: 0x1c/0x02</div><div>Oct  5 23:13:35 media2 kernel: iSCSI/iqn.1998-01.com.vmware:vmware4-0941d552: Unsupported SCSI Opcode 0x4d, sending CHECK_CONDITION.</div><div>Oct  5 23:13:35 media2 kernel: iSCSI/iqn.1998-01.com.vmware:vmware4-0941d552: Unsupported SCSI Opcode 0x4d, sending CHECK_CONDITION.</div></div><div><br></div><div>and here are some more VMware iscsi errors:</div><div><div>2016-10-06T20:22:11.496Z cpu2:32825)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x89 (0x412e808532c0, 32801) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:11.635Z cpu2:32787)ScsiDeviceIO: 2338: Cmd(0x412e808532c0) 0x89, CmdSN 0x4f05 from world 32801 to dev &quot;naa.6001405c0d86944f3d2468d80c7d1</div><div>2016-10-06T20:22:11.635Z cpu3:35532)Fil3: 15389: Max timeout retries exceeded for caller Fil3_FileIO (status &#39;Timeout&#39;)                                  </div><div>2016-10-06T20:22:11.635Z cpu2:196414)HBX: 2832: Waiting for timed out [HB state abcdef02 offset 3928064 gen 25 stampUS 49571997650 uuid 57f5c142-45632d75</div><div>2016-10-06T20:22:11.635Z cpu3:35532)HBX: 2832: Waiting for timed out [HB state abcdef02 offset 3928064 gen 25 stampUS 49571997650 uuid 57f5c142-45632d75-</div><div>2016-10-06T20:22:11.635Z cpu0:32799)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e80848580, 32799) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:11.635Z cpu0:32799)ScsiDeviceIO: 2325: Cmd(0x412e80848580) 0x28, CmdSN 0x4f06 from world 32799 to dev &quot;naa.6001405c0d86944f3d2468d80c7d1</div><div>2016-10-06T20:22:11.773Z cpu0:32843)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e80848580, 32799) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:11.916Z cpu0:35549)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e80848580, 32799) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:12.000Z cpu2:33431)iscsi_vmk: iscsivmk_ConnNetRegister: socket 0x410987bf0800 network resource pool netsched.pools.persist.iscsi associa</div><div>2016-10-06T20:22:12.000Z cpu2:33431)iscsi_vmk: iscsivmk_ConnNetRegister: socket 0x410987bf0800 network tracker id 16 tracker.iSCSI.172.16.1.40 associated</div><div>2016-10-06T20:22:12.056Z cpu0:35549)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e80848580, 32799) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:12.194Z cpu0:35549)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e80848580, 32799) to dev &quot;naa.6001405c0d86944f3d2468d80c7d1540&quot; on</div><div>2016-10-06T20:22:12.253Z cpu2:33431)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba38:CH:1 T:1 CN:0: iSCSI connection is being marked &quot;ONLINE&quot;       </div><div>2016-10-06T20:22:12.253Z cpu2:33431)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000004 TARGET: iqn.2016-09.iscsi.gluster:shared TPGT:</div><div>2016-10-06T20:22:12.253Z cpu2:33431)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: <a href="http://172.16.1.53:49959">172.16.1.53:49959</a> R: <a href="http://172.16.1.40:3260">172.16.1.40:3260</a>]                 </div></div><div><br></div><div>Is it that the gluster overhead is just killing LIO/target?</div><div><br></div><div>thanks,</div><div>Mike</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 6, 2016 at 12:22 PM, Vijay Bellur <span dir="ltr">&lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Mike,<br>
<br>
Can you please share your gluster volume configuration?<br>
<br>
Also do you notice anything in client logs on the node where fileio<br>
backstore is configured?<br>
<br>
Thanks,<br>
Vijay<br>
<div><div class="h5"><br>
On Wed, Oct 5, 2016 at 8:56 PM, Michael Ciccarelli &lt;<a href="mailto:mikecicc01@gmail.com">mikecicc01@gmail.com</a>&gt; wrote:<br>
&gt; So I have a fairly basic setup using glusterfs between 2 nodes. The nodes<br>
&gt; have 10 gig connections and the bricks reside on SSD LVM LUNs:<br>
&gt;<br>
&gt; Brick1: media1-be:/gluster/brick1/<wbr>gluster_volume_0<br>
&gt; Brick2: media2-be:/gluster/brick1/<wbr>gluster_volume_0<br>
&gt;<br>
&gt;<br>
&gt; On this volume I have a LIO iscsi target with 1 fileio backstore that&#39;s<br>
&gt; being shared out to vmware ESXi hosts. The volume is around 900 gig and the<br>
&gt; fileio store is around 850g:<br>
&gt;<br>
&gt; -rw-r--r-- 1 root root 912680550400 Oct  5 20:47 iscsi.disk.3<br>
&gt;<br>
&gt; I set the WWN to be the same so the ESXi hosts see the nodes as 2 paths to<br>
&gt; the same target. I believe this is what I want. The issues I&#39;m seeing is<br>
&gt; that while the IO wait is low I&#39;m seeing high CPU usage with only 3 VMs<br>
&gt; running on only 1 of the ESX servers:<br>
&gt;<br>
&gt; this is media2-be:<br>
&gt;   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND<br>
&gt;  1474 root      20   0 1396620  37912   5980 S 135.0  0.1 157:01.84<br>
&gt; glusterfsd<br>
&gt;  1469 root      20   0  747996  13724   5424 S   2.0  0.0   1:10.59<br>
&gt; glusterfs<br>
&gt;<br>
&gt; And this morning it seemed like I had to restart the LIO service on<br>
&gt; media1-be as the VMware was seeing time-out issues. I&#39;m seeing issues like<br>
&gt; this on the VMware ESX servers:<br>
&gt;<br>
&gt; 2016-10-06T00:51:41.100Z cpu0:32785)WARNING: ScsiDeviceIO: 1223: Device<br>
&gt; naa.<wbr>600140501ce79002e724ebdb66a675<wbr>6d performance has deteriorated. I/O<br>
&gt; latency increased from average value of 33420 microseconds to 732696<br>
&gt; microseconds.<br>
&gt;<br>
&gt; Are there any special settings I need to have gluster+LIO+vmware to work?<br>
&gt; Has anyone gotten this to work fairly well that it is stable? What am I<br>
&gt; missing?<br>
&gt;<br>
&gt; thanks,<br>
&gt; Mike<br>
&gt;<br>
&gt;<br>
&gt;<br>
</div></div>&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>