<div dir="ltr"><div>Could you attach the glusterfs client, shd logs?<br><br></div>-Krutika<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, May 2, 2016 at 2:35 PM, Kevin Lemonnier <span dir="ltr">&lt;<a href="mailto:lemonnierk@ulrar.net" target="_blank">lemonnierk@ulrar.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
So after some testing, it is a lot better but I do still have some problems with 3.7.11.<br>
When I reboot a server it seems to have some strange behaviour sometimes, but I need to test<br>
that better.<br>
Removing a server from the network, waiting for a while then adding it back and letting it heal<br>
works perfectly, completly invisible for the user and that&#39;s perfect !<br>
<br>
However when I add a brick, changing the replica count from 2 to 3, it starts a heal<br>
and some VMs switch to read only. I have to power them off then on again to fix it,<br>
clearly it&#39;s better than with 3.7.6 which froze the VM until the heal was complete,<br>
but I would still like to understand why some of the VMs are switching to readonly.<br>
Looks like it happens everytime I add a brick to increase the replica, I would like<br>
to test adding a whole replica set at once but I just don&#39;t have the hardware for that.<br>
<br>
Rebooting a node looks like it&#39;s making some VMs go read only too, but I need to test<br>
that better. For some reason it looks like rebooting a brick or adding a brick is causing<br>
I/O errors on some VM disks and not others, and I have to power them off and then on to fix it.<br>
I can&#39;t just reboot them, I guess I have to actually re-open the file to trigger a heal ?<br>
<br>
Any idea on how to prevent that ? It&#39;s a lot better than 3.7.6 &#39;cause it can be fixed in a minute,<br>
but that&#39;s still not great to explain to the clients.<br>
<br>
Thanks<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Mon, Apr 25, 2016 at 02:01:09PM +0200, Kevin Lemonnier wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; So I&#39;m trying that now.<br>
&gt; I installed 3.7.11 on two nodes and put a few VMs on it, same config<br>
&gt; as before but with 64MB shards and the heal algo to full. As expected,<br>
&gt; if I poweroff one of the nodes, everything is dead, which is fine.<br>
&gt;<br>
&gt; Now I&#39;m adding a third node, a big heal was started after the add-brick<br>
&gt; of everything (7000+ shards), and for now everything seems to be working<br>
&gt; fine on the VMs. Last time I tried adding a brick, all those VM died for<br>
&gt; the duration of the heal, so that&#39;s already pretty good.<br>
&gt;<br>
&gt; I&#39;m gonna let it finish to copy everything on the new nodes, then I&#39;ll try<br>
&gt; to simulate nodes going down to see if my original problem of freezing and<br>
&gt; low heal time is solved with this config.<br>
&gt; For reference, here is the volume info, if someone sees something I should change :<br>
&gt;<br>
&gt; Volume Name: gluster<br>
&gt; Type: Replicate<br>
&gt; Volume ID: e4f01509-beaf-447d-821f-957cc5c20c0a<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 1 x 3 = 3<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: ipvr2.client_name:/mnt/storage/gluster<br>
&gt; Brick2: ipvr3.client_name:/mnt/storage/gluster<br>
&gt; Brick3: ipvr50.client_name:/mnt/storage/gluster<br>
&gt; Options Reconfigured:<br>
&gt; cluster.quorum-type: auto<br>
&gt; cluster.server-quorum-type: server<br>
&gt; network.remote-dio: enable<br>
&gt; cluster.eager-lock: enable<br>
&gt; performance.quick-read: off<br>
&gt; performance.read-ahead: off<br>
&gt; performance.io-cache: off<br>
&gt; performance.stat-prefetch: off<br>
&gt; features.shard: on<br>
&gt; features.shard-block-size: 64MB<br>
&gt; cluster.data-self-heal-algorithm: full<br>
&gt; performance.readdir-ahead: on<br>
&gt;<br>
&gt;<br>
&gt; It starts at 2 and jumps to 50 because the first server is doing something else for now,<br>
&gt; and I use 50 to be the temporary third node. If everything goes well, I&#39;ll migrate the production<br>
&gt; on the cluster, re-install the first server and do a replace-brick, which I hope will work just as well<br>
&gt; as the add-brick I&#39;m doing now. Last replace-brick also brought everything down, but I guess that was the<br>
&gt; joy of 3.7.6 :).<br>
&gt;<br>
&gt; Thanks !<br>
&gt;<br>
&gt;<br>
&gt; On Mon, Apr 18, 2016 at 08:17:05PM +0530, Krutika Dhananjay wrote:<br>
&gt; &gt; On Mon, Apr 18, 2016 at 8:02 PM, Kevin Lemonnier &lt;<a href="mailto:lemonnierk@ulrar.net">lemonnierk@ulrar.net</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt;<br>
&gt; &gt; &gt; I will try migrating to 3.7.10, is it considered stable yet ?<br>
&gt; &gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; Oops, just realized 3.7.10 had a regression. Then 3.7.11 it is. :)<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; &gt; Should I change the self heal algorithm even if I move to 3.7.10, or is<br>
&gt; &gt; &gt; that not necessary ?<br>
&gt; &gt; &gt; Not sure what that change might do.<br>
&gt; &gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; So the other algorithm is &#39;diff&#39; which computes rolling checksum on chunks<br>
&gt; &gt; of the src(es) and sink(s), compares them and heals upon mismatch. This is<br>
&gt; &gt; known to consume lot of CPU. &#39;full&#39; algo on the other hand simply copies<br>
&gt; &gt; the src into sink in chunks. With sharding, it shouldn&#39;t be all that bad<br>
&gt; &gt; copying a 256MB file (in your case) from src to sink. We&#39;ve used double the<br>
&gt; &gt; block size and had no issues reported.<br>
&gt; &gt;<br>
&gt; &gt; So you could change self heal algo to full even in the upgraded cluster.<br>
&gt; &gt;<br>
&gt; &gt; -Krutika<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Anyway, I&#39;ll try to create a 3.7.10 cluster in the week end slowly move<br>
&gt; &gt; &gt; the VMs on it then,<br>
&gt; &gt; &gt; Thanks a lot for your help,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Regards<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On Mon, Apr 18, 2016 at 07:58:44PM +0530, Krutika Dhananjay wrote:<br>
&gt; &gt; &gt; &gt; Hi,<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Yeah, so the fuse mount log didn&#39;t convey much information.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; So one of the reasons heal may have taken so long (and also consumed<br>
&gt; &gt; &gt; &gt; resources) is because of a bug in self-heal where it would do heal from<br>
&gt; &gt; &gt; &gt; both source bricks in 3-way replication. With such a bug, heal would take<br>
&gt; &gt; &gt; &gt; twice the amount of time and consume resources both the times by the same<br>
&gt; &gt; &gt; &gt; amount.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; This issue is fixed at <a href="http://review.gluster.org/#/c/14008/" rel="noreferrer" target="_blank">http://review.gluster.org/#/c/14008/</a> and will be<br>
&gt; &gt; &gt; &gt; available in 3.7.12.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; The other thing you could do is to set cluster.data-self-heal-algorithm<br>
&gt; &gt; &gt; to<br>
&gt; &gt; &gt; &gt; &#39;full&#39;, for better heal performance and more regulated resource<br>
&gt; &gt; &gt; consumption<br>
&gt; &gt; &gt; &gt; by the same.<br>
&gt; &gt; &gt; &gt;  #gluster volume set &lt;VOL&gt; cluster.data-self-heal-algorithm full<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; As far as sharding is concerned, some critical caching issues were fixed<br>
&gt; &gt; &gt; in<br>
&gt; &gt; &gt; &gt; 3.7.7 and 3.7.8.<br>
&gt; &gt; &gt; &gt; And my guess is that the vm crash/unbootable state could be because of<br>
&gt; &gt; &gt; this<br>
&gt; &gt; &gt; &gt; issue, which exists in 3.7.6.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; 3.7.10 saw the introduction of throttled client side heals which also<br>
&gt; &gt; &gt; moves<br>
&gt; &gt; &gt; &gt; such heals to the background, which is all the more helpful for<br>
&gt; &gt; &gt; preventing<br>
&gt; &gt; &gt; &gt; starvation of vms during client heal.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Considering these factors, I think it would be better if you upgraded<br>
&gt; &gt; &gt; your<br>
&gt; &gt; &gt; &gt; machines to 3.7.10.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Do let me know if migrating to 3.7.10 solves your issues.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; -Krutika<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; On Mon, Apr 18, 2016 at 12:40 PM, Kevin Lemonnier &lt;<a href="mailto:lemonnierk@ulrar.net">lemonnierk@ulrar.net</a>&gt;<br>
&gt; &gt; &gt; &gt; wrote:<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; Yes, but as I was saying I don&#39;t believe KVM is using a mount point, I<br>
&gt; &gt; &gt; &gt; &gt; think it uses<br>
&gt; &gt; &gt; &gt; &gt; the API (<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; <a href="http://www.gluster.org/community/documentation/index.php/Libgfapi_with_qemu_libvirt" rel="noreferrer" target="_blank">http://www.gluster.org/community/documentation/index.php/Libgfapi_with_qemu_libvirt</a><br>
&gt; &gt; &gt; &gt; &gt; ).<br>
&gt; &gt; &gt; &gt; &gt; Might be mistaken ofcourse. Proxmox does have a mountpoint for<br>
&gt; &gt; &gt; &gt; &gt; conveniance, I&#39;ll attach those<br>
&gt; &gt; &gt; &gt; &gt; logs, hoping they contain the informations you need. They do seem to<br>
&gt; &gt; &gt; &gt; &gt; contain a lot of errors<br>
&gt; &gt; &gt; &gt; &gt; for the 15.<br>
&gt; &gt; &gt; &gt; &gt; For reference, there was a disconnect of the first brick (10.10.0.1) in<br>
&gt; &gt; &gt; &gt; &gt; the morning and then a successfull<br>
&gt; &gt; &gt; &gt; &gt; heal that caused about 40 minutes downtime of the VMs. Right after that<br>
&gt; &gt; &gt; &gt; &gt; heal finished (if my memory is<br>
&gt; &gt; &gt; &gt; &gt; correct it was about noon or close) the second brick (10.10.0.2)<br>
&gt; &gt; &gt; rebooted,<br>
&gt; &gt; &gt; &gt; &gt; and that&#39;s the one I disconnected<br>
&gt; &gt; &gt; &gt; &gt; to prevent the heal from causing another downtime.<br>
&gt; &gt; &gt; &gt; &gt; I reconnected it one at the end of the afternoon, hoping the heal<br>
&gt; &gt; &gt; would go<br>
&gt; &gt; &gt; &gt; &gt; well but everything went down<br>
&gt; &gt; &gt; &gt; &gt; like in the morning so I disconnected it again, and waited 11pm<br>
&gt; &gt; &gt; (23:00) to<br>
&gt; &gt; &gt; &gt; &gt; reconnect it and let it finish.<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; Thanks for your help,<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; On Mon, Apr 18, 2016 at 12:28:28PM +0530, Krutika Dhananjay wrote:<br>
&gt; &gt; &gt; &gt; &gt; &gt; Sorry, I was referring to the glusterfs client logs.<br>
&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; Assuming you are using FUSE mount, your log file will be in<br>
&gt; &gt; &gt; &gt; &gt; &gt; /var/log/glusterfs/&lt;hyphenated-mount-point-path&gt;.log<br>
&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; -Krutika<br>
&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; On Sun, Apr 17, 2016 at 9:37 PM, Kevin Lemonnier &lt;<br>
&gt; &gt; &gt; <a href="mailto:lemonnierk@ulrar.net">lemonnierk@ulrar.net</a>&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; wrote:<br>
&gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; I believe Proxmox is just an interface to KVM that uses the lib,<br>
&gt; &gt; &gt; so if<br>
&gt; &gt; &gt; &gt; &gt; I&#39;m<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; not mistaken there isn&#39;t client logs ?<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; It&#39;s not the first time I have the issue, it happens on every heal<br>
&gt; &gt; &gt; on<br>
&gt; &gt; &gt; &gt; &gt; the<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; 2 clusters I have.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; I did let the heal finish that night and the VMs are working now,<br>
&gt; &gt; &gt; but<br>
&gt; &gt; &gt; &gt; &gt; it<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; is pretty scarry for future crashes or brick replacement.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; Should I maybe lower the shard size ? Won&#39;t solve the fact that 2<br>
&gt; &gt; &gt; &gt; &gt; bricks<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; on 3 aren&#39;t keeping the filesystem usable but might make the<br>
&gt; &gt; &gt; healing<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; quicker right ?<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; Thanks<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; Le 17 avril 2016 17:56:37 GMT+02:00, Krutika Dhananjay &lt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; <a href="mailto:kdhananj@redhat.com">kdhananj@redhat.com</a>&gt; a écrit :<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;Could you share the client logs and information about the approx<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;time/day<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;when you saw this issue?<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;-Krutika<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;On Sat, Apr 16, 2016 at 12:57 AM, Kevin Lemonnier<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&lt;<a href="mailto:lemonnierk@ulrar.net">lemonnierk@ulrar.net</a>&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;wrote:<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Hi,<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; We have a small glusterFS 3.7.6 cluster with 3 nodes running<br>
&gt; &gt; &gt; with<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;proxmox<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; VM&#39;s on it. I did set up the different recommended option like<br>
&gt; &gt; &gt; the<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;virt<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; group, but<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; by hand since it&#39;s on debian. The shards are 256MB, if that<br>
&gt; &gt; &gt; matters.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; This morning the second node crashed, and as it came back up<br>
&gt; &gt; &gt; started<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;a<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; heal, but that basically froze all the VM&#39;s running on that<br>
&gt; &gt; &gt; volume.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;Since<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; we really really<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; can&#39;t have 40 minutes down time in the middle of the day, I just<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;removed<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; the node from the network and that stopped the heal, allowing<br>
&gt; &gt; &gt; the<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;VM&#39;s to<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; access<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; their disks again. The plan was to re-connecte the node in a<br>
&gt; &gt; &gt; couple<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;of<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; hours to let it heal at night.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; But a VM crashed now, and it can&#39;t boot up again : seems to<br>
&gt; &gt; &gt; freez<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;trying<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; to access the disks.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Looking at the heal info for the volume, it has gone way up<br>
&gt; &gt; &gt; since<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;this<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; morning, it looks like the VM&#39;s aren&#39;t writing to both nodes,<br>
&gt; &gt; &gt; just<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;the one<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; they are on.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; It seems pretty bad, we have 2 nodes on 3 up, I would expect the<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;volume to<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; work just fine since it has quorum. What am I missing ?<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; It is still too early to start the heal, is there a way to<br>
&gt; &gt; &gt; start the<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;VM<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; anyway right now ? I mean, it was running a moment ago so the<br>
&gt; &gt; &gt; data<br>
&gt; &gt; &gt; &gt; &gt; is<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; there, it just needs<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; to let the VM access it.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Volume Name: vm-storage<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Type: Replicate<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Volume ID: a5b19324-f032-4136-aaac-5e9a4c88aaef<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Status: Started<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Number of Bricks: 1 x 3 = 3<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Transport-type: tcp<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Bricks:<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Brick1: first_node:/mnt/vg1-storage<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Brick2: second_node:/mnt/vg1-storage<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Brick3: third_node:/mnt/vg1-storage<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Options Reconfigured:<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; cluster.quorum-type: auto<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; cluster.server-quorum-type: server<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; network.remote-dio: enable<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; cluster.eager-lock: enable<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; performance.readdir-ahead: on<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; performance.quick-read: off<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; performance.read-ahead: off<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; performance.io-cache: off<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; performance.stat-prefetch: off<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; features.shard: on<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; features.shard-block-size: 256MB<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; cluster.server-quorum-ratio: 51%<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Thanks for your help<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; --<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Kevin Lemonnier<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; PGP Fingerprint : 89A5 2283 04A0 E6E9 0111<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; _______________________________________________<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; Gluster-users mailing list<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; --<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; Envoyé de mon appareil Android avec K-9 Mail. Veuillez excuser ma<br>
&gt; &gt; &gt; &gt; &gt; brièveté.<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; Gluster-users mailing list<br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt; &gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; --<br>
&gt; &gt; &gt; &gt; &gt; Kevin Lemonnier<br>
&gt; &gt; &gt; &gt; &gt; PGP Fingerprint : 89A5 2283 04A0 E6E9 0111<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; &gt; &gt; Gluster-users mailing list<br>
&gt; &gt; &gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; --<br>
&gt; &gt; &gt; Kevin Lemonnier<br>
&gt; &gt; &gt; PGP Fingerprint : 89A5 2283 04A0 E6E9 0111<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; Gluster-users mailing list<br>
&gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt; &gt;<br>
&gt;<br>
&gt; --<br>
&gt; Kevin Lemonnier<br>
&gt; PGP Fingerprint : 89A5 2283 04A0 E6E9 0111<br>
<br>
<br>
<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
<br>
--<br>
Kevin Lemonnier<br>
PGP Fingerprint : 89A5 2283 04A0 E6E9 0111<br>
</div></div><br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>