<div dir="ltr"><span style="color:rgb(0,0,0);font-size:14px;line-height:26px;font-family:sans,helvetica"><span style="white-space:pre">un</span></span><span style="color:rgb(0,0,0);font-size:14px;line-height:26px;font-family:sans,helvetica;white-space:pre">subscribe gluster</span><br></div><div class="gmail_extra"><br><div class="gmail_quote">2015-03-17 20:00 GMT+08:00  <span dir="ltr">&lt;<a href="mailto:gluster-users-request@gluster.org" target="_blank">gluster-users-request@gluster.org</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Gluster-users mailing list submissions to<br>
        <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
or, via email, send a message with subject or body &#39;help&#39; to<br>
        <a href="mailto:gluster-users-request@gluster.org">gluster-users-request@gluster.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:gluster-users-owner@gluster.org">gluster-users-owner@gluster.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Gluster-users digest...&quot;<br>
<br>
<br>
Today&#39;s Topics:<br>
<br>
   1. Re: Issue with removing directories after disabling quotas<br>
      (Vijaikumar M)<br>
   2. glusterfs geo-replication - server with two       interfaces -<br>
      private IP advertised (Stefan Moravcik)<br>
   3. adding a node (Pierre L?onard)<br>
   4. Re: adding a node (JF Le Fill?tre)<br>
   5. Re: adding a node (Pierre L?onard)<br>
   6. Re: adding a node (JF Le Fill?tre)<br>
   7. tune2fs exited with non-zero exit status<br>
      (Osborne, Paul (<a href="mailto:paul.osborne@canterbury.ac.uk">paul.osborne@canterbury.ac.uk</a>))<br>
   8. Re: adding a node (Pierre L?onard)<br>
   9. Re: adding a node (JF Le Fill?tre)<br>
  10. Re: adding a node (Pierre L?onard)<br>
  11. Gluster 3.6 issue (F?lix de Lelelis)<br>
  12. I/O error on replicated volume (Jonathan Heese)<br>
  13. Re: [ovirt-users] Zombie disks failed to remove.. (Punit Dambiwal)<br>
  14. Running a SQL database on Gluster on AWS (Jay Strauss)<br>
  15. Re: I/O error on replicated volume (Ravishankar N)<br>
  16. VM failed to start | Bad volume specification (Punit Dambiwal)<br>
  17. Re: Working but some issues (Melkor Lord)<br>
  18. Re: Working but some issues (Joe Julian)<br>
  19. Bad volume specification | Connection timeout (Punit Dambiwal)<br>
  20. Re: adding a node (Pierre L?onard)<br>
  21. REMINDER: Gluster Community Bug Triage meeting    today at 12:00<br>
      UTC (Niels de Vos)<br>
  22. Re: adding a node (JF Le Fill?tre)<br>
  23. Re: adding a node (Pierre L?onard)<br>
  24. Re: Working but some issues (Nico Schottelius)<br>
  25. GlusterFS 3.4.7beta2 is now available for testing (Kaleb KEITHLEY)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Mon, 16 Mar 2015 17:30:41 +0530<br>
From: Vijaikumar M &lt;<a href="mailto:vmallika@redhat.com">vmallika@redhat.com</a>&gt;<br>
To: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;,<br>
        <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] Issue with removing directories after<br>
        disabling quotas<br>
Message-ID: &lt;<a href="mailto:5506C5E9.2070204@redhat.com">5506C5E9.2070204@redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=utf-8; format=flowed<br>
<br>
<br>
On Monday 16 March 2015 05:04 PM, JF Le Fill?tre wrote:<br>
&gt; Hello Vijay,<br>
&gt;<br>
&gt; Mmmm sorry, I jumped the gun and deleted by hand all the files present<br>
&gt; on the bricks, so I can&#39;t see if there&#39;s any link anywhere...<br>
&gt;<br>
&gt; It&#39;s not the first time I have seen this. Very early in my tests I had<br>
&gt; another case of files still present on the bricks but not visible in<br>
&gt; Gluster, which I solved the same way. At that point I chalked it up to<br>
&gt; my limited knowledge of GlusterFS and I assumed that I had misconfigured it.<br>
&gt;<br>
&gt; What do you suspect that it may be, and what do I have to look for if it<br>
&gt; ever happens again?<br>
We wanted to check file attributes and xattrs on the bricks to see why<br>
some files where not deleted.<br>
Is this problem easily re-creatable? If yes, can you please provide the<br>
test-case?<br>
<br>
Thanks,<br>
Vijay<br>
<br>
<br>
&gt; Thanks!<br>
&gt; JF<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On 16/03/15 12:25, Vijaikumar M wrote:<br>
&gt;&gt; Hi JF,<br>
&gt;&gt;<br>
&gt;&gt; This may not be a quota issue. Can you please check if there are any<br>
&gt;&gt; linkto files exists on the brick?<br>
&gt;&gt; On node &#39;stor104/106&#39;, can we get the below output<br>
&gt;&gt;<br>
&gt;&gt; #find /zfs/brick0/brick | xargs ls -l<br>
&gt;&gt; #find /zfs/brick1/brick | xargs ls -l<br>
&gt;&gt; #find /zfs/brick2/brick | xargs ls -l<br>
&gt;&gt;<br>
&gt;&gt; #find /zfs/brick0/brick | xargs getfattr -d -m . -e hex<br>
&gt;&gt; #find /zfs/brick1/brick | xargs getfattr -d -m . -e hex<br>
&gt;&gt; #find /zfs/brick2/brick | xargs getfattr -d -m . -e hex<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt; Vijay<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Monday 16 March 2015 04:18 PM, JF Le Fill?tre wrote:<br>
&gt;&gt;&gt; Forgot to mention: the non-empty directories list files like this:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? Hal8723APhyReg.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? Hal8723UHWImg_CE.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? hal_com.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalDMOutSrc8723A.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalHWImg8723A_BB.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalHWImg8723A_FW.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalHWImg8723A_MAC.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalHWImg8723A_RF.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? hal_intf.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? HalPwrSeqCmd.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? ieee80211.h<br>
&gt;&gt;&gt; -?????????? ? ?    ?     ?            ? odm_debug.h<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thanks,<br>
&gt;&gt;&gt; JF<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On 16/03/15 11:45, JF Le Fill?tre wrote:<br>
&gt;&gt;&gt;&gt; Hello all,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; So, another day another issue. I was trying to play with quotas on my<br>
&gt;&gt;&gt;&gt; volume:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; [root@stor104 ~]# gluster volume status<br>
&gt;&gt;&gt;&gt; Status of volume: live<br>
&gt;&gt;&gt;&gt; Gluster process                        Port    Online    Pid<br>
&gt;&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick0/brick                49167    Y    13446<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick1/brick                49168    Y    13457<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick2/brick                49169    Y    13468<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick0/brick                49159    Y    14158<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick1/brick                49160    Y    14169<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick2/brick                49161    Y    14180<br>
&gt;&gt;&gt;&gt; NFS Server on localhost                    2049    Y    13483<br>
&gt;&gt;&gt;&gt; Quota Daemon on localhost                N/A    Y    13490<br>
&gt;&gt;&gt;&gt; NFS Server on stor106                    2049    Y    14195<br>
&gt;&gt;&gt;&gt; Quota Daemon on stor106                    N/A    Y    14202<br>
&gt;&gt;&gt;&gt;    Task Status of Volume live<br>
&gt;&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Task                 : Rebalance<br>
&gt;&gt;&gt;&gt; ID                   : 6bd03709-1f48-49a9-a215-d0a6e6f3ab1e<br>
&gt;&gt;&gt;&gt; Status               : completed<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Not sure if the &quot;Quota Daemon on localhost -&gt; N/A&quot; is normal, but<br>
&gt;&gt;&gt;&gt; that&#39;s another topic.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; While the quotas were enabled, I did some test copying a whole tree<br>
&gt;&gt;&gt;&gt; of small files (the Linux kernel sources) to the volume to see which<br>
&gt;&gt;&gt;&gt; performance I would get, and it was really low. So I decided to<br>
&gt;&gt;&gt;&gt; disable quotas again:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; [root@stor104 ~]# gluster volume status<br>
&gt;&gt;&gt;&gt; Status of volume: live<br>
&gt;&gt;&gt;&gt; Gluster process                        Port    Online    Pid<br>
&gt;&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick0/brick                49167    Y    13754<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick1/brick                49168    Y    13765<br>
&gt;&gt;&gt;&gt; Brick stor104:/zfs/brick2/brick                49169    Y    13776<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick0/brick                49159    Y    14282<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick1/brick                49160    Y    14293<br>
&gt;&gt;&gt;&gt; Brick stor106:/zfs/brick2/brick                49161    Y    14304<br>
&gt;&gt;&gt;&gt; NFS Server on localhost                    2049    Y    13790<br>
&gt;&gt;&gt;&gt; NFS Server on stor106                    2049    Y    14319<br>
&gt;&gt;&gt;&gt;    Task Status of Volume live<br>
&gt;&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Task                 : Rebalance<br>
&gt;&gt;&gt;&gt; ID                   : 6bd03709-1f48-49a9-a215-d0a6e6f3ab1e<br>
&gt;&gt;&gt;&gt; Status               : completed<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I remounted the volume from the client and tried deleting the<br>
&gt;&gt;&gt;&gt; directory containing the sources, which gave me a very long list of<br>
&gt;&gt;&gt;&gt; this:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/testing/selftests/ftrace/test.d/kprobe?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/testing/selftests/ptrace?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/testing/selftests/rcutorture/configs/rcu/v0.0?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/testing/selftests/rcutorture/configs/rcu/v3.5?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/testing/selftests/powerpc?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/perf/scripts/python/Perf-Trace-Util?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/perf/Documentation?: Directory<br>
&gt;&gt;&gt;&gt; not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove ?/glusterfs/live/linux-3.18.7/tools/perf/ui/tui?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove<br>
&gt;&gt;&gt;&gt; ?/glusterfs/live/linux-3.18.7/tools/perf/util/include?: Directory not<br>
&gt;&gt;&gt;&gt; empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove ?/glusterfs/live/linux-3.18.7/tools/lib?: Directory<br>
&gt;&gt;&gt;&gt; not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove ?/glusterfs/live/linux-3.18.7/tools/virtio?:<br>
&gt;&gt;&gt;&gt; Directory not empty<br>
&gt;&gt;&gt;&gt; rm: cannot remove ?/glusterfs/live/linux-3.18.7/virt/kvm?: Directory<br>
&gt;&gt;&gt;&gt; not empty<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I did my homework on Google, yet the information I found was that the<br>
&gt;&gt;&gt;&gt; cause for this is that the contents of the bricks have been modified<br>
&gt;&gt;&gt;&gt; locally. It&#39;s definitely not the case here, I have *not* touched the<br>
&gt;&gt;&gt;&gt; contents of the bricks.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; So my question is: is it possible that disabling the quotas may have<br>
&gt;&gt;&gt;&gt; had some side effects on the metadata of Gluster? If so, what can I<br>
&gt;&gt;&gt;&gt; do to force Gluster to rescan all local directories and &quot;import&quot;<br>
&gt;&gt;&gt;&gt; local files?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; GlusterFS version: 3.6.2<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; The setup of my volume:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; [root@stor104 ~]# gluster volume info<br>
&gt;&gt;&gt;&gt;    Volume Name: live<br>
&gt;&gt;&gt;&gt; Type: Distribute<br>
&gt;&gt;&gt;&gt; Volume ID:<br>
&gt;&gt;&gt;&gt; Status: Started<br>
&gt;&gt;&gt;&gt; Number of Bricks: 6<br>
&gt;&gt;&gt;&gt; Transport-type: tcp<br>
&gt;&gt;&gt;&gt; Bricks:<br>
&gt;&gt;&gt;&gt; Brick1: stor104:/zfs/brick0/brick<br>
&gt;&gt;&gt;&gt; Brick2: stor104:/zfs/brick1/brick<br>
&gt;&gt;&gt;&gt; Brick3: stor104:/zfs/brick2/brick<br>
&gt;&gt;&gt;&gt; Brick4: stor106:/zfs/brick0/brick<br>
&gt;&gt;&gt;&gt; Brick5: stor106:/zfs/brick1/brick<br>
&gt;&gt;&gt;&gt; Brick6: stor106:/zfs/brick2/brick<br>
&gt;&gt;&gt;&gt; Options Reconfigured:<br>
&gt;&gt;&gt;&gt; features.quota: off<br>
&gt;&gt;&gt;&gt; performance.readdir-ahead: on<br>
&gt;&gt;&gt;&gt; nfs.volume-access: read-only<br>
&gt;&gt;&gt;&gt; cluster.data-self-heal-algorithm: full<br>
&gt;&gt;&gt;&gt; performance.strict-write-ordering: off<br>
&gt;&gt;&gt;&gt; performance.strict-o-direct: off<br>
&gt;&gt;&gt;&gt; performance.force-readdirp: off<br>
&gt;&gt;&gt;&gt; performance.write-behind-window-size: 4MB<br>
&gt;&gt;&gt;&gt; performance.io-thread-count: 32<br>
&gt;&gt;&gt;&gt; performance.flush-behind: on<br>
&gt;&gt;&gt;&gt; performance.client-io-threads: on<br>
&gt;&gt;&gt;&gt; performance.cache-size: 32GB<br>
&gt;&gt;&gt;&gt; performance.cache-refresh-timeout: 60<br>
&gt;&gt;&gt;&gt; performance.cache-max-file-size: 4MB<br>
&gt;&gt;&gt;&gt; nfs.disable: off<br>
&gt;&gt;&gt;&gt; cluster.eager-lock: on<br>
&gt;&gt;&gt;&gt; cluster.min-free-disk: 1%<br>
&gt;&gt;&gt;&gt; server.allow-insecure: on<br>
&gt;&gt;&gt;&gt; diagnostics.client-log-level: ERROR<br>
&gt;&gt;&gt;&gt; diagnostics.brick-log-level: ERROR<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; It is mounted from the client with those fstab options:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; stor104:live<br>
&gt;&gt;&gt;&gt; defaults,backupvolfile-server=stor106,direct-io-mode=disable,noauto<br>
&gt;&gt;&gt;&gt; ================================================================================<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Attached are the log files from stor104<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Thanks a lot for any help!<br>
&gt;&gt;&gt;&gt; JF<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;&gt;<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 16 Mar 2015 13:10:48 +0100<br>
From: Stefan Moravcik &lt;<a href="mailto:smoravcik@newsweaver.com">smoravcik@newsweaver.com</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: [Gluster-users] glusterfs geo-replication - server with two<br>
        interfaces - private IP advertised<br>
Message-ID: &lt;<a href="mailto:D51E5B92-87A6-4213-AFBD-04C3207E6E34@newsweaver.com">D51E5B92-87A6-4213-AFBD-04C3207E6E34@newsweaver.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
<br>
I have been trying to setup a geo replication with glusterfs servers. Everything worked as expected in my test environment, on my staging environment, but then i tried the production and got stuck.<br>
<br>
Let say I have<br>
<br>
gluster fs server is on public ip 1.1.1.1<br>
<br>
gluster fs slave is on public 2.2.2.2, but this IP is on interface eth1 The eth0 on gluster fs slave server is 192.168.0.1.<br>
<br>
So when i start the command on 1.1.1.1 (firewall and ssh keys are set properly)<br>
<br>
gluster volume geo-replication vol0 2.2.2.2::vol0 create push-pem<br>
I get an error.<br>
<br>
Unable to fetch slave volume details. Please check the slave cluster and slave volume. geo-replication command failed<br>
<br>
The error is not that important in this case, the problem is the slave IP address<br>
<br>
2015-03-16T11:41:08.101229+00:00 xxx kernel: TCP LOGDROP: IN= OUT=eth0 SRC=1.1.1.1 DST=192.168.0.1 LEN=52 TOS=0x00 PREC=0x00 TTL=64 ID=24243 DF PROTO=TCP SPT=1015 DPT=24007 WINDOW=14600 RES=0x00 SYN URGP=0<br>
As you can see in the firewall drop log above, the port 24007 of the slave gluster daemon is advertised on private IP of the interface eth0 on slave server and should be the IP of the eth1 private IP. So master cannot connect and will time out<br>
<br>
Is there a way to force gluster server to advertise interface eth1 or bind to it only?<br>
<br>
Thank you<br>
--<br>
*******************************************************************************************************************************************************<br>
********************<br>
This email and any files transmitted with it are confidential and intended<br>
solely for the use of the individual or entity to whom they are addressed.<br>
If you have received this email in error please reply to the sender<br>
indicating that fact and delete the copy you received.<br>
In addition, if you are not the intended recipient, you should not print,<br>
copy, retransmit, disseminate, or otherwise use the information<br>
contained in this communication. Thank you.<br>
<br>
Newsweaver is a Trade Mark of E-Search Ltd. Registered in Ireland No.<br>
254994.<br>
Registered Office: 2200 Airport Business Park, Kinsale Road, Cork, Ireland.<br>
International Telephone Number: +353 21 2427277.<br>
*******************************************************************************************************************************************************<br>
********************<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a0f25019/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a0f25019/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Mon, 16 Mar 2015 16:17:04 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5506F3F0.40803@jouy.inra.fr">5506F3F0.40803@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi All,<br>
<br>
I am note the alone guy having problem with the addition of a node to an<br>
existing distributed stripped or replicated volume.<br>
And  I never read a real solution.<br>
<br>
My configuration is the following :<br>
<br>
  * four node with a gvHome stripped 2 volume ;<br>
  * first I probe the new node ans its OK ;<br>
  * then I start to add the node:/brick to the four other and get the<br>
    answer that I have to add a multiple of the striped so 4 other node.<br>
    But I have only one ;<br>
  * So I try to make the addition from the new node. If I list the<br>
    volume on the new node it recognize the stripped volume. So I stop<br>
    the volume on the four and add :  gluster volume add-brick gvHome<br>
    stripe 2  boogy1:/mnt/gvHome/brick1 boogy2:/mnt/gvHome/brick1<br>
    boogy3:/mnt/gvHome/brick1 boogy4:/mnt/gvHome/brick1 the answer is<br>
    the following :<br>
<br>
[root@moody ~]# gluster volume add-brick gvHome stripe 2<br>
boogy1:/mnt/gvHome/brick1  boogy2:/mnt/gvHome/brick1<br>
boogy3:/mnt/gvHome/brick1  boogy4:/mnt/gvHome/brick1<br>
Changing the &#39;stripe count&#39; of the volume is not a supported feature. In<br>
some cases it may result in data loss on the volume. Also there may be<br>
issues with regular filesystem operations on the volume after the<br>
change. Do you really want to continue with &#39;stripe&#39; count option ?  (y/n) y<br>
volume add-brick: failed: Staging failed on boogy2. Error: Brick:<br>
boogy2:/mnt/gvHome/brick1 not available. Brick may be containing or be<br>
contained by an existing brick<br>
Staging failed on boogy3. Error: Brick: boogy3:/mnt/gvHome/brick1 not<br>
available. Brick may be containing or be contained by an existing brick<br>
Staging failed on boogy1. Error: Brick: boogy1:/mnt/gvHome/brick1 not<br>
available. Brick may be containing or be contained by an existing brick<br>
Staging failed on 138.102.172.94. Error: Brick:<br>
boogy4:/mnt/gvHome/brick1 not available. Brick may be containing or be<br>
contained by an existing brick<br>
<br>
<br>
So how to add node one by one ?<br>
<br>
Many Thank&#39;s<br>
<br>
sincerely<br>
<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : <a href="tel:%2B33%20%280%291%2034%2065%2029%2078" value="+33134652978">+33 (0)1 34 65 29 78</a><br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/11707f48/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/11707f48/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/11707f48/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/11707f48/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Mon, 16 Mar 2015 16:28:44 +0100<br>
From: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;<br>
To: &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5506F6AC.3060907@uni.lu">5506F6AC.3060907@uni.lu</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
<br>
Hello,<br>
<br>
You cannot. As the message said, you cannot change the stripe count. So<br>
you can add 4 bricks and you have a distributed + striped volume, but<br>
you cannot change the stripe count by re-adding existing bricks into the<br>
volume with a different stripe count, or by adding an additional brick<br>
to the volume.<br>
<br>
Your email isn&#39;t very clear; could you please send:<br>
- the list of commands in the order that you typed them;<br>
- the output of &quot;gluster volume info&quot; and &quot;gluster volume status&quot;<br>
<br>
Thanks!<br>
JF<br>
<br>
<br>
<br>
On 16/03/15 16:17, Pierre L?onard wrote:<br>
&gt; Hi All,<br>
&gt;<br>
&gt; I am note the alone guy having problem with the addition of a node to an<br>
&gt; existing distributed stripped or replicated volume.<br>
&gt; And  I never read a real solution.<br>
&gt;<br>
&gt; My configuration is the following :<br>
&gt;<br>
&gt;   * four node with a gvHome stripped 2 volume ;<br>
&gt;   * first I probe the new node ans its OK ;<br>
&gt;   * then I start to add the node:/brick to the four other and get the<br>
&gt;     answer that I have to add a multiple of the striped so 4 other node.<br>
&gt;     But I have only one ;<br>
&gt;   * So I try to make the addition from the new node. If I list the<br>
&gt;     volume on the new node it recognize the stripped volume. So I stop<br>
&gt;     the volume on the four and add :  gluster volume add-brick gvHome<br>
&gt;     stripe 2  boogy1:/mnt/gvHome/brick1  boogy2:/mnt/gvHome/brick1<br>
&gt;     boogy3:/mnt/gvHome/brick1  boogy4:/mnt/gvHome/brick1 the answer is<br>
&gt;     the following :<br>
&gt;<br>
&gt; [root@moody ~]# gluster volume add-brick gvHome stripe 2<br>
&gt; boogy1:/mnt/gvHome/brick1  boogy2:/mnt/gvHome/brick1<br>
&gt; boogy3:/mnt/gvHome/brick1  boogy4:/mnt/gvHome/brick1<br>
&gt; Changing the &#39;stripe count&#39; of the volume is not a supported feature. In<br>
&gt; some cases it may result in data loss on the volume. Also there may be<br>
&gt; issues with regular filesystem operations on the volume after the<br>
&gt; change. Do you really want to continue with &#39;stripe&#39; count option ?  (y/n) y<br>
&gt; volume add-brick: failed: Staging failed on boogy2. Error: Brick:<br>
&gt; boogy2:/mnt/gvHome/brick1 not available. Brick may be containing or be<br>
&gt; contained by an existing brick<br>
&gt; Staging failed on boogy3. Error: Brick: boogy3:/mnt/gvHome/brick1 not<br>
&gt; available. Brick may be containing or be contained by an existing brick<br>
&gt; Staging failed on boogy1. Error: Brick: boogy1:/mnt/gvHome/brick1 not<br>
&gt; available. Brick may be containing or be contained by an existing brick<br>
&gt; Staging failed on 138.102.172.94. Error: Brick:<br>
&gt; boogy4:/mnt/gvHome/brick1 not available. Brick may be containing or be<br>
&gt; contained by an existing brick<br>
&gt;<br>
&gt;<br>
&gt; So how to add node one by one ?<br>
&gt;<br>
&gt; Many Thank&#39;s<br>
&gt;<br>
&gt; sincerely<br>
&gt;<br>
&gt; --<br>
&gt; Signature electronique<br>
&gt; INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
&gt;<br>
&gt; *Pierre L?onard*<br>
&gt; *Senior IT Manager*<br>
&gt; *MetaGenoPolis*<br>
&gt; <a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
&gt; T?l. : <a href="tel:%2B33%20%280%291%2034%2065%2029%2078" value="+33134652978">+33 (0)1 34 65 29 78</a><br>
&gt;<br>
&gt; Centre de recherche INRA<br>
&gt; Domaine de Vilvert ? B?t. 325 R+1<br>
&gt; 78 352 Jouy-en-Josas CEDEX<br>
&gt; France<br>
&gt; <a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<br>
--<br>
<br>
 Jean-Fran?ois Le Fill?tre<br>
 -------------------------------<br>
 HPC Systems Administrator<br>
 LCSB - University of Luxembourg<br>
 -------------------------------<br>
 PGP KeyID 0x134657C6<br>
<br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Mon, 16 Mar 2015 16:56:45 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;,<br>
        &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5506FD3D.1080200@jouy.inra.fr">5506FD3D.1080200@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi JF Le Fill?tre,<br>
<br>
Hello,<br>
<br>
You cannot. As the message said, you cannot change the stripe count.<br>
<br>
I don&#39;t change the strip count, the number is the same.<br>
<br>
So<br>
you can add 4 bricks and you have a distributed + striped volume, but<br>
you cannot change the stripe count by re-adding existing bricks into the<br>
volume with a different stripe count, or by adding an additional brick<br>
to the volume.<br>
<br>
That is the real question : &quot;is it possible to add a node to a stripe volume one by one ?&quot;<br>
I not when I receive a new node I can&#39;t insert it in the global cluster service !<br>
<br>
<br>
  Your email isn&#39;t very clear; could you please send:<br>
- the list of commands in the order that you typed them;<br>
- the output of &quot;gluster volume info&quot; and &quot;gluster volume status&quot;<br>
<br>
On one of the four node :<br>
[root@boogy2 ~]# gluster volume stop gvHome<br>
<br>
on the new node :<br>
[root@moody gvHome]# gluster volume add-brick gvHome  moody:/mnt/gvHome/brick1<br>
volume add-brick: failed: Incorrect number of bricks supplied 1 with count 2<br>
<br>
[root@boogy2 ~]# gluster volume info gvHome<br>
<br>
Volume Name: gvHome<br>
Type: Distributed-Stripe<br>
Volume ID: aa7bc5be-e6f6-43b0-bba2-b9d51ed2e4ef<br>
Status: Started<br>
Number of Bricks: 2 x 2 = 4<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: boogy1:/mnt/gvHome/brick1<br>
Brick2: boogy2:/mnt/gvHome/brick1<br>
Brick3: boogy3:/mnt/gvHome/brick1<br>
Brick4: boogy4:/mnt/gvHome/brick1<br>
<br>
<br>
[root@boogy2 ~]# gluster volume status gvHome<br>
Status of volume: gvHome<br>
Gluster process                                         Port    Online  Pid<br>
------------------------------------------------------------------------------<br>
Brick boogy1:/mnt/gvHome/brick1                         49153   Y       21735<br>
Brick boogy2:/mnt/gvHome/brick1                         49153   Y       121607<br>
Brick boogy3:/mnt/gvHome/brick1                         49153   Y       26828<br>
Brick boogy4:/mnt/gvHome/brick1                         49153   Y       116839<br>
NFS Server on localhost                                 N/A     N       N/A<br>
NFS Server on moody                                     N/A     N       N/A<br>
NFS Server on 138.102.172.94                            2049    Y       116853<br>
NFS Server on boogy1                                    2049    Y       21749<br>
NFS Server on boogy3                                    2049    Y       26843<br>
<br>
Task Status of Volume gvHome<br>
------------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
<br>
<br>
[root@boogy2 ~]# glusterd -V<br>
glusterfs 3.6.1 built on Nov  7 2014 15:15:48<br>
<br>
<br>
that&#39;s all.<br>
<br>
<br>
Many thank&#39;s<br>
<br>
sincereley<br>
<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : <a href="tel:%2B33%20%280%291%2034%2065%2029%2078" value="+33134652978">+33 (0)1 34 65 29 78</a><br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/526d34d5/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/526d34d5/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/526d34d5/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/526d34d5/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 6<br>
Date: Mon, 16 Mar 2015 17:16:47 +0100<br>
From: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;<br>
To: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;,<br>
        &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:550701EF.4040101@uni.lu">550701EF.4040101@uni.lu</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
<br>
Hi,<br>
<br>
OK, I was confused because in your original email you mentioned &quot;a<br>
multiple of the striped so 4 other node&quot;.<br>
<br>
So yes your stripe count is 2, so you have to add bricks 2 by 2, as the<br>
error message says. If you didn&#39;t, then it would mean that you would<br>
distribute your data over two 2-brick stripes, and one 1-brick single<br>
volume, which I am reasonably sure wouldn&#39;t work.<br>
<br>
If you want to be able to add bricks one by one, you would need a<br>
regular distributed volume, without:<br>
- striping (requires adding as many drives as stripe count)<br>
- replication (requires adding as many drives as stripe replication count)<br>
- dispersion (requires adding as many drives as whatever your dispersion<br>
disk count is)<br>
<br>
The only two things that you can extend is the number of brick groups in<br>
a distributed volume, with a similar brick group, or the number of<br>
replicas (but I&#39;m sure that there are corner cases where you can&#39;t do<br>
it, I haven&#39;t tried them yet).<br>
<br>
Is that clearer now?<br>
<br>
Thanks!<br>
JF<br>
<br>
<br>
<br>
On 16/03/15 16:56, Pierre L?onard wrote:<br>
&gt; Hi JF Le Fill?tre,<br>
&gt;<br>
&gt; Hello,<br>
&gt;<br>
&gt; You cannot. As the message said, you cannot change the stripe count.<br>
&gt;<br>
&gt; I don&#39;t change the strip count, the number is the same.<br>
&gt;<br>
&gt; So<br>
&gt; you can add 4 bricks and you have a distributed + striped volume, but<br>
&gt; you cannot change the stripe count by re-adding existing bricks into the<br>
&gt; volume with a different stripe count, or by adding an additional brick<br>
&gt; to the volume.<br>
&gt;<br>
&gt; That is the real question : &quot;is it possible to add a node to a stripe volume one by one ?&quot;<br>
&gt; I not when I receive a new node I can&#39;t insert it in the global cluster service !<br>
&gt;<br>
&gt;<br>
&gt;  Your email isn&#39;t very clear; could you please send:<br>
&gt; - the list of commands in the order that you typed them;<br>
&gt; - the output of &quot;gluster volume info&quot; and &quot;gluster volume status&quot;<br>
&gt;<br>
&gt; On one of the four node :<br>
&gt; [root@boogy2 ~]# gluster volume stop gvHome<br>
&gt;<br>
&gt; on the new node :<br>
&gt; [root@moody gvHome]# gluster volume add-brick gvHome  moody:/mnt/gvHome/brick1<br>
&gt; volume add-brick: failed: Incorrect number of bricks supplied 1 with count 2<br>
&gt;<br>
&gt; [root@boogy2 ~]# gluster volume info gvHome<br>
&gt;<br>
&gt; Volume Name: gvHome<br>
&gt; Type: Distributed-Stripe<br>
&gt; Volume ID: aa7bc5be-e6f6-43b0-bba2-b9d51ed2e4ef<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 2 x 2 = 4<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: boogy1:/mnt/gvHome/brick1<br>
&gt; Brick2: boogy2:/mnt/gvHome/brick1<br>
&gt; Brick3: boogy3:/mnt/gvHome/brick1<br>
&gt; Brick4: boogy4:/mnt/gvHome/brick1<br>
&gt;<br>
&gt;<br>
&gt; [root@boogy2 ~]# gluster volume status gvHome<br>
&gt; Status of volume: gvHome<br>
&gt; Gluster process                                         Port    Online  Pid<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; Brick boogy1:/mnt/gvHome/brick1                         49153   Y       21735<br>
&gt; Brick boogy2:/mnt/gvHome/brick1                         49153   Y       121607<br>
&gt; Brick boogy3:/mnt/gvHome/brick1                         49153   Y       26828<br>
&gt; Brick boogy4:/mnt/gvHome/brick1                         49153   Y       116839<br>
&gt; NFS Server on localhost                                 N/A     N       N/A<br>
&gt; NFS Server on moody                                     N/A     N       N/A<br>
&gt; NFS Server on 138.102.172.94                            2049    Y       116853<br>
&gt; NFS Server on boogy1                                    2049    Y       21749<br>
&gt; NFS Server on boogy3                                    2049    Y       26843<br>
&gt;<br>
&gt; Task Status of Volume gvHome<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; [root@boogy2 ~]# glusterd -V<br>
&gt; glusterfs 3.6.1 built on Nov  7 2014 15:15:48<br>
&gt;<br>
&gt;<br>
&gt; that&#39;s all.<br>
&gt;<br>
&gt;<br>
&gt; Many thank&#39;s<br>
&gt;<br>
&gt; sincereley<br>
&gt;<br>
&gt; --<br>
&gt; Signature electronique<br>
&gt; INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
&gt;<br>
&gt; *Pierre L?onard*<br>
&gt; *Senior IT Manager*<br>
&gt; *MetaGenoPolis*<br>
&gt; <a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
&gt; T?l. : <a href="tel:%2B33%20%280%291%2034%2065%2029%2078" value="+33134652978">+33 (0)1 34 65 29 78</a><br>
&gt;<br>
&gt; Centre de recherche INRA<br>
&gt; Domaine de Vilvert ? B?t. 325 R+1<br>
&gt; 78 352 Jouy-en-Josas CEDEX<br>
&gt; France<br>
&gt; <a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
&gt;<br>
<br>
--<br>
<br>
 Jean-Fran?ois Le Fill?tre<br>
 -------------------------------<br>
 HPC Systems Administrator<br>
 LCSB - University of Luxembourg<br>
 -------------------------------<br>
 PGP KeyID 0x134657C6<br>
<br>
<br>
------------------------------<br>
<br>
Message: 7<br>
Date: Mon, 16 Mar 2015 16:22:03 +0000<br>
From: &quot;Osborne, Paul (<a href="mailto:paul.osborne@canterbury.ac.uk">paul.osborne@canterbury.ac.uk</a>)&quot;<br>
        &lt;<a href="mailto:paul.osborne@canterbury.ac.uk">paul.osborne@canterbury.ac.uk</a>&gt;<br>
To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: [Gluster-users] tune2fs exited with non-zero exit status<br>
Message-ID:<br>
        &lt;<a href="mailto:AM3PR06MB1160480D807B23B1660DEE9BB020@AM3PR06MB116.eurprd06.prod.outlook.com">AM3PR06MB1160480D807B23B1660DEE9BB020@AM3PR06MB116.eurprd06.prod.outlook.com</a>&gt;<br>
<br>
Content-Type: text/plain; charset=&quot;us-ascii&quot;<br>
<br>
Hi,<br>
<br>
I am just looking through my logs and am seeing a lot of entries of the form:<br>
<br>
[2015-03-16 16:02:55.553140] I [glusterd-handler.c:3530:__glusterd_handle_status_volume] 0-management: Received status volume req for volume wiki<br>
[2015-03-16 16:02:55.561173] E [glusterd-utils.c:5140:glusterd_add_inode_size_to_dict] 0-management: tune2fs exited with non-zero exit status<br>
[2015-03-16 16:02:55.561204] E [glusterd-utils.c:5166:glusterd_add_inode_size_to_dict] 0-management: failed to get inode size<br>
<br>
Having had a rummage I *suspect* it is because gluster is trying to get the volume status by querying the superblock on the filesystem for a brick volume.  However this is an issue as when the volume was created it was done so in the form:<br>
<br>
root@gfsi-rh-01:/mnt# gluster volume create gfs1 replica 2 transport tcp \<br>
                                         gfsi-rh-01:/srv/hod/wiki \<br>
                                         gfsi-isr-01:/srv/hod/wiki force<br>
<br>
Where the those paths to the bricks are not the raw paths but instead are paths to the mount points on the local server.<br>
<br>
Volume status returns:<br>
gluster volume status wiki<br>
Status of volume: wiki<br>
Gluster process                                                                                Port       Online   Pid<br>
------------------------------------------------------------------------------<br>
Brick gfsi-rh-01.core.canterbury.ac.uk:/srv/hod/wiki       49157    Y              3077<br>
Brick gfsi-isr-01.core.canterbury.ac.uk:/srv/hod/wiki      49156    Y              3092<br>
Brick gfsi-cant-01.core.canterbury.ac.uk:/srv/hod/wiki  49152    Y              2908<br>
NFS Server on localhost                                                                2049       Y              35065<br>
Self-heal Daemon on localhost                                                  N/A        Y              35073<br>
NFS Server on <a href="http://gfsi-cant-01.core.canterbury.ac.uk" target="_blank">gfsi-cant-01.core.canterbury.ac.uk</a>             2049       Y              2920<br>
Self-heal Daemon on <a href="http://gfsi-cant-01.core.canterbury.ac.uk" target="_blank">gfsi-cant-01.core.canterbury.ac.uk</a>               N/A        Y              2927<br>
NFS Server on <a href="http://gfsi-isr-01.core.canterbury.ac.uk" target="_blank">gfsi-isr-01.core.canterbury.ac.uk</a>                 2049       Y              32680<br>
Self-heal Daemon on <a href="http://gfsi-isr-01.core.canterbury.ac.uk" target="_blank">gfsi-isr-01.core.canterbury.ac.uk</a>   N/A        Y              32687<br>
Task Status of Volume wiki<br>
------------------------------------------------------------------------------<br>
There are no active volume tasks<br>
<br>
Which is what I would expect.<br>
<br>
Interestingly to check my thoughts:<br>
<br>
# tune2fs -l /srv/hod/wiki/<br>
tune2fs 1.42.5 (29-Jul-2012)<br>
tune2fs: Attempt to read block from filesystem resulted in short read while trying to open /srv/hod/wiki/<br>
Couldn&#39;t find valid filesystem superblock.<br>
<br>
Does what I expect as it is checking a mount point and is what it looks like gluster is trying to do.<br>
<br>
But:<br>
<br>
# tune2fs -l /dev/mapper/bricks-wiki<br>
tune2fs 1.42.5 (29-Jul-2012)<br>
Filesystem volume name:   wiki<br>
Last mounted on:          /srv/hod/wiki<br>
Filesystem UUID:          a75306ac-31fa-447d-9da7-23ef66d9756b<br>
Filesystem magic number:  0xEF53<br>
Filesystem revision #:    1 (dynamic)<br>
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize<br>
Filesystem flags:         signed_directory_hash<br>
Default mount options:    user_xattr acl<br>
Filesystem state:         clean<br>
&lt;snipped&gt;<br>
<br>
This leaves me with a couple of questions:<br>
<br>
Is there any way that I can get this sorted in the gluster configuration so that it actually checks the raw volume rather than the local mount point for that volume?<br>
<br>
Should the volume have been created using the raw path /dev/mapper/.....   rather than the mount point?<br>
<br>
Or should I have created the volume (as I *now* see in the RedHat Storage Admin Guide) - under a sub directrory directory below the mounted filestore (ie:  /srv/hod/wiki/brick ?<br>
<br>
If I need to move the data and recreate the bricks it is not an issue for me as this is still proof of concept for what we are doing, what I need to know whether doing so will stop the continual log churn.<br>
<br>
Many thanks<br>
<br>
Paul<br>
<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a080617b/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a080617b/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 8<br>
Date: Mon, 16 Mar 2015 17:30:04 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5507050C.2060508@jouy.inra.fr">5507050C.2060508@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi,<br>
&gt; Hi,<br>
&gt;<br>
&gt; OK, I was confused because in your original email you mentioned &quot;a<br>
&gt; multiple of the striped so 4 other node&quot;.<br>
&gt;<br>
&gt; So yes your stripe count is 2, so you have to add bricks 2 by 2, as the<br>
&gt; error message says. If you didn&#39;t, then it would mean that you would<br>
&gt; distribute your data over two 2-brick stripes, and one 1-brick single<br>
&gt; volume, which I am reasonably sure wouldn&#39;t work.<br>
&gt;<br>
&gt; If you want to be able to add bricks one by one, you would need a<br>
&gt; regular distributed volume, without:<br>
&gt; - striping (requires adding as many drives as stripe count)<br>
&gt; - replication (requires adding as many drives as stripe replication count)<br>
&gt; - dispersion (requires adding as many drives as whatever your dispersion<br>
&gt; disk count is)<br>
&gt;<br>
&gt; The only two things that you can extend is the number of brick groups in<br>
&gt; a distributed volume, with a similar brick group, or the number of<br>
&gt; replicas (but I&#39;m sure that there are corner cases where you can&#39;t do<br>
&gt; it, I haven&#39;t tried them yet).<br>
&gt;<br>
&gt; Is that clearer now?<br>
Yes.<br>
So I have to find another node, or maybe is it possible to create a<br>
second brick on the new node ?<br>
<br>
Many Thank&#39;s.<br>
<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : +33 (0)1 34 65 29 78<br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/33b6a618/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/33b6a618/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/33b6a618/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/33b6a618/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 9<br>
Date: Mon, 16 Mar 2015 17:39:47 +0100<br>
From: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;<br>
To: &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:55070753.20100@uni.lu">55070753.20100@uni.lu</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
<br>
Hello again,<br>
<br>
Yes both are possible. What matters in that case is that you have two<br>
bricks to keep the stripe count of two.<br>
<br>
Note that if you split your node into two bricks and stripe over them,<br>
you will share the bandwidth between those bricks, and they will likely<br>
be of different size than the other brick stripes. From time to time<br>
you&#39;ll probably have to rebalance.<br>
<br>
Thanks,<br>
JF<br>
<br>
<br>
<br>
On 16/03/15 17:30, Pierre L?onard wrote:<br>
&gt; Hi,<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; OK, I was confused because in your original email you mentioned &quot;a<br>
&gt;&gt; multiple of the striped so 4 other node&quot;.<br>
&gt;&gt;<br>
&gt;&gt; So yes your stripe count is 2, so you have to add bricks 2 by 2, as the<br>
&gt;&gt; error message says. If you didn&#39;t, then it would mean that you would<br>
&gt;&gt; distribute your data over two 2-brick stripes, and one 1-brick single<br>
&gt;&gt; volume, which I am reasonably sure wouldn&#39;t work.<br>
&gt;&gt;<br>
&gt;&gt; If you want to be able to add bricks one by one, you would need a<br>
&gt;&gt; regular distributed volume, without:<br>
&gt;&gt; - striping (requires adding as many drives as stripe count)<br>
&gt;&gt; - replication (requires adding as many drives as stripe replication count)<br>
&gt;&gt; - dispersion (requires adding as many drives as whatever your dispersion<br>
&gt;&gt; disk count is)<br>
&gt;&gt;<br>
&gt;&gt; The only two things that you can extend is the number of brick groups in<br>
&gt;&gt; a distributed volume, with a similar brick group, or the number of<br>
&gt;&gt; replicas (but I&#39;m sure that there are corner cases where you can&#39;t do<br>
&gt;&gt; it, I haven&#39;t tried them yet).<br>
&gt;&gt;<br>
&gt;&gt; Is that clearer now?<br>
&gt; Yes.<br>
&gt; So I have to find another node, or maybe is it possible to create a<br>
&gt; second brick on the new node ?<br>
&gt;<br>
&gt; Many Thank&#39;s.<br>
&gt;<br>
&gt; --<br>
&gt; Signature electronique<br>
&gt; INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
&gt;<br>
&gt; *Pierre L?onard*<br>
&gt; *Senior IT Manager*<br>
&gt; *MetaGenoPolis*<br>
&gt; <a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
&gt; T?l. : +33 (0)1 34 65 29 78<br>
&gt;<br>
&gt; Centre de recherche INRA<br>
&gt; Domaine de Vilvert ? B?t. 325 R+1<br>
&gt; 78 352 Jouy-en-Josas CEDEX<br>
&gt; France<br>
&gt; <a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<br>
--<br>
<br>
 Jean-Fran?ois Le Fill?tre<br>
 -------------------------------<br>
 HPC Systems Administrator<br>
 LCSB - University of Luxembourg<br>
 -------------------------------<br>
 PGP KeyID 0x134657C6<br>
<br>
<br>
------------------------------<br>
<br>
Message: 10<br>
Date: Mon, 16 Mar 2015 17:46:11 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:550708D3.7050606@jouy.inra.fr">550708D3.7050606@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi,<br>
&gt; Hello again,<br>
&gt;<br>
&gt; Yes both are possible. What matters in that case is that you have two<br>
&gt; bricks to keep the stripe count of two.<br>
&gt;<br>
&gt; Note that if you split your node into two bricks and stripe over them,<br>
&gt; you will share the bandwidth between those bricks, and they will likely<br>
&gt; be of different size than the other brick stripes. From time to time<br>
&gt; you&#39;ll probably have to rebalance.<br>
&gt;<br>
&gt; Thanks,<br>
&gt; JF<br>
I think, that is the solution for today.<br>
I have enough disc for creating another brick. and the network is 10Gbs.<br>
so I am not afraid by the throuput needed.<br>
<br>
Many thank&#39;k to you for that exchange and ideas.<br>
<br>
sincerely.<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : +33 (0)1 34 65 29 78<br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/ebc9a3e0/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/ebc9a3e0/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/ebc9a3e0/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/ebc9a3e0/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 11<br>
Date: Mon, 16 Mar 2015 18:30:21 +0100<br>
From: F?lix de Lelelis &lt;<a href="mailto:felix.delelisdd@gmail.com">felix.delelisdd@gmail.com</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: [Gluster-users] Gluster 3.6 issue<br>
Message-ID:<br>
        &lt;CAL4JRLmUPpRa=<a href="mailto:CHCxZKPHmQTg41fYd6B91DWgDxSJPErEgHpUg@mail.gmail.com">CHCxZKPHmQTg41fYd6B91DWgDxSJPErEgHpUg@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
I have a cluster with 2 nodes, and sometimes when I lunch gluster volume<br>
status, appear a error on the log:<br>
<br>
[2015-03-16 17:24:25.215352] E<br>
[glusterd-utils.c:7364:glusterd_add_inode_size_to_dict] 0-management:<br>
xfs_info exited with non-zero exit status<br>
[2015-03-16 17:24:25.215379] E<br>
[glusterd-utils.c:7390:glusterd_add_inode_size_to_dict] 0-management:<br>
failed to get inode size<br>
<br>
That you can be due?<br>
<br>
Thanks<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a9874d12/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a9874d12/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 12<br>
Date: Mon, 16 Mar 2015 20:44:29 +0000<br>
From: Jonathan Heese &lt;<a href="mailto:jheese@inetu.net">jheese@inetu.net</a>&gt;<br>
To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: [Gluster-users] I/O error on replicated volume<br>
Message-ID: &lt;<a href="mailto:79aaa9ff350749d6a313601caf3c2d6b@int-exch6.int.inetu.net">79aaa9ff350749d6a313601caf3c2d6b@int-exch6.int.inetu.net</a>&gt;<br>
Content-Type: text/plain; charset=&quot;us-ascii&quot;<br>
<br>
Hello,<br>
<br>
So I resolved my previous issue with split-brains and the lack of self-healing by dropping my installed glusterfs* packages from 3.6.2 to 3.5.3, but now I&#39;ve picked up a new issue, which actually makes normal use of the volume practically impossible.<br>
<br>
A little background for those not already paying close attention:<br>
I have a 2 node 2 brick replicating volume whose purpose in life is to hold iSCSI target files, primarily for use to provide datastores to a VMware ESXi cluster.  The plan is to put a handful of image files on the Gluster volume, mount them locally on both Gluster nodes, and run tgtd on both, pointed to the image files on the mounted gluster volume. Then the ESXi boxes will use multipath (active/passive) iSCSI to connect to the nodes, with automatic failover in case of planned or unplanned downtime of the Gluster nodes.<br>
<br>
In my most recent round of testing with 3.5.3, I&#39;m seeing a massive failure to write data to the volume after about 5-10 minutes, so I&#39;ve simplified the scenario a bit (to minimize the variables) to: both Gluster nodes up, only one node (duke) mounted and running tgtd, and just regular (single path) iSCSI from a single ESXi server.<br>
<br>
About 5-10 minutes into migration a VM onto the test datastore, /var/log/messages on duke gets blasted with a ton of messages exactly like this:<br>
Mar 15 22:24:06 duke tgtd: bs_rdwr_request(180) io error 0x1781e00 2a -1 512 22971904, Input/output error<br>
<br>
And /var/log/glusterfs/mnt-gluster_disk.log gets blased with a ton of messages exactly like this:<br>
[2015-03-16 02:24:07.572279] W [fuse-bridge.c:2242:fuse_writev_cbk] 0-glusterfs-fuse: 635299: WRITE =&gt; -1 (Input/output error)<br>
<br>
And the write operation from VMware&#39;s side fails as soon as these messages start.<br>
<br>
I don&#39;t see any other errors (in the log files I know of) indicating the root cause of these i/o errors.  I&#39;m sure that this is not enough information to tell what&#39;s going on, but can anyone help me figure out what to look at next to figure this out?<br>
<br>
I&#39;ve also considered using Dan Lambright&#39;s libgfapi gluster module for tgtd (or something similar) to avoid going through FUSE, but I&#39;m not sure whether that would be irrelevant to this problem, since I&#39;m not 100% sure if it lies in FUSE or elsewhere.<br>
<br>
Thanks!<br>
<br>
Jon Heese<br>
Systems Engineer<br>
INetU Managed Hosting<br>
P: 610.266.7441 x 261<br>
F: 610.266.7434<br>
<a href="http://www.inetu.net" target="_blank">www.inetu.net</a>&lt;<a href="https://www.inetu.net/" target="_blank">https://www.inetu.net/</a>&gt;<br>
** This message contains confidential information, which also may be privileged, and is intended only for the person(s) addressed above. Any unauthorized use, distribution, copying or disclosure of confidential and/or privileged information is strictly prohibited. If you have received this communication in error, please erase all copies of the message and its attachments and notify the sender immediately via reply e-mail. **<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/68d109cd/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/68d109cd/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 13<br>
Date: Tue, 17 Mar 2015 09:07:12 +0800<br>
From: Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt;<br>
To: Vered Volansky &lt;<a href="mailto:vered@redhat.com">vered@redhat.com</a>&gt;<br>
Cc: Martin Pavlik &lt;<a href="mailto:mpavlik@redhat.com">mpavlik@redhat.com</a>&gt;, &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot;<br>
        &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;,    Martin Perina &lt;<a href="mailto:mperina@redhat.com">mperina@redhat.com</a>&gt;,<br>
        &quot;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&quot; &lt;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;<br>
Subject: Re: [Gluster-users] [ovirt-users] Zombie disks failed to<br>
        remove..<br>
Message-ID:<br>
        &lt;CAGZcrBnRMQ2eCEEhtwrwmLK30qeJd1h+TrrgaV=<a href="mailto:97CZ5nTrC4A@mail.gmail.com">97CZ5nTrC4A@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
Can any body help on this....or it&#39;s bug in ovirt or gluster..??<br>
<br>
On Thu, Feb 26, 2015 at 12:07 PM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
<br>
&gt; Hi Vered,<br>
&gt;<br>
&gt; Please find the attached logs...<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Punit<br>
&gt;<br>
&gt; On Wed, Feb 25, 2015 at 2:16 PM, Vered Volansky &lt;<a href="mailto:vered@redhat.com">vered@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Please send vdsm and engine logs so we can see why this happened.<br>
&gt;&gt;<br>
&gt;&gt; Regards,<br>
&gt;&gt; Vered<br>
&gt;&gt;<br>
&gt;&gt; ----- Original Message -----<br>
&gt;&gt; &gt; From: &quot;Punit Dambiwal&quot; &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt;<br>
&gt;&gt; &gt; To: <a href="mailto:users@ovirt.org">users@ovirt.org</a>, <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>, &quot;Martin Pavlik&quot; &lt;<br>
&gt;&gt; <a href="mailto:mpavlik@redhat.com">mpavlik@redhat.com</a>&gt;, &quot;Martin Perina&quot;<br>
&gt;&gt; &gt; &lt;<a href="mailto:mperina@redhat.com">mperina@redhat.com</a>&gt;<br>
&gt;&gt; &gt; Sent: Tuesday, February 24, 2015 8:50:04 PM<br>
&gt;&gt; &gt; Subject: [ovirt-users] Zombie disks failed to remove..<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hi,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; In my ovirt infra...ovirt (3.5.1) with glusterfs (3.6.1)....now when i<br>
&gt;&gt; try to<br>
&gt;&gt; &gt; remove the vm...the vm remove successfully but the vm disk (vdisk)<br>
&gt;&gt; remain<br>
&gt;&gt; &gt; there.....if i try to remove this unattached disk..it&#39;s failed to<br>
&gt;&gt; remove....<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Thanks,<br>
&gt;&gt; &gt; Punit<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Users mailing list<br>
&gt;&gt; &gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/29d2cc85/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/29d2cc85/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 14<br>
Date: Mon, 16 Mar 2015 21:39:09 -0500<br>
From: Jay Strauss &lt;<a href="mailto:me@heyjay.com">me@heyjay.com</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: [Gluster-users] Running a SQL database on Gluster on AWS<br>
Message-ID:<br>
        &lt;CANpdWGXynaqof+Y=<a href="mailto:g8BQaA-qS4k7Fm_V6%2BLmBpCf1tAZOqrNPA@mail.gmail.com">g8BQaA-qS4k7Fm_V6+LmBpCf1tAZOqrNPA@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
Apologies, if this is worn earth, first time poster.  I did the search the<br>
archives and didn&#39;t see any threads like mine.<br>
<br>
I want to setup postgresql upon gluster.  I intend to build my cluster upon<br>
AWS.  I&#39;m running a variant of postgresql, which is a parallel version,<br>
that lets one start postgres on multiple nodes, each which may read the<br>
database files.<br>
<br>
Questions:<br>
<br>
1) I want to run upon Ubuntu v14.04 LTS, which packages would you<br>
recommend?<br>
/pub/gluster/glusterfs/LATEST/Debian<br>
Wheezy or Jessie or other??<br>
<br>
2) I am going to use AWS and EBS volumes.  I watched a video by Louis<br>
Zuckerman, in which he indicated to use &quot;many bricks per server&quot;.<br>
a) does that mean many EBS volumes per server?  Or multiple bricks per EBS<br>
 volume?<br>
b) How many is &quot;many&quot;?<br>
- My database will have 100s (maybe 1000s) of files, each will be between<br>
10-500MB.<br>
<br>
3) Can I use the EC2 units to do double duty, running the gluster process<br>
AND my postgresql processes (or is that a bad idea)?<br>
a) if I can do double duty, can my postgresql processes gain performance<br>
when they read local files? or do all process read via the network,<br>
regardless of whether the process wants files that may actually be local.<br>
<br>
Any other suggestions regarding running, setting up, on AWS?<br>
<br>
Thanks<br>
Jay<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a5c748e3/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/a5c748e3/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 15<br>
Date: Tue, 17 Mar 2015 10:05:05 +0530<br>
From: Ravishankar N &lt;<a href="mailto:ravishankar@redhat.com">ravishankar@redhat.com</a>&gt;<br>
To: Jonathan Heese &lt;<a href="mailto:jheese@inetu.net">jheese@inetu.net</a>&gt;,  &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot;<br>
        &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] I/O error on replicated volume<br>
Message-ID: &lt;<a href="mailto:5507AEF9.1090703@redhat.com">5507AEF9.1090703@redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;windows-1252&quot;; Format=&quot;flowed&quot;<br>
<br>
<br>
On 03/17/2015 02:14 AM, Jonathan Heese wrote:<br>
&gt; Hello,<br>
&gt;<br>
&gt; So I resolved my previous issue with split-brains and the lack of<br>
&gt; self-healing by dropping my installed glusterfs* packages from 3.6.2<br>
&gt; to 3.5.3, but now I&#39;ve picked up a new issue, which actually makes<br>
&gt; normal use of the volume practically impossible.<br>
&gt;<br>
&gt; A little background for those not already paying close attention:<br>
&gt; I have a 2 node 2 brick replicating volume whose purpose in life is to<br>
&gt; hold iSCSI target files, primarily for use to provide datastores to a<br>
&gt; VMware ESXi cluster.  The plan is to put a handful of image files on<br>
&gt; the Gluster volume, mount them locally on both Gluster nodes, and run<br>
&gt; tgtd on both, pointed to the image files on the mounted gluster<br>
&gt; volume. Then the ESXi boxes will use multipath (active/passive) iSCSI<br>
&gt; to connect to the nodes, with automatic failover in case of planned or<br>
&gt; unplanned downtime of the Gluster nodes.<br>
&gt;<br>
&gt; In my most recent round of testing with 3.5.3, I&#39;m seeing a massive<br>
&gt; failure to write data to the volume after about 5-10 minutes, so I&#39;ve<br>
&gt; simplified the scenario a bit (to minimize the variables) to: both<br>
&gt; Gluster nodes up, only one node (duke) mounted and running tgtd, and<br>
&gt; just regular (single path) iSCSI from a single ESXi server.<br>
&gt;<br>
&gt; About 5-10 minutes into migration a VM onto the test datastore,<br>
&gt; /var/log/messages on duke gets blasted with a ton of messages exactly<br>
&gt; like this:<br>
&gt;<br>
&gt; Mar 15 22:24:06 duke tgtd: bs_rdwr_request(180) io error 0x1781e00 2a<br>
&gt; -1 512 22971904, Input/output error<br>
&gt;<br>
&gt;<br>
&gt; And /var/log/glusterfs/mnt-gluster_disk.log gets blased with a ton of<br>
&gt; messages exactly like this:<br>
&gt;<br>
&gt; [2015-03-16 02:24:07.572279] W [fuse-bridge.c:2242:fuse_writev_cbk]<br>
&gt; 0-glusterfs-fuse: 635299: WRITE =&gt; -1 (Input/output error)<br>
&gt;<br>
&gt;<br>
<br>
Are there any messages in the mount log from AFR about split-brain just<br>
before the above line appears?<br>
Does `gluster v heal &lt;VOLNAME&gt; info` show any files? Performing I/O on<br>
files that are in split-brain fail with EIO.<br>
<br>
-Ravi<br>
<br>
&gt; And the write operation from VMware&#39;s side fails as soon as these<br>
&gt; messages start.<br>
&gt;<br>
&gt;<br>
&gt; I don&#39;t see any other errors (in the log files I know of) indicating<br>
&gt; the root cause of these i/o errors.  I&#39;m sure that this is not enough<br>
&gt; information to tell what&#39;s going on, but can anyone help me figure out<br>
&gt; what to look at next to figure this out?<br>
&gt;<br>
&gt;<br>
&gt; I&#39;ve also considered using Dan Lambright&#39;s libgfapi gluster module for<br>
&gt; tgtd (or something similar) to avoid going through FUSE, but I&#39;m not<br>
&gt; sure whether that would be irrelevant to this problem, since I&#39;m not<br>
&gt; 100% sure if it lies in FUSE or elsewhere.<br>
&gt;<br>
&gt;<br>
&gt; Thanks!<br>
&gt;<br>
&gt;<br>
&gt; /Jon Heese/<br>
&gt; /Systems Engineer/<br>
&gt; *INetU Managed Hosting*<br>
&gt; P: 610.266.7441 x 261<br>
&gt; F: 610.266.7434<br>
&gt; <a href="http://www.inetu.net" target="_blank">www.inetu.net</a>&lt;<a href="https://www.inetu.net/" target="_blank">https://www.inetu.net/</a>&gt;<br>
&gt;<br>
&gt; /** This message contains confidential information, which also may be<br>
&gt; privileged, and is intended only for the person(s) addressed above.<br>
&gt; Any unauthorized use, distribution, copying or disclosure of<br>
&gt; confidential and/or privileged information is strictly prohibited. If<br>
&gt; you have received this communication in error, please erase all copies<br>
&gt; of the message and its attachments and notify the sender immediately<br>
&gt; via reply e-mail. **/<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/d7c640a2/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/d7c640a2/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 16<br>
Date: Tue, 17 Mar 2015 12:52:31 +0800<br>
From: Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt;<br>
To: &quot;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&quot; &lt;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;,        &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot;<br>
        &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;,    Vered Volansky &lt;<a href="mailto:vered@redhat.com">vered@redhat.com</a>&gt;,<br>
        Michal Skrivanek &lt;<a href="mailto:michal.skrivanek@redhat.com">michal.skrivanek@redhat.com</a>&gt;,         Humble Devassy<br>
        Chirammal &lt;<a href="mailto:humble.devassy@gmail.com">humble.devassy@gmail.com</a>&gt;,   Kanagaraj &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;,<br>
        Kaushal M &lt;<a href="mailto:kshlmster@gmail.com">kshlmster@gmail.com</a>&gt;<br>
Subject: [Gluster-users] VM failed to start | Bad volume specification<br>
Message-ID:<br>
        &lt;<a href="mailto:CAGZcrBnbEGCSU4S92mKC0AGVK6B9aV0_SkCroHRL0dhVK_%2B3AA@mail.gmail.com">CAGZcrBnbEGCSU4S92mKC0AGVK6B9aV0_SkCroHRL0dhVK_+3AA@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
I am facing one strange issue with ovirt/glusterfs....still didn&#39;t find<br>
this issue is related with glusterfs or Ovirt....<br>
<br>
Ovirt :- 3.5.1<br>
Glusterfs :- 3.6.1<br>
Host :- 4 Hosts (Compute+ Storage)...each server has 24 bricks<br>
Guest VM :- more then 100<br>
<br>
Issue :- When i deploy this cluster first time..it work well for me(all the<br>
guest VM created and running successfully)....but suddenly one day my one<br>
of the host node rebooted and none of the VM can boot up now...and failed<br>
with the following error &quot;Bad Volume Specification&quot;<br>
<br>
VMId :- d877313c18d9783ca09b62acf5588048<br>
<br>
VDSM Logs :- <a href="http://ur1.ca/jxabi" target="_blank">http://ur1.ca/jxabi</a><br>
Engine Logs :- <a href="http://ur1.ca/jxabv" target="_blank">http://ur1.ca/jxabv</a><br>
<br>
------------------------<br>
[root@cpu01 ~]# vdsClient -s 0 getVolumeInfo<br>
e732a82f-bae9-4368-8b98-dedc1c3814de 00000002-0002-0002-0002-000000000145<br>
6d123509-6867-45cf-83a2-6d679b77d3c5 9030bb43-6bc9-462f-a1b9-f6d5a02fb180<br>
        status = OK<br>
        domain = e732a82f-bae9-4368-8b98-dedc1c3814de<br>
        capacity = 21474836480<br>
        voltype = LEAF<br>
        description =<br>
        parent = 00000000-0000-0000-0000-000000000000<br>
        format = RAW<br>
        image = 6d123509-6867-45cf-83a2-6d679b77d3c5<br>
        uuid = 9030bb43-6bc9-462f-a1b9-f6d5a02fb180<br>
        disktype = 2<br>
        legality = LEGAL<br>
        mtime = 0<br>
        apparentsize = 21474836480<br>
        truesize = 4562972672<br>
        type = SPARSE<br>
        children = []<br>
        pool =<br>
        ctime = 1422676305<br>
---------------------<br>
<br>
I opened same thread earlier but didn&#39;t get any perfect answers to solve<br>
this issue..so i reopen it...<br>
<br>
<a href="https://www.mail-archive.com/users@ovirt.org/msg25011.html" target="_blank">https://www.mail-archive.com/users@ovirt.org/msg25011.html</a><br>
<br>
Thanks,<br>
Punit<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/2ceff835/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/2ceff835/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 17<br>
Date: Tue, 17 Mar 2015 06:24:15 +0100<br>
From: Melkor Lord &lt;<a href="mailto:melkor.lord@gmail.com">melkor.lord@gmail.com</a>&gt;<br>
To: Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt;<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] Working but some issues<br>
Message-ID:<br>
        &lt;CAOXaFyy==<a href="mailto:KXAPnLNzNf5yLoaJa4A9tsd9YZ1OZCgaEZGd0YSCA@mail.gmail.com">KXAPnLNzNf5yLoaJa4A9tsd9YZ1OZCgaEZGd0YSCA@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
On Mon, Mar 16, 2015 at 5:14 AM, Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt; wrote:<br>
<br>
&gt;<br>
&gt; I&#39;ll just address this one point in this email because it&#39;s such an<br>
&gt; important one. This is not just an open-source project because some<br>
&gt; company&#39;s developing a product and lets you have it for free, this is an<br>
&gt; open-source *project*. We, the members of the community, are as<br>
&gt; responsible for that problem as the folks that know how to write in C;<br>
&gt; perhaps even more so.<br>
&gt;<br>
&gt; I implore you to add your skills to improving the documentation. You have<br>
&gt; the ability to see the documentation from a completely different<br>
&gt; perspective from the folks that wrote the code. They may not have<br>
&gt; documented --remote-host because they perhaps added it for an internal<br>
&gt; reason and didn&#39;t expect users to use it. By looking at it from a different<br>
&gt; perspective, you may see a need for documentation and have the ability to<br>
&gt; implement it.<br>
&gt;<br>
<br>
I globally agree with your statement but there&#39;s a catch here, more of a<br>
chicken-and-egg problem actually! In order to contribute to the<br>
documentation or help other users, I must first be able to understand the<br>
project myself! The mere documentation is missing at almost every stage in<br>
GlusterFS and this is problematic. If I&#39;m not able to put GlusterFS at use<br>
understanding how it works and how it interacts between all of its<br>
components, how am I supposed to explain it to other people?<br>
<br>
I&#39;m a sysadmin for over 2 decades and this is the first time I see such a<br>
major project (GlusterFS is not a small HelloWorld app, it&#39;s featureful,<br>
complex and envolves learning some concepts) with so little documentation.<br>
As I said before, I currently have *no* *clue* of all the options and<br>
directives I can use in the main configuration file<br>
/etc/glusterfs/glusterd.vol for example! There&#39;s only a &quot;sample&quot;<br>
configuration file with no further detail than the classic &quot;paste this into<br>
the file&quot;. Well no thank you ;) I won&#39;t paste anything to any configuration<br>
file without understanding it first and have a complete set of directives I<br>
can use. I have the reponsability of having a running service and can&#39;t<br>
just &quot;paste things&quot; as told :-)<br>
<br>
The only way I got GlusterFS to work is by searching BLOG posts and this<br>
bad IMHO. The way I see how a project ecosystem should be managed is like<br>
this : The devs should not only code but provide the full information,<br>
documenting every single option and directive because no other than them<br>
know the project better than they do! After that, the ecosystem will grow<br>
by itself thanks to technical people that create blog posts and articles to<br>
explain various creative ways of using the software. The documentation from<br>
the devs does not have to be ultra exhaustive explaining all possible use<br>
cases of course but at least, document everything that needs to be<br>
documented to let other people understand what they are dealing with.<br>
<br>
Let me take 2 real world examples to get the general idea : Postfix and<br>
NGinX! They are flexible enough to provide a quite large set of use cases.<br>
Their documentation is impeccable from my point of view. They provide an<br>
exhaustive documentation of their inner options like this -<br>
<a href="http://www.postfix.org/postconf.5.html" target="_blank">http://www.postfix.org/postconf.5.html</a> - and this -<br>
<a href="http://nginx.org/en/docs/dirindex.html" target="_blank">http://nginx.org/en/docs/dirindex.html</a><br>
<br>
See, even if you forget all the HowTo&#39;s, articles and stuff, which are<br>
great additions and bonuses, you can manage to get out of the woods with<br>
these docs. That&#39;s exactly what I miss most in GlusterFS. There are here<br>
and there options explained but often with no context.<br>
<br>
To the very specific case of &quot;--remote-host&quot; option, there&#39;s a design<br>
problem in &quot;gluster&quot; command. Launching it without arguments and you get a<br>
prompt and the command completion helps a bit. Now, try &quot;gluster -h&quot; (or<br>
--help or -? or whatever) and you end up with &quot;unrecognized option --XXX&quot;.<br>
This is counter intuitive again. You can&#39;t experiment by trial and error to<br>
figure out things when you&#39;re in the dark, that&#39;s why I had to take a peek<br>
to the source code and find out the existence of other options.<br>
<br>
If you spend so much time trying to find information instead of<br>
experimenting with a project, you may grow bored and leave. This would be<br>
bad because the lack of documentation may lead people to avoid a project<br>
which could be really useful and good! GlusterFS features exactly what I<br>
want for my usage, that&#39;s why I picked it up but I didn&#39;t think it would be<br>
so hard to get proper documentation.<br>
<br>
For example, I can&#39;t get SSL to work with my 3.6.2 setup and there&#39;s not a<br>
single bit of doc about it. There&#39;s only<br>
<a href="http://blog.gluster.org/author/zbyszek/" target="_blank">http://blog.gluster.org/author/zbyszek/</a> but even after following the<br>
necessary steps, I end up with a cryptic log entry &quot;Cannot authenticate<br>
client from fs-00-22666-2015/03/16-11:42:54:167984-Data-client-0-0-0 3.6.2&quot;<br>
and repeated for all the replicas :-( I don&#39;t know what GlusterFS expects<br>
in this case so I can&#39;t solve the problem for now.<br>
<br>
I&#39;ll stop boring you now, you get the point ;) You can only explain what<br>
you clearly understand and for now, this is still way too foogy for me :)<br>
<br>
--<br>
Unix _IS_ user friendly, it&#39;s just selective about who its friends are.<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/b357a41e/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/b357a41e/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 18<br>
Date: Mon, 16 Mar 2015 23:43:12 -0700<br>
From: Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt;<br>
To: Melkor Lord &lt;<a href="mailto:melkor.lord@gmail.com">melkor.lord@gmail.com</a>&gt;<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] Working but some issues<br>
Message-ID: &lt;<a href="mailto:5507CD00.1000503@julianfamily.org">5507CD00.1000503@julianfamily.org</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
On 03/16/2015 10:24 PM, Melkor Lord wrote:<br>
&gt;<br>
&gt; On Mon, Mar 16, 2015 at 5:14 AM, Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a><br>
&gt; &lt;mailto:<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt;<br>
&gt;     I&#39;ll just address this one point in this email because it&#39;s such<br>
&gt;     an important one. This is not just an open-source project because<br>
&gt;     some company&#39;s developing a product and lets you have it for free,<br>
&gt;     this is an open-source *project*. We, the members of the<br>
&gt;     community, are as responsible for that problem as the folks that<br>
&gt;     know how to write in C; perhaps even more so.<br>
&gt;<br>
&gt;     I implore you to add your skills to improving the documentation.<br>
&gt;     You have the ability to see the documentation from a completely<br>
&gt;     different perspective from the folks that wrote the code. They may<br>
&gt;     not have documented --remote-host because they perhaps added it<br>
&gt;     for an internal reason and didn&#39;t expect users to use it. By<br>
&gt;     looking at it from a different perspective, you may see a need for<br>
&gt;     documentation and have the ability to implement it.<br>
&gt;<br>
&gt;<br>
&gt; I globally agree with your statement but there&#39;s a catch here, more of<br>
&gt; a chicken-and-egg problem actually! In order to contribute to the<br>
&gt; documentation or help other users, I must first be able to understand<br>
&gt; the project myself! The mere documentation is missing at almost every<br>
&gt; stage in GlusterFS and this is problematic. If I&#39;m not able to put<br>
&gt; GlusterFS at use understanding how it works and how it interacts<br>
&gt; between all of its components, how am I supposed to explain it to<br>
&gt; other people?<br>
<br>
Good question. It took me months to figure all that out (with far less<br>
documentation than there is now) and even with pictures and arrows and<br>
8x10 glossies with a paragraph on the back of each one, people still<br>
have a hard time getting it. That&#39;s why so much effort has gone in to<br>
making a cli that does it all for you and doesn&#39;t require you to be a<br>
storage engineer to use it.<br>
<br>
&gt;<br>
&gt; I&#39;m a sysadmin for over 2 decades and this is the first time I see<br>
&gt; such a major project (GlusterFS is not a small HelloWorld app, it&#39;s<br>
&gt; featureful, complex and envolves learning some concepts) with so<br>
&gt; little documentation.<br>
<br>
I&#39;ll split this out as I think you&#39;re unaware of the admin guide that&#39;s<br>
pretty detailed and is, at least, published with the source code (it may<br>
be on the <a href="http://gluster.org" target="_blank">gluster.org</a> site somewhere, but I&#39;m too tired right now to<br>
look). The source can readily be found on github<br>
&lt;<a href="https://github.com/GlusterFS/glusterfs/tree/master/doc/admin-guide/en-US/markdown" target="_blank">https://github.com/GlusterFS/glusterfs/tree/master/doc/admin-guide/en-US/markdown</a>&gt;.<br>
<br>
&gt; As I said before, I currently have *no* *clue* of all the options and<br>
&gt; directives I can use in the main configuration file<br>
&gt; /etc/glusterfs/glusterd.vol for example!<br>
<br>
Right. There&#39;s nearly no need to mess with that except under the lesser<br>
circumstance that an unprivileged user needs access to the management port.<br>
<br>
&gt; There&#39;s only a &quot;sample&quot; configuration file with no further detail than<br>
&gt; the classic &quot;paste this into the file&quot;. Well no thank you ;) I won&#39;t<br>
&gt; paste anything to any configuration file without understanding it<br>
&gt; first and have a complete set of directives I can use. I have the<br>
&gt; reponsability of having a running service and can&#39;t just &quot;paste<br>
&gt; things&quot; as told :-)<br>
&gt;<br>
&gt; The only way I got GlusterFS to work is by searching BLOG posts and<br>
&gt; this bad IMHO. The way I see how a project ecosystem should be managed<br>
&gt; is like this : The devs should not only code but provide the full<br>
&gt; information, documenting every single option and directive because no<br>
&gt; other than them know the project better than they do! After that, the<br>
&gt; ecosystem will grow by itself thanks to technical people that create<br>
&gt; blog posts and articles to explain various creative ways of using the<br>
&gt; software. The documentation from the devs does not have to be ultra<br>
&gt; exhaustive explaining all possible use cases of course but at least,<br>
&gt; document everything that needs to be documented to let other people<br>
&gt; understand what they are dealing with.<br>
<br>
That is the way it&#39;s done, btw. The developers are required to document<br>
their features before a release.<br>
<br>
&gt; Let me take 2 real world examples to get the general idea : Postfix<br>
&gt; and NGinX! They are flexible enough to provide a quite large set of<br>
&gt; use cases. Their documentation is impeccable from my point of view.<br>
&gt; They provide an exhaustive documentation of their inner options like<br>
&gt; this - <a href="http://www.postfix.org/postconf.5.html" target="_blank">http://www.postfix.org/postconf.5.html</a> - and this -<br>
&gt; <a href="http://nginx.org/en/docs/dirindex.html" target="_blank">http://nginx.org/en/docs/dirindex.html</a><br>
<br>
Postfix, 16 years old, and hasn&#39;t always had very detailed<br>
documentation. Do you also remember when it was worse than sendmail&#39;s?<br>
<br>
I could counter with any of the myriad of horrible documentation for<br>
some of the most popular software systems out there only to point out<br>
that Gluster&#39;s isn&#39;t all that bad by comparison to a great many of its<br>
peers.<br>
<br>
&gt;<br>
&gt; See, even if you forget all the HowTo&#39;s, articles and stuff, which are<br>
&gt; great additions and bonuses, you can manage to get out of the woods<br>
&gt; with these docs. That&#39;s exactly what I miss most in GlusterFS. There<br>
&gt; are here and there options explained but often with no context.<br>
&gt;<br>
&gt; To the very specific case of &quot;--remote-host&quot; option, there&#39;s a design<br>
&gt; problem in &quot;gluster&quot; command. Launching it without arguments and you<br>
&gt; get a prompt and the command completion helps a bit. Now, try &quot;gluster<br>
&gt; -h&quot; (or --help or -? or whatever) and you end up with &quot;unrecognized<br>
&gt; option --XXX&quot;. This is counter intuitive again. You can&#39;t experiment<br>
&gt; by trial and error to figure out things when you&#39;re in the dark,<br>
&gt; that&#39;s why I had to take a peek to the source code and find out the<br>
&gt; existence of other options.<br>
<br>
&quot;gluster help&quot; is pretty intuitive, imho, as is<br>
<br>
     # gluster<br>
     gluster&gt; help<br>
<br>
and the more detailed than any other software I can think of, &quot;gluster<br>
volume set help&quot; which has all the settings you can tweak in your volume<br>
along with their description equivalent to that postfix document.<br>
<br>
&gt; If you spend so much time trying to find information instead of<br>
&gt; experimenting with a project, you may grow bored and leave.<br>
<br>
Agreed, and that&#39;s something that the <a href="http://gluster.org" target="_blank">gluster.org</a> web site&#39;s been<br>
failing at since the last 1 or 2 web site revamps.<br>
<br>
&gt; This would be bad because the lack of documentation may lead people to<br>
&gt; avoid a project which could be really useful and good! GlusterFS<br>
&gt; features exactly what I want for my usage, that&#39;s why I picked it up<br>
&gt; but I didn&#39;t think it would be so hard to get proper documentation.<br>
&gt;<br>
&gt; For example, I can&#39;t get SSL to work with my 3.6.2 setup and there&#39;s<br>
&gt; not a single bit of doc about it. There&#39;s only<br>
&gt; <a href="http://blog.gluster.org/author/zbyszek/" target="_blank">http://blog.gluster.org/author/zbyszek/</a> but even after following the<br>
&gt; necessary steps, I end up with a cryptic log entry &quot;Cannot<br>
&gt; authenticate client from<br>
&gt; fs-00-22666-2015/03/16-11:42:54:167984-Data-client-0-0-0 3.6.2&quot; and<br>
&gt; repeated for all the replicas :-( I don&#39;t know what GlusterFS expects<br>
&gt; in this case so I can&#39;t solve the problem for now.<br>
<br>
<a href="https://github.com/GlusterFS/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_ssl.md" target="_blank">https://github.com/GlusterFS/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_ssl.md</a><br>
&lt;-- not a blog<br>
<br>
&gt;<br>
&gt; I&#39;ll stop boring you now, you get the point ;) You can only explain<br>
&gt; what you clearly understand and for now, this is still way too foogy<br>
&gt; for me :)<br>
&gt;<br>
<br>
Useful and eloquent perspectives and bits that infra is looking at<br>
rectifying. The web site is covered in too many words. The &quot;Getting<br>
Started&quot; entry has 13 sub-entries. That&#39;s not &quot;getting started&quot; that&#39;s<br>
&quot;tl;dr&quot;. A new vision is being put together that will try to not just<br>
build a fancy web thingy, but will define goals such as usability,<br>
engagement, community interfacing, that kind of stuff - and measure the<br>
effectiveness of the changes that are made. It&#39;ll be change for the sake<br>
of improvement rather than just change for the sake of change.<br>
<br>
&gt; --<br>
&gt; Unix _IS_ user friendly, it&#39;s just selective about who its friends are.<br>
<br>
But I still say you should still document things you find in the source<br>
if they aren&#39;t documented - since you&#39;re in there anyway. :-D<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150316/eb2aa98f/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150316/eb2aa98f/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 19<br>
Date: Tue, 17 Mar 2015 16:09:47 +0800<br>
From: Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt;<br>
To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;,    Kaushal M<br>
        &lt;<a href="mailto:kshlmster@gmail.com">kshlmster@gmail.com</a>&gt;,  Kanagaraj &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;, Vijay Bellur<br>
        &lt;<a href="mailto:vbellur@redhat.com">vbellur@redhat.com</a>&gt;<br>
Subject: [Gluster-users] Bad volume specification | Connection timeout<br>
Message-ID:<br>
        &lt;CAGZcrB=n=D0VUuPXLUONOKbJptMjv7=M8QuOJQ=<a href="mailto:QNVSTuG248g@mail.gmail.com">QNVSTuG248g@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
I am facing one strange issue with ovirt/glusterfs....still didn&#39;t find<br>
this issue is related with glusterfs or Ovirt....<br>
<br>
Ovirt :- 3.5.1<br>
Glusterfs :- 3.6.1<br>
Host :- 4 Hosts (Compute+ Storage)...each server has 24 bricks<br>
Guest VM :- more then 100<br>
<br>
Issue :- When i deploy this cluster first time..it work well for me(all the<br>
guest VM created and running successfully)....but suddenly one day my one<br>
of the host node rebooted and none of the VM can boot up now...and failed<br>
with the following error &quot;Bad Volume Specification&quot;<br>
<br>
VMId :- d877313c18d9783ca09b62acf5588048<br>
<br>
VDSM Logs :- <a href="http://ur1.ca/jxabi" target="_blank">http://ur1.ca/jxabi</a><br>
Engine Logs :- <a href="http://ur1.ca/jxabv" target="_blank">http://ur1.ca/jxabv</a><br>
<br>
------------------------<br>
[root@cpu01 ~]# vdsClient -s 0 getVolumeInfo<br>
e732a82f-bae9-4368-8b98-dedc1c3814de 00000002-0002-0002-0002-000000000145<br>
6d123509-6867-45cf-83a2-6d679b77d3c5 9030bb43-6bc9-462f-a1b9-f6d5a02fb180<br>
        status = OK<br>
        domain = e732a82f-bae9-4368-8b98-dedc1c3814de<br>
        capacity = 21474836480<br>
        voltype = LEAF<br>
        description =<br>
        parent = 00000000-0000-0000-0000-000000000000<br>
        format = RAW<br>
        image = 6d123509-6867-45cf-83a2-6d679b77d3c5<br>
        uuid = 9030bb43-6bc9-462f-a1b9-f6d5a02fb180<br>
        disktype = 2<br>
        legality = LEGAL<br>
        mtime = 0<br>
        apparentsize = 21474836480<br>
        truesize = 4562972672<br>
        type = SPARSE<br>
        children = []<br>
        pool =<br>
        ctime = 1422676305<br>
---------------------<br>
<br>
I opened same thread earlier but didn&#39;t get any perfect answers to solve<br>
this issue..so i reopen it...<br>
<br>
<a href="https://www.mail-archive.com/users@ovirt.org/msg25011.html" target="_blank">https://www.mail-archive.com/users@ovirt.org/msg25011.html</a><br>
<br>
Thanks,<br>
Punit<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/eb027eaf/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/eb027eaf/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 20<br>
Date: Tue, 17 Mar 2015 10:20:12 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: aytac zeren &lt;<a href="mailto:aytaczeren@gmail.com">aytaczeren@gmail.com</a>&gt;, &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot;<br>
        &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5507F1CC.5080209@jouy.inra.fr">5507F1CC.5080209@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi aytac zeren,<br>
&gt; In order to have a healthy volume, you need to have bricks as factors<br>
&gt; of 4. Which means if you have 4 bricks and want to extend your setup<br>
&gt; with additional brick, then you will need 4 other bricks in your<br>
&gt; cluster, for your setup.<br>
&gt;<br>
&gt; I don&#39;t recommend to host more than one brick on a host as it would<br>
&gt; cause data loss on failure of the node, if your master and redundant<br>
&gt; copy is stored on the same host.<br>
&gt; Regards<br>
&gt; Aytac<br>
Yes  I understand. But You can understand and I hope that the gluster<br>
team can understand, that if I want to expand my computational power and<br>
storage I can&#39;t buy four node In one time, it&#39;s to heavy.<br>
Another example, I have a big cluster with 14 node stripe 7. I can&#39;t by<br>
14 other nodes to expand it in one time. It&#39;s a big limitation in the<br>
flexible usage of glusterfs.<br>
<br>
Does that mean that glusterfs is only dedicated to small cluster ?<br>
<br>
Sincerely.<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : +33 (0)1 34 65 29 78<br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/9bb6d373/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/9bb6d373/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/9bb6d373/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/9bb6d373/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 21<br>
Date: Tue, 17 Mar 2015 10:38:04 +0100<br>
From: Niels de Vos &lt;<a href="mailto:ndevos@redhat.com">ndevos@redhat.com</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>, <a href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</a><br>
Subject: [Gluster-users] REMINDER: Gluster Community Bug Triage<br>
        meeting today at 12:00 UTC<br>
Message-ID: &lt;<a href="mailto:20150317093804.GJ29220@ndevos-x240.usersys.redhat.com">20150317093804.GJ29220@ndevos-x240.usersys.redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;us-ascii&quot;<br>
<br>
Hi all,<br>
<br>
This meeting is scheduled for anyone that is interested in learning more<br>
about, or assisting with the Bug Triage.<br>
<br>
Meeting details:<br>
- location: #gluster-meeting on Freenode IRC<br>
            ( <a href="https://webchat.freenode.net/?channels=gluster-meeting" target="_blank">https://webchat.freenode.net/?channels=gluster-meeting</a> )<br>
- date: every Tuesday<br>
- time: 12:00 UTC, 13:00 CET<br>
        (in your terminal, run: date -d &quot;12:00 UTC&quot;)<br>
- agenda: <a href="https://public.pad.fsfe.org/p/gluster-bug-triage" target="_blank">https://public.pad.fsfe.org/p/gluster-bug-triage</a><br>
<br>
Currently the following items are listed:<br>
* Roll Call<br>
* Status of last weeks action items<br>
* Group Triage<br>
* Open Floor<br>
<br>
The last two topics have space for additions. If you have a suitable bug<br>
or topic to discuss, please add it to the agenda.<br>
<br>
Thanks,<br>
Niels<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: not available<br>
Type: application/pgp-signature<br>
Size: 181 bytes<br>
Desc: not available<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/df268b1d/attachment-0001.sig" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/df268b1d/attachment-0001.sig</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 22<br>
Date: Tue, 17 Mar 2015 11:13:12 +0100<br>
From: JF Le Fill?tre &lt;<a href="mailto:jean-francois.lefillatre@uni.lu">jean-francois.lefillatre@uni.lu</a>&gt;<br>
To: &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:5507FE38.30507@uni.lu">5507FE38.30507@uni.lu</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
<br>
Hello Pierre,<br>
<br>
I see your point and I understand your arguments. But as it happens, the<br>
way you create your volumes has an impact on what you can do afterward,<br>
and how you can expand them. *It has nothing to do with GlusterFS<br>
itself, nor the developers or the community, it&#39;s all in your<br>
architectural choices in the beginning.*<br>
<br>
It would be the same problem with many other distributed FS, or even<br>
some RAID setups. That is the kind of thing that you have to think about<br>
in the very beginning, and that will have consequences later.<br>
<br>
Aytac&#39;s argument doesn&#39;t apply to you as you don&#39;t have a replicated<br>
volume, but a distributed+striped one. So if you lose one of your<br>
original 4 nodes, you lose half of one of your stripes, and that will<br>
make the files on that stripe inaccessible anyway. If you lose a node<br>
with both bricks in the stripe, well the result will be the same. So I<br>
don&#39;t think that the colocation of striped bricks on the same host<br>
matters much in your case, outside of performance concerns.<br>
<br>
As for your 14-node cluster, if it&#39;s again a distributed+striped volume,<br>
then it&#39;s a 2 ? 7 volume (distributed over 2 brick groups, each being a<br>
7-disk stripe). To extend it, you will have to add 7 more bricks to<br>
create a new striped brick group, and your volume will be transformed<br>
into a 3 ? 7 one.<br>
<br>
I would advise you to read carefully the master documentation pertaining<br>
to volume creation and architecture. Maybe it will help you understand<br>
better the way things work and the impacts of your choices:<br>
<br>
<a href="https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_setting_volumes.md" target="_blank">https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_setting_volumes.md</a><br>
<br>
Thanks,<br>
JF<br>
<br>
<br>
On 17/03/15 10:20, Pierre L?onard wrote:<br>
&gt; Hi aytac zeren,<br>
&gt;&gt; In order to have a healthy volume, you need to have bricks as factors<br>
&gt;&gt; of 4. Which means if you have 4 bricks and want to extend your setup<br>
&gt;&gt; with additional brick, then you will need 4 other bricks in your<br>
&gt;&gt; cluster, for your setup.<br>
&gt;&gt;<br>
&gt;&gt; I don&#39;t recommend to host more than one brick on a host as it would<br>
&gt;&gt; cause data loss on failure of the node, if your master and redundant<br>
&gt;&gt; copy is stored on the same host.<br>
&gt;&gt; Regards<br>
&gt;&gt; Aytac<br>
&gt; Yes  I understand. But You can understand and I hope that the gluster<br>
&gt; team can understand, that if I want to expand my computational power and<br>
&gt; storage I can&#39;t buy four node In one time, it&#39;s to heavy.<br>
&gt; Another example, I have a big cluster with 14 node stripe 7. I can&#39;t by<br>
&gt; 14 other nodes to expand it in one time. It&#39;s a big limitation in the<br>
&gt; flexible usage of glusterfs.<br>
&gt;<br>
&gt; Does that mean that glusterfs is only dedicated to small cluster ?<br>
&gt;<br>
&gt; Sincerely.<br>
&gt; --<br>
&gt; Signature electronique<br>
&gt; INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
&gt;<br>
&gt; *Pierre L?onard*<br>
&gt; *Senior IT Manager*<br>
&gt; *MetaGenoPolis*<br>
&gt; <a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
&gt; T?l. : +33 (0)1 34 65 29 78<br>
&gt;<br>
&gt; Centre de recherche INRA<br>
&gt; Domaine de Vilvert ? B?t. 325 R+1<br>
&gt; 78 352 Jouy-en-Josas CEDEX<br>
&gt; France<br>
&gt; <a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
<br>
--<br>
<br>
 Jean-Fran?ois Le Fill?tre<br>
 -------------------------------<br>
 HPC Systems Administrator<br>
 LCSB - University of Luxembourg<br>
 -------------------------------<br>
 PGP KeyID 0x134657C6<br>
<br>
<br>
------------------------------<br>
<br>
Message: 23<br>
Date: Tue, 17 Mar 2015 11:48:35 +0100<br>
From: Pierre L?onard &lt;<a href="mailto:pleonard@jouy.inra.fr">pleonard@jouy.inra.fr</a>&gt;<br>
To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] adding a node<br>
Message-ID: &lt;<a href="mailto:55080683.50300@jouy.inra.fr">55080683.50300@jouy.inra.fr</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;<br>
<br>
Hi JF,<br>
&gt; Hello Pierre,<br>
&gt;<br>
&gt; I see your point and I understand your arguments. But as it happens, the<br>
&gt; way you create your volumes has an impact on what you can do afterward,<br>
&gt; and how you can expand them. *It has nothing to do with GlusterFS<br>
&gt; itself, nor the developers or the community, it&#39;s all in your<br>
&gt; architectural choices in the beginning.*<br>
Yes Theoretical you are right. Here at INRA, we are in a specific unit<br>
with a constant growing. But the budget is dedicated annually.<br>
So I have build three clusters dedicated to different type of<br>
computations and when the new plateform will need storage I have to<br>
either build a new cluster or by a complete set of Four node or seven<br>
node depending of my budget.<br>
Our unit is not in a data-center profile for the computation, the<br>
evolution is a continue process.<br>
<br>
<br>
&gt; It would be the same problem with many other distributed FS, or even<br>
&gt; some RAID setups. That is the kind of thing that you have to think about<br>
&gt; in the very beginning, and that will have consequences later.<br>
Yes, that&#39;s the reason we have a scratch zone dedicated for the<br>
computation and intermediate files, that is not secured all the user<br>
know that it&#39;s like your DD in your PC. And other volume secured with<br>
raid 5 and replica.<br>
I think that the choice ar good for three years, the time for us to get<br>
the first DD problems.<br>
<br>
&gt; As for your 14-node cluster, if it&#39;s again a distributed+striped volume,<br>
&gt; then it&#39;s a 2 ? 7 volume (distributed over 2 brick groups, each being a<br>
&gt; 7-disk stripe). To extend it, you will have to add 7 more bricks to<br>
&gt; create a new striped brick group, and your volume will be transformed<br>
&gt; into a 3 ? 7 one.<br>
OK that&#39;s better.<br>
&gt; I would advise you to read carefully the master documentation pertaining<br>
&gt; to volume creation and architecture. Maybe it will help you understand<br>
&gt; better the way things work and the impacts of your choices:<br>
&gt;<br>
&gt; <a href="https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_setting_volumes.md" target="_blank">https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_setting_volumes.md</a><br>
I will.<br>
<br>
Many thanks for you and All.<br>
<br>
Sincerely.<br>
<br>
--<br>
Signature electronique<br>
INRA &lt;<a href="http://www.inra.fr" target="_blank">http://www.inra.fr</a>&gt;<br>
*Pierre L?onard*<br>
*Senior IT Manager*<br>
*MetaGenoPolis*<br>
<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a> &lt;mailto:<a href="mailto:Pierre.Leonard@jouy.inra.fr">Pierre.Leonard@jouy.inra.fr</a>&gt;<br>
T?l. : +33 (0)1 34 65 29 78<br>
<br>
Centre de recherche INRA<br>
Domaine de Vilvert ? B?t. 325 R+1<br>
78 352 Jouy-en-Josas CEDEX<br>
France<br>
<a href="http://www.mgps.eu" target="_blank">www.mgps.eu</a> &lt;<a href="http://www.mgps.eu" target="_blank">http://www.mgps.eu</a>&gt;<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/c29f4366/attachment-0001.html" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/c29f4366/attachment-0001.html</a>&gt;<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo-INRA2013.gif<br>
Type: image/gif<br>
Size: 2560 bytes<br>
Desc: <a href="http://www.inra.fr/" target="_blank">http://www.inra.fr/</a><br>
URL: &lt;<a href="http://www.gluster.org/pipermail/gluster-users/attachments/20150317/c29f4366/attachment-0001.gif" target="_blank">http://www.gluster.org/pipermail/gluster-users/attachments/20150317/c29f4366/attachment-0001.gif</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 24<br>
Date: Tue, 17 Mar 2015 11:03:59 +0100<br>
From: Nico Schottelius &lt;<a href="mailto:nico-gluster-users@schottelius.org">nico-gluster-users@schottelius.org</a>&gt;<br>
To: Joe Julian &lt;<a href="mailto:joe@julianfamily.org">joe@julianfamily.org</a>&gt;<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] Working but some issues<br>
Message-ID: &lt;<a href="mailto:20150317100359.GA1028@schottelius.org">20150317100359.GA1028@schottelius.org</a>&gt;<br>
Content-Type: text/plain; charset=us-ascii<br>
<br>
Joe Julian [Mon, Mar 16, 2015 at 11:43:12PM -0700]:<br>
&gt; Good question. It took me months to figure all that out (with far less<br>
&gt; documentation than there is now) [...]<br>
<br>
... just wondering: Why don&#39;t we run a kickstarter/indiegogo campaign to<br>
finance people to write (from scratch?) documentation?<br>
<br>
There are various good examples of GREAT documentation for various<br>
projects and given that glusterfs is an evolving software that becomes<br>
more popular, it could be a way to improve documentation and thus<br>
experience with glusterfs.<br>
<br>
--<br>
New PGP key: 659B 0D91 E86E 7E24 FD15  69D0 C729 21A1 293F 2D24<br>
<br>
<br>
------------------------------<br>
<br>
Message: 25<br>
Date: Tue, 17 Mar 2015 07:38:44 -0400<br>
From: Kaleb KEITHLEY &lt;<a href="mailto:kkeithle@redhat.com">kkeithle@redhat.com</a>&gt;<br>
To: &quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;,    Gluster<br>
        Devel &lt;<a href="mailto:gluster-devel@gluster.org">gluster-devel@gluster.org</a>&gt;<br>
Subject: [Gluster-users] GlusterFS 3.4.7beta2 is now available for<br>
        testing<br>
Message-ID: &lt;<a href="mailto:55081244.4080709@redhat.com">55081244.4080709@redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=windows-1252; format=flowed<br>
<br>
<br>
Many thanks to all our users that have reported bugs against the 3.4<br>
version of GlusterFS! glusterfs-3.4.7beta2 has been made available for<br>
testing.<br>
<br>
N.B. glusterfs-3.4.7beta1 was released but did not build with gcc-5.<br>
<br>
If you filed a bug against 3.4.x and it is listed as fixed in the<br>
Release Notes, please test it to confirm that it is fixed. Please update<br>
the bug report as soon as possible if you find that it has not been<br>
fixed. If any assistance is needed, do not hesitate to send a request to<br>
the Gluster Users mailinglist (<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>) or start a<br>
discussion in the #gluster channel on Freenode IRC.<br>
<br>
The release notes can be found at<br>
<a href="http://blog.gluster.org/2015/03/glusterfs-3-4-7beta2-is-now-available-for-testing/" target="_blank">http://blog.gluster.org/2015/03/glusterfs-3-4-7beta2-is-now-available-for-testing/</a><br>
<br>
Packages for selected distributions can be found on the main download<br>
server at<br>
<a href="http://download.gluster.org/pub/gluster/glusterfs/qa-releases/3.4.7beta2/" target="_blank">http://download.gluster.org/pub/gluster/glusterfs/qa-releases/3.4.7beta2/</a><br>
<br>
Thank you in advance for testing,<br>
<br>
--<br>
<br>
your friendly GlusterFS-3.4 release wrangler<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
End of Gluster-users Digest, Vol 83, Issue 18<br>
*********************************************<br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div>ramos ye  </div><div><a href="mailto:yt.tienon@gmail.com" target="_blank">yt.tienon@gmail.com</a></div></div></div>
</div>