<p dir="ltr">Hi Team,<br>
Anyone can suggest my below query, so that I can get clear idea </p>
<p dir="ltr">Regards, <br>
Varad</p>
<div class="gmail_quote">On 19 May 2015 20:28, &quot;Varadharajan S&quot; &lt;<a href="mailto:rajanvaradhu@gmail.com">rajanvaradhu@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">FYI </p>
<div class="gmail_quote">On 19 May 2015 20:25, &quot;Varadharajan S&quot; &lt;<a href="mailto:rajanvaradhu@gmail.com" target="_blank">rajanvaradhu@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Hi, <br>
Replication means, I won&#39;t get space. Distribution is not like striping right? If one brick is not available in the volume, other bricks can distribute data in between. If I do any tuning will get solution? <br>
</p>
<div class="gmail_quote">On 19 May 2015 20:02, &quot;Atin Mukherjee&quot; &lt;<a href="mailto:atin.mukherjee83@gmail.com" target="_blank">atin.mukherjee83@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr"><br>
On 19 May 2015 17:10, &quot;Varadharajan S&quot; &lt;<a href="mailto:rajanvaradhu@gmail.com" target="_blank">rajanvaradhu@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; We are using Ubuntu 14.04 server and for storage purpose we configured gluster 3.5 as distributed volume and find the below details,<br>
&gt;<br>
&gt; 1).4 Servers - 14.04 Ubuntu Server and each server disks free spaces are  configured as ZFS raiddz2 volume<br>
&gt;<br>
&gt; 2). Each server has /pool/gluster zfs volume and capacity as - 5 TB,8 TB,6 TB and 10 TB<br>
&gt;<br>
&gt; 3). Bricks are - rep1,rep2,rep3 and st1 and all the bricks are connected as Distributed Volume and mounted on each system as,<br>
&gt;  <br>
&gt;   For E.x in rep1 -&gt; mount -t glusterfs  rep1:/glustervol  /data.<br>
&gt;                   rep2  -&gt; mount  -t glusterfs  rep2:/glustervol  /data<br>
&gt;                   rep3  -&gt; mount  -t glusterfs  rep3:/glustervol  /data<br>
&gt;                   st1    -&gt;  mount  -t glusterfs  st1:/glustervol  /data<br>
&gt;<br>
&gt; So we get /data is having  around 29 TB and all our applications data&#39;s are stored in /data mount point.<br>
&gt;<br>
&gt; Details about volume:<br>
&gt;<br>
&gt; volume glustervol-client-0<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username 9d76-4553-8c75<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep1<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-1<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username jkd76-4553-5347<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep2<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-2<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username 19d7-5a190c2<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host rep3<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-client-3<br>
&gt;     type protocol/client<br>
&gt;     option send-gids true<br>
&gt;     option password b217da9d1d8b-bb55<br>
&gt;     option username c75-5436b5a168347<br>
&gt;     option transport-type tcp<br>
&gt;     option remote-subvolume /pool/gluster<br>
&gt;     option remote-host st1<br>
&gt;<br>
&gt;     option ping-timeout 42<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-dht<br>
&gt;     type cluster/distribute<br>
&gt;     subvolumes glustervol-client-0 glustervol-client-1 glustervol-client-2 glustervol-client-3<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-write-behind<br>
&gt;     type performance/write-behind<br>
&gt;     subvolumes glustervol-dht<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-read-ahead<br>
&gt;     type performance/read-ahead<br>
&gt;     subvolumes glustervol-write-behind<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-io-cache<br>
&gt;     type performance/io-cache<br>
&gt;     subvolumes glustervol-read-ahead<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-quick-read<br>
&gt;     type performance/quick-read<br>
&gt;     subvolumes glustervol-io-cache<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-open-behind<br>
&gt;     type performance/open-behind<br>
&gt;     subvolumes glustervol-quick-read<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol-md-cache<br>
&gt;     type performance/md-cache<br>
&gt;     subvolumes glustervol-open-behind<br>
&gt; end-volume<br>
&gt;<br>
&gt; volume glustervol<br>
&gt;     type debug/io-stats<br>
&gt;     option count-fop-hits off<br>
&gt;     option latency-measurement off<br>
&gt;     subvolumes glustervol-md-cache<br>
&gt; end-volume<br>
&gt;<br>
&gt;<br>
&gt; ap@rep3:~$ sudo gluster volume info<br>
&gt;  <br>
&gt; Volume Name: glustervol<br>
&gt; Type: Distribute<br>
&gt; Volume ID: 165b-XXXXX<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 4<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: rep1:/pool/gluster<br>
&gt; Brick2: rep2:/pool/gluster<br>
&gt; Brick3: rep3:/pool/gluster<br>
&gt; Brick4: st1:/pool/gluster<br>
&gt;<br>
&gt; Problem:<br>
&gt;<br>
&gt; If we shutdown any of the bricks , the volume size is reduced (this is ok) but from the other servers , i can see my mount point /data but it&#39;s only listing contents and i can&#39;t write or edit any single files/folders. <br>
&gt;<br>
&gt; Solution Required:<br>
&gt;<br>
&gt; If anyone brick is not available, From other servers should allow for Write and edit functions<br>
This is expected since you are using distributed volume. You wouldn&#39;t be able to write/edit files belonging to the brick which is down. Solution would be to migrate to distributed replicate volume.<br>
&gt;<br>
&gt; Please let us know, what can i try further ?<br>
&gt;<br>
&gt; Regards,<br>
&gt; Varad<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://www.gluster.org/mailman/listinfo/gluster-users</a><br>
</p>
</blockquote></div>
</blockquote></div>
</blockquote></div>