<div dir="ltr">Hello all,<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><br></div>I&#39;m facing a weird issue with GlusterFS used as a Distributed volume to store our backup files. Let me detail it:<br><br></div>We are using Netbackup as a backup solution in our company.<br></div>This is made of 1 server managing all backups coming from different clients.<br></div>Backups are all done on disk (and then duplicated on tapes).<br><br><div><br><div><div>So, the server is a Linux server, having 1 Gluster share /adv_disk01.<br></div><div>This share, actually a Gluster Distributed volume, is made of 20 bricks of 2TB, coming from our SAN box.<br><br></div><div>Now, lets come to the issue …<br></div><div>Every policy we start (let say Oracle backup, File backup, NAS backup), seems to be correctly spread between the bricks (3 policies running = 3 bricks 100% used … make sense). So, all good.<br><br></div><div>But there is a possibility to use multiple streams for the same backup policy.<br></div><div>For example, you could backup 1 Oracle DB, but over 8 streams (so 8 jobs … and basically 8 files). Same for MsSQL and so on.<br><br></div><div>But, 8 streams (so 8 files), do not actually mean 8 bricks used … while it definitively should be the case.<br></div><div>Here is how the filename is looking: <br>/SPR-SQL13.MSSQL7.SPR-SQL13.db.DWH_PENSION.~.7.<b>001</b>of008.20150526151807..C<br><br></div><div>I tried 2 policies, 8 streams each (so, 16 jobs running), only 2 bricks were used …<br></div><div>There is clearly an issue … but what and where …<br><br></div><div>Hopefully you&#39;ll have an idea.<br><br></div><div>Thx for your feedback.<br><br></div><div>Regards;<span class="HOEnZb"></span><br></div></div></div></div></blockquote></div><br>-- <br><div class="gmail_signature">Florent Delvaille</div>
</div></div>