<div dir="ltr"><div>Serkan<br><br></div>I&#39;d be interested to know how your disks are attached (SAS?)?  Do you use any hardware RAID, or zfs and do you have and SSDs in there?<br></div><div class="gmail_extra"><br><div class="gmail_quote">On 9 November 2016 at 06:17, Serkan Çoban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi, I am using 26x8TB disks per server. There are 60 servers in gluster cluster.<br>
Each disk is a brick and configuration is 16+4 EC, 9PB single volume.<br>
Clients are using fuse mounts.<br>
Even with 1-2K files in a directory, ls from clients takes ~60 secs.<br>
So If you are sensitive to metadata operations, I suggest another approach...<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Wed, Nov 9, 2016 at 1:05 PM, Frank Rothenstein<br>
&lt;<a href="mailto:f.rothenstein@bodden-kliniken.de">f.rothenstein@bodden-<wbr>kliniken.de</a>&gt; wrote:<br>
&gt; As you said you want to have 3 or 4 replicas, so i would use the zfs<br>
&gt; knowledge and build 1 zpool per node with whatever config you know is<br>
&gt; fastest on this kind of hardware and as safe as you need (stripe,<br>
&gt; mirror, raidz1..3 - resilvering zfs is faster than healing gluster, I<br>
&gt; think) . 1 node -&gt; 1 brick (per gluster volume).<br>
&gt;<br>
&gt; Frank<br>
&gt; Am Dienstag, den 08.11.2016, 19:19 +0000 schrieb Thomas Wakefield:<br>
&gt;&gt; We haven’t decided how the JBODS would be configured.  They would<br>
&gt;&gt; likely be SAS attached without a raid controller for improved<br>
&gt;&gt; performance.  I run large ZFS arrays this way, but only in single<br>
&gt;&gt; server NFS setups right now.<br>
&gt;&gt; Mounting each hard drive as it’s own brick would probably give the<br>
&gt;&gt; most usable space, but would need scripting to manage building all<br>
&gt;&gt; the bricks.  But does Gluster handle 1000’s of small bricks?<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; &gt; On Nov 8, 2016, at 9:18 AM, Frank Rothenstein &lt;f.rothenstein@bodden<br>
&gt;&gt; &gt; -<a href="http://kliniken.de" rel="noreferrer" target="_blank">kliniken.de</a>&gt; wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hi Thomas,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; thats a huge storage.<br>
&gt;&gt; &gt; What I can say from my usecase - dont use Gluster directly if the<br>
&gt;&gt; &gt; files<br>
&gt;&gt; &gt; are small. I dont know, if the file count matters, but if the files<br>
&gt;&gt; &gt; are<br>
&gt;&gt; &gt; small (few KiB), Gluster takes ages to remove for example. Doing<br>
&gt;&gt; &gt; the<br>
&gt;&gt; &gt; same in a VM with e.g. ext4 disk on the very same Gluster gives a<br>
&gt;&gt; &gt; big<br>
&gt;&gt; &gt; speedup.<br>
&gt;&gt; &gt; There are many options for a new Gluster volume, like Lindsay<br>
&gt;&gt; &gt; mentioned.<br>
&gt;&gt; &gt; And there are other options, like Ceph, OrangeFS.<br>
&gt;&gt; &gt; How do you want to use the JBODs? I dont think you would use every<br>
&gt;&gt; &gt; single drive as a brick... How are these connected to the servers?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Im only dealing with about 10TiB Gluster volumes, so by far not at<br>
&gt;&gt; &gt; your<br>
&gt;&gt; &gt; planned level, but I really would like to see some results, if you<br>
&gt;&gt; &gt; go<br>
&gt;&gt; &gt; for Gluster!<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Frank<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Am Dienstag, den 08.11.2016, 13:49 +0000 schrieb Thomas Wakefield:<br>
&gt;&gt; &gt; &gt; I think we are leaning towards erasure coding with 3 or 4<br>
&gt;&gt; &gt; &gt; copies.  But open to suggestions.<br>
&gt;&gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt; On Nov 8, 2016, at 8:43 AM, Lindsay Mathieson &lt;lindsay.mathieso<br>
&gt;&gt; &gt; &gt; &gt; n@gm<br>
&gt;&gt; &gt; &gt; &gt; <a href="http://ail.com" rel="noreferrer" target="_blank">ail.com</a>&gt; wrote:<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt; On 8/11/2016 11:38 PM, Thomas Wakefield wrote:<br>
&gt;&gt; &gt; &gt; &gt; &gt; High Performance Computing, we have a small cluster on campus<br>
&gt;&gt; &gt; &gt; &gt; &gt; of<br>
&gt;&gt; &gt; &gt; &gt; &gt; about 50 linux compute servers.<br>
&gt;&gt; &gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt; D&#39;oh! I should have thought of that.<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt; Are you looking at replication (2 or 3)/disperse or pure<br>
&gt;&gt; &gt; &gt; &gt; disperse?<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; &gt; --<br>
&gt;&gt; &gt; &gt; &gt; Lindsay Mathieson<br>
&gt;&gt; &gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt;<br>
&gt;&gt; &gt; &gt; ______________________________<wbr>_________________<br>
&gt;&gt; &gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt; &gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ______________________________<wbr>______________________________<wbr>_______<br>
&gt;&gt; &gt; ___________<br>
&gt;&gt; &gt; BODDEN-KLINIKEN Ribnitz-Damgarten GmbH<br>
&gt;&gt; &gt; Sandhufe 2<br>
&gt;&gt; &gt; 18311 Ribnitz-Damgarten<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Telefon: 03821-700-0<br>
&gt;&gt; &gt; Fax:       03821-700-240<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; E-Mail: <a href="mailto:info@bodden-kliniken.de">info@bodden-kliniken.de</a>   Internet: <a href="http://www.bodden-klini" rel="noreferrer" target="_blank">http://www.bodden-klini</a><br>
&gt;&gt; &gt; <a href="http://ken.de" rel="noreferrer" target="_blank">ken.de</a><br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Sitz: Ribnitz-Damgarten, Amtsgericht: Stralsund, HRB 2919, Steuer-<br>
&gt;&gt; &gt; Nr.: 079/133/40188<br>
&gt;&gt; &gt; Aufsichtsratsvorsitzende: Carmen Schröter, Geschäftsführer: Dr.<br>
&gt;&gt; &gt; Falko Milski<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Der Inhalt dieser E-Mail ist ausschließlich für den bezeichneten<br>
&gt;&gt; &gt; Adressaten bestimmt. Wenn Sie nicht der vorge-<br>
&gt;&gt; &gt; sehene Adressat dieser E-Mail oder dessen Vertreter sein sollten,<br>
&gt;&gt; &gt; beachten Sie bitte, dass jede Form der Veröf-<br>
&gt;&gt; &gt; fentlichung, Vervielfältigung oder Weitergabe des Inhalts dieser E-<br>
&gt;&gt; &gt; Mail unzulässig ist. Wir bitten Sie, sofort den<br>
&gt;&gt; &gt; Absender zu informieren und die E-Mail zu löschen.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;             Bodden-Kliniken Ribnitz-Damgarten GmbH 2016<br>
&gt;&gt; &gt; *** Virenfrei durch Kerio Mail Server und Sophos Antivirus ***<br>
&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; ______________________________<wbr>______________________________<wbr>__________________<br>
&gt; BODDEN-KLINIKEN Ribnitz-Damgarten GmbH<br>
&gt; Sandhufe 2<br>
&gt; 18311 Ribnitz-Damgarten<br>
&gt;<br>
&gt; Telefon: 03821-700-0<br>
&gt; Fax:       03821-700-240<br>
&gt;<br>
&gt; E-Mail: <a href="mailto:info@bodden-kliniken.de">info@bodden-kliniken.de</a>   Internet: <a href="http://www.bodden-kliniken.de" rel="noreferrer" target="_blank">http://www.bodden-kliniken.de</a><br>
&gt;<br>
&gt; Sitz: Ribnitz-Damgarten, Amtsgericht: Stralsund, HRB 2919, Steuer-Nr.: 079/133/40188<br>
&gt; Aufsichtsratsvorsitzende: Carmen Schröter, Geschäftsführer: Dr. Falko Milski<br>
&gt;<br>
&gt; Der Inhalt dieser E-Mail ist ausschließlich für den bezeichneten Adressaten bestimmt. Wenn Sie nicht der vorge-<br>
&gt; sehene Adressat dieser E-Mail oder dessen Vertreter sein sollten, beachten Sie bitte, dass jede Form der Veröf-<br>
&gt; fentlichung, Vervielfältigung oder Weitergabe des Inhalts dieser E-Mail unzulässig ist. Wir bitten Sie, sofort den<br>
&gt; Absender zu informieren und die E-Mail zu löschen.<br>
&gt;<br>
&gt;<br>
&gt;              Bodden-Kliniken Ribnitz-Damgarten GmbH 2016<br>
&gt; *** Virenfrei durch Kerio Mail Server und Sophos Antivirus ***<br>
&gt;<br>
&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://www.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://www.gluster.org/<wbr>mailman/listinfo/gluster-users</a></div></div></blockquote></div><br></div>