Hello world,<div><br><div>    we are using glusterfs to build our public cloud storage service with NFS protocol.we use the glusterfs</div><div>as the storage layer.And we will do our development based on the glusterfs of version 3.6.9.</div><div><br></div><div>    As public cloud,our users may create a lot of volumes.The way glusterfs doing is start a &quot;glusterfsd&quot; process</div><div>for every volume,that will make our server with too much processes and most of them may have little request.So</div><div>the processes take much resource of our server and may become the bottle of our service.</div><div><br></div><div>    Two ways to solve that problem as i thought:</div><div>    1) we don&#39;t create the volume as our users indicated,instead,we create just one &quot;basic&quot; volume,and all the users&#39; volumes export as a sub-directory within the basic volume.however,this solution sacrifices the ability to migrate/heal the data with the volume granularity and seems unbearable.</div><div><br></div><div>    2) modifying the protocol/server xlator to let it support handle multiple subvolumes in one process.after scanning the code of protocol/server,i think the biggest problem is the configuration,the configuration and the glusterfsd is corresponding one-by-one.I want to get some guidances from you if this modification is possible and not takes too much work.And is there other problems which this plan won&#39;t work?</div><div><br></div><div>   Hope to see your solution to solve our problem.Thanks in advance.<br><div>   </div></div></div><br><br>-- <br><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><span style="font-family:&quot;Helvetica Neue&quot;,Helvetica,Arial,sans-serif;font-size:15px">Sincerely</span>,<div>DengJin</div></div></div></div></div><br>