<html>
  <head>
    <meta content="text/html; charset=UTF-8" http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    <br>
    <div class="moz-cite-prefix">On 06/10/2016 02:41 PM, Yannick Perret
      wrote:<br>
    </div>
    <blockquote cite="mid:575A844C.1020109@liris.cnrs.fr" type="cite">
      <meta content="text/html; charset=UTF-8" http-equiv="Content-Type">
      <div class="moz-cite-prefix">I get no feedback on that but I think
        I found the problem:<br>
        the glusterfs client grows on memory until no memory available
        and them it crashes.<br>
      </div>
    </blockquote>
    <br>
    If we you can take a statedump (kill -SIGUSR1 $client_pid) and send
    it across, I can take a look to see where it consumes so many
    memory. Since you said it is not reproducible with latest Debian
    system and If it is not important, that is fine for me.<br>
    <br>
    <br>
    <blockquote cite="mid:575A844C.1020109@liris.cnrs.fr" type="cite">
      <div class="moz-cite-prefix"> <br>
        I performed the same operations on an other machine without
        being able to reproduce the problem.<br>
        The machine with the problem is an old machine (debian, 3.2.50
        kernel, 32bit), whereas the other machine is an up-to-date
        debian 64bit.<br>
        <br>
        To give some stats the glusterfs on the client starts with less
        than 810220 of resident size and finished with 3055336 (3Go!)
        when it crashes again. The volume was mounted only on this
        machine, used by only one process (a 'cp -Rp').<br>
        <br>
        Running the same from a recent machine gives far more stable
        memory usage (43364 of resident size and few and small
        increasing).<br>
        Of course I'm using the same glusterfs version (compiled from
        sources on both machines).<br>
        <br>
        As I can't upgrade this old machine due to version compatibility
        with old softs − at least until we replace these old softs − I
        will so use a NFS mountpoint from the gluster servers.<br>
        <br>
        Whatever I still get on the recent machine very verbose logs for
        each directory creation:<br>
        [2016-06-10 08:35:12.965438] I
        [dht-selfheal.c:1065:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: chunk size = 0xffffffff / 2064114 = 0x820<br>
        [2016-06-10 08:35:12.965473] I
        [dht-selfheal.c:1103:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: assigning range size 0xffe76e40 to
        HOME-LIRIS-replicate-0<br>
        [2016-06-10 08:35:12.966987] I [MSGID: 109036]
        [dht-common.c:6296:dht_log_new_layout_for_dir_selfheal]
        0-HOME-LIRIS-dht: Setting layout of /log_apache_error with
        [Subvol_name: HOME-LIRIS-replicate-0, Err: -1 , Start: 0 , Stop:
        4294967295 ], <br>
      </div>
    </blockquote>
    <br>
    This is an INFO level message which says about the layout of a
    directory. Gluster-fuse client will print this INFO when it sets the
    layout on a directory. This error messages can be safely ignore.<br>
    <br>
    <br>
    <blockquote cite="mid:575A844C.1020109@liris.cnrs.fr" type="cite">
      <div class="moz-cite-prefix"> <br>
        I switched clients to WARNING log level (gluster volume set
        HOME-LIRIS diagnostics.client-sys-log-level WARNING) which is
        fine for me.<br>
        But maybe WARNING should be the default log level, at least for
        clients, no? In production getting 3 lines per created directory
        is useless, and anyone who wants to analyze a problem will
        switch to INFO or DEBUG.<br>
      </div>
    </blockquote>
    <br>
    I see many uses get panic about this error message. I agree, we have
    to do something with this log entry's.<br>
    <br>
    <blockquote cite="mid:575A844C.1020109@liris.cnrs.fr" type="cite">
      <div class="moz-cite-prefix"> <br>
        Regards,<br>
        --<br>
        Y.<br>
        <br>
        <br>
        <br>
        Le 08/06/2016 17:35, Yannick Perret a écrit :<br>
      </div>
      <blockquote cite="mid:57583B3A.4010104@liris.cnrs.fr" type="cite">Hello,

        <br>
        <br>
        I have a replica 2 volume managed on 2 identical server, using
        3.6.7 version of gluster. Here is the volume info: <br>
        Volume Name: HOME-LIRIS <br>
        Type: Replicate <br>
        Volume ID: 47b4b856-371b-4b8c-8baa-2b7c32d7bb23 <br>
        Status: Started <br>
        Number of Bricks: 1 x 2 = 2 <br>
        Transport-type: tcp <br>
        Bricks: <br>
        Brick1: sto1.mydomain:/glusterfs/home-liris/data <br>
        Brick2: sto2.mydomain:/glusterfs/home-liris/data <br>
        <br>
        It is mounted on a (single) client with mount -t glusterfs
        sto1.mydomain:/HOME-LIRIS /futur-home/ <br>
        <br>
        I started to copy a directory (~550Go, ~660 directories with
        many files) into it. Copy was done using 'cp -Rp'. <br>
        <br>
        It seems to work fine but I get *many* log entries in the
        corresponding mountpoint logs: <br>
        [2016-06-07 14:01:27.587300] I
        [dht-selfheal.c:1065:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: chunk size = 0xffffffff / 2064114 = 0x820 <br>
        [2016-06-07 14:01:27.587338] I
        [dht-selfheal.c:1103:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: assigning range size 0xffe76e40 to
        HOME-LIRIS-replicate-0 <br>
        [2016-06-07 14:01:27.588436] I [MSGID: 109036]
        [dht-common.c:6296:dht_log_new_layout_for_dir_selfheal]
        0-HOME-LIRIS-dht: Setting layout of /olfamine with [Subvol_name:
        HOME-LIRIS-replicate-0, Err: -1 , Start: 0 , Stop: 4294967295 ],
        <br>
        <br>
        This is repeated for many files (124088 exactly). Is it normal?
        If yes I use default settings on the client so I find it a
        little bit verbose. If no can someone tell me what is the
        problem here? <br>
        <br>
        Moreover at the end of the log file I have: <br>
        [2016-06-08 04:42:58.210617] A [MSGID: 0]
        [mem-pool.c:110:__gf_calloc] : no memory available for size
        (14651) [call stack follows] <br>
        [2016-06-08 04:42:58.219060] A [MSGID: 0]
        [mem-pool.c:134:__gf_malloc] : no memory available for size
        (21026) [call stack follows] <br>
        pending frames: <br>
        frame : type(1) op(CREATE) <br>
        frame : type(1) op(CREATE) <br>
        frame : type(1) op(LOOKUP) <br>
        frame : type(0) op(0) <br>
        patchset: git://git.gluster.com/glusterfs.git <br>
        signal received: 11 <br>
        time of crash: <br>
        2016-06-08 04:42:58 <br>
        configuration details: <br>
        argp 1 <br>
        backtrace 1 <br>
        dlfcn 1 <br>
        libpthread 1 <br>
        llistxattr 1 <br>
        setfsid 1 <br>
        spinlock 1 <br>
        epoll.h 1 <br>
        xattr.h 1 <br>
        st_atim.tv_nsec 1 <br>
        package-string: glusterfs 3.6.7 <br>
        <br>
        Which clearly don't seems right. <br>
        The data were not all copied (logs of copy got a logical list of
        "final transport node not connected" (or similar, it was
        translated in my language)). <br>
        <br>
        I re-mounted the volume and created a directory with 'mkdir
        TOTO' and get a similar: <br>
        [2016-06-08 15:32:23.692936] I
        [dht-selfheal.c:1065:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: chunk size = 0xffffffff / 2064114 = 0x820 <br>
        [2016-06-08 15:32:23.692982] I
        [dht-selfheal.c:1103:dht_selfheal_layout_new_directory]
        0-HOME-LIRIS-dht: assigning range size 0xffe76e40 to
        HOME-LIRIS-replicate-0 <br>
        [2016-06-08 15:32:23.694144] I [MSGID: 109036]
        [dht-common.c:6296:dht_log_new_layout_for_dir_selfheal]
        0-HOME-LIRIS-dht: Setting layout of /TOTO with [Subvol_name:
        HOME-LIRIS-replicate-0, Err: -1 , Start: 0 , Stop: 4294967295 ],
        <br>
        but I don't get such message with files. <br>
        <br>
        If it can help volumes are ~2To and content is far from that,
        and both bricks are ext4 (both same size). <br>
        <br>
        <br>
        Any help would be appreciated. <br>
        <br>
        Regards, <br>
        -- <br>
        Y. <br>
        <br>
        <br>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.gluster.org/mailman/listinfo/gluster-users">http://www.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>