Generic C Tcp Server Утечка памяти - PullRequest
0 голосов
/ 02 января 2012

Все мои серверы posix tcp, кажется, протекают.Я слежу за ними с помощью таких инструментов, как ps и top, и они считают, что память постоянно увеличивается.Это происходит всякий раз, когда клиент входит и / или уходит.

Например.допустим, что ps сообщает сначала 100 VSZ.Клиент входит и увеличивается до 238. Затем клиент выходит и падает до 138. Не 100 !Каждый раз, когда клиент входит и выходит, память увеличивается.

Я пробовал множество различных утилит утечки памяти, таких как, например.валгринд и никто из них ничего не находит.(И они тоже не думают, что это утечка.)

Это ps и top, которые запутались?Это кажется маловероятным.

Я сделал небольшой общий пример, который демонстрирует мой код и потенциальную утечку:

#include <stdio.h>
#include <stdlib.h>
#include <pthread.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <signal.h>
#include <unistd.h>

#define MAX_BUFFER 100*1024

void* server_process_thread(void* args)
{
    int client = (int)args;
    unsigned char* buffer = NULL;
    int r;

    /* allocate something huge */
    if((buffer = malloc(MAX_BUFFER)) == NULL)
    {
        perror("Couldn't allocate");
        goto exit;
    }

    printf("Client processing ...\n");

    //echo all that comes
    while(1)
    {
        r = read(client, buffer, MAX_BUFFER);
        if(r <= 0) break;
        write(client, buffer, r);
    }

exit:
    printf("Client exit\n");
    free(buffer);
    close(client);
    pthread_exit(NULL);
}

int main(void)
{
    struct sockaddr_in server_sockaddr = {0};
    struct sockaddr_in clientSockAddr = {0};
    int flags = 1;
    int server = 0;
    int client = 0;
    pthread_t thread = 0;
    socklen_t clientSockSize = sizeof(clientSockAddr);

    //init tcp
    signal(SIGCHLD, SIG_IGN);
    signal(SIGPIPE, SIG_IGN);
    signal(SIGALRM, SIG_IGN);

    if ((server = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP)) == -1)
    {
        perror("Couldn't open socket");
        return -1;
    }

    flags = 1;
    if ((setsockopt(server, SOL_SOCKET, SO_REUSEADDR, (void *) &flags, sizeof(flags))) == -1)
    {
        perror("Couldn't set socket reuse");
        return -1;
    }

    server_sockaddr.sin_family = AF_INET;
    server_sockaddr.sin_port = htons(666);
    server_sockaddr.sin_addr.s_addr = htonl(INADDR_ANY); //IP

    if (bind(server, (struct sockaddr *) &server_sockaddr, sizeof(server_sockaddr)) == -1)
    {
        perror("Couldn't bind socket");
        return -1;
    }

    //LISTEN
    if (listen(server, SOMAXCONN) == -1)
    {
        perror("Couldn't listen on socket");
        return -1;
    }

    printf("TCP Echo Server started ...\n");

    //wait for clients
    while(1)
    {
        client = accept(server, (struct sockaddr*) (&clientSockAddr), &clientSockSize);

        if(pthread_create(&thread, NULL, server_process_thread, (void*)client) != 0)
        {
            perror("Couldn't create thread");
            return -1;
        }
    }

    //dispose
    printf("Server exit\n");
    close(server);
    return EXIT_SUCCESS;
}

Теперь я могу пропустить некоторую обработку ошибок здесь и там, но есть какой-то фундаментальный недостатокв этом коде?

1 Ответ

3 голосов
/ 02 января 2012

По крайней мере, у вас есть темы.

По умолчанию pthread не «очищается» при выходе, пока кто-то не вызовет pthread_join () для него.

Если вы создадите поток как отдельный поток, его ресурсы будут очищены при его выходе (но вы больше не можете его pthread_join ()). Самый простой способ сделать это - вызвать pthread_detach(pthread_self()); как первую вещь в вашем server_process_thread.

...