Курсор узла mongodb не найден с таймаутом false - PullRequest
0 голосов
/ 30 апреля 2018

У меня есть сервер nodejs / express, и я пытаюсь объединить и отсортировать отсортированные результаты из нескольких коллекций mongodb, чтобы создать отсортированный CSV-файл. Чтобы добиться этого, необходимо, чтобы курсоры mongodb оставались активными (без тайм-аута) до тех пор, пока я не прочитал / не исчерпал все данные, или пока не произошла ошибка, и в этом случае я должен закрыть их вручную. Кажется, работает, когда не так много точек данных. Однако, когда монго запрашивает данные запроса, например, за один год, в какой-то момент спустя почти полчаса я получаю следующую ошибку монго: Cursor not found: cursor id: 59427962835.

Promise с bluebird обещаний. Написано в машинописном тексте.

import * as _ from 'lodash';
import * as moment from 'moment-timezone';

function findNative(db, collection, spec={}) {
    const {query, fields, sort, limit, skip, hint, timeout=true} = spec;

    // internal function that gets a connection from the connection pool
    // returns promise with connection
    return ensureConnection(db)
        .then(connection => {
            const cursor = connection.collection(collection).find(
                query || {},
                {fields, sort, limit, skip, hint, timeout});
            // For sorted queries we have to limit batchSize
            // see https://jira.mongodb.org/browse/SERVER-14228
            if (connection.serverConfig.capabilities().maxWireVersion == 0 && sort && !limit) {
                cursor.batchSize(0);
            }

            return cursor;
        });
}

function getMongoStream(col, startdate, enddate) {
    return findNative('testDb', col, {
        query: { t: { $gte: startdate, $lte: enddate }},
        sort: { t: 1 },
        fields: { i: 0, _id: 0 },
        timeout: false
    });
}

async function fetchNextCursorData(cursor) {
    const hasMore = await cursor.hasNext();
    console.log(hasMore, cursor.cursorState.cursorId.toString());
    return hasMore ? cursor.next() : Promise.resolve(null);
}

function findEarliestDate(buffer: any[]): [string, number[]] {
    let earliestDateMS;
    const indices = _(buffer)
        .map(x => x && x.t.getTime())
        .forEach(t => {
            // make sure timestamp is defined
            // buffer also contains null values
            if(t && (!earliestDateMS || (earliestDateMS && t < earliestDateMS))) {
                earliestDateMS = t;
            }
        })
        .reduce((acc, t, i) => {
            if(t === earliestDateMS) {
                acc.push(i);
            }
            return acc;
        }, []);

    return [moment(earliestDateMS).utc().format('YYYY-MM-DD HH:mm:ss.SSS'), indices];
}

function closeAllCursors(cursors: any[]) {
    const openCursors = cursors
        .filter(c => !c.isClosed());
    openCursors.forEach(c => c.close());
}

async function csvData(req, res) {
    const collections: string[] = req.swagger.params.collections.value.split(',').sort(),
          sources: string[] = req.swagger.params.sources.value.split(',').sort(),
          startdate = new Date(Number(req.swagger.params.startdate.value)),
          enddate = new Date(Number(req.swagger.params.enddate.value));

    const filename = `${moment.utc().format('YYYY-MM-DD_HH:mm')}.csv`;

    res.set({
        'Content-Type': 'text/csv',
        'Content-Disposition': `attachment; filename="${filename}"`
    });
    res.write('Date UTC,' + sources.join(',') + '\n');

    const colPromises = collections.map(col => getMongoStream(col, startdate, enddate));
    let cursorsMap: { [rec: string]: any; };

    try {
        let buffer = [], dateCSVBuffer: any[] = _.fill(Array(sources.length), '');
        // fetch first doc from all cursors
        const cursors = await Promise.all(colPromises);
        cursorsMap = _.zipObject<any>(collections, cursors);
        let docs = await Promise.all(cursors.map(fetchNextCursorData));
        // initial request made for all collections
        let requestedIdx = _.range(0, collections.length);

        while(true) {
            docs.forEach((doc, i) => {
                buffer[requestedIdx[i]] = doc;
            });
            // null indicates that cursor won't return more data =>
            // all cursors are exhausted
            if(buffer.every(d => d === null)) {
                break;
            }

            const [date, indices] = findEarliestDate(buffer);
            requestedIdx = indices;

            indices.forEach(idx => {
                // update csv buffer
                const {data} = buffer[idx];
                Object.keys(data)
                    .forEach(ch => {
                        const sourceIndex = sources.indexOf(ch);
                        if(sourceIndex > -1) {
                            dateCSVBuffer[sourceIndex] = data[ch];
                        }
                    });
                // remove doc from buffer
                buffer[idx] = null;
            });
            // send csv string
            dateCSVBuffer.unshift(date);
            res.write(dateCSVBuffer.join(',') + '\n');
            // empty buffer
            dateCSVBuffer = dateCSVBuffer.map(() => '');

            // request new entry from cursors
            const nextDocPromises = indices
                .map(idx => cursorsMap[collections[idx]])
                .map(fetchNextCursorData);

            docs = await Promise.all(nextDocPromises);
        }
        // end data stream
        res.end();
    } catch(err) {
        // make sure to close all cursors
        // will catch all nested promise errors
        closeAllCursors(_.values(cursorsMap));
        console.error(err);
        res.status(500).json(err);
    }
}

Соединение Mongodb создано со следующими параметрами:

{
    auto_reconnect: true,
    poolSize: 30,
    connectTimeoutMS: 90000
}

Может быть проблема в том, что я сохраняю ссылки на курсоры на карте, и поэтому они не обновляются? И когда я делаю cursor.hasNext() курсор уже мертв? Я также пытался проверить, является ли cursor.isClosed(), но всегда возвращает false.

Драйвер Mongodb - "mongodb": "2.2.15", и запросы проверяются по базе данных v3.0.

РЕДАКТИРОВАТЬ : Я провел небольшой подсчет, чтобы увидеть, сколько документов было обработано в момент сбоя программы. Эти 3 курсора (в тестовом примере запрашиваются только данные из 3 коллекций) имеют следующие значения и идентификаторы:

3097531 '59427962835'
31190333 '53750510295'
32007475 '101213786015'

и последний обработанный курсор документа с идентификатором '59427962835' был номером 4101. Так что даже близко не до конца

1 Ответ

0 голосов
/ 02 мая 2018

Оказывается, что добавление timeout к запросу find не работает. Мне пришлось использовать флаг noCursorTimeout примерно так:

const cursor = connection.collection(collection)
    .find(query || {}, {fields, sort, limit, skip, hint})
    .addCursorFlag('noCursorTimeout', !timeout);
...