Как улучшить производительность, когда у меня есть миллионы записей в одной таблице? - PullRequest
0 голосов
/ 07 января 2020

У меня есть две таблицы.

Запасы

Здесь у меня миллионы записей, и эта цифра постоянно растет каждую ночь. Каждому инвентарю присваивается уникальный код

. В нем около 50 столбцов.

Теперь вот что есть, у нас есть еще одна таблица:

save_these_inventories

Здесь мы сопоставляем уникальный код с приведенной выше таблицей запасов. Если он совпадает, то мы загружаем всю запись в таблицу «save_these_inventories».

из таблицы A -> записи переходят в таблицу B

Однако для первого поиска в запасах требуется так много времени таблица, в которой он должен соответствовать уникальному коду через миллионы записей. Если он найден, импортируйте его в таблицу «save_these_inventories».

Затем мы помещаем эти элементы на панель инструментов, конечно же, на страницу панели инструментов, затем она загружается быстрее, поскольку она загружается из «save_these_inventories» после импорта записи. у которого меньше строк

Однако я думаю изменить способ его работы сейчас, но не уверен, увеличит ли он производительность или уменьшит ее.

Вот мой подход. Вместо того, чтобы импортировать все в таблицу «save_these_inventories», почему бы мне просто не сопоставить уникальный код и не присвоить уникальный «save_these_inventories». Затем вместо импорта используйте внутреннее объединение для извлечения данных без импорта?

Но я думаю, что тогда на панели инструментов загрузка данных будет длиться вечно, поскольку для каждого поиска придется искать по миллионам записей. пользователь?

Какой будет наилучший подход для решения этой проблемы?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...