Это хорошая идея, чтобы сохранить все данные из базы данных в хранилище редуксов - PullRequest
0 голосов
/ 27 декабря 2018

Я создаю веб-приложение для управления активами.В нескольких уроках я видел, что данные, которые мы вызываем из API, хранятся в хранилище избыточностей для лучшей производительности пользовательского интерфейса.НО это была бы хорошая идея?Данные, с которыми работает мое приложение, будут в тысячах записей.Эти данные пойдут в локальное хранилище.Без сомнения, производительность будет высокой, но с точки зрения безопасности это будет правильно?

Пожалуйста, укажите, когда использовать, а когда нет?

Ребята, после прочтения ответов ниже ... Я понимаю следующее понимание, пожалуйста, исправьте меня, если я ошибаюсь.

  • Для крупномасштабных и динамических приложений Мыможет пойти на Redux осторожно.Следующие типы действий могут выполняться в Redux ....

    • Макет пользовательского интерфейса, информационные панели и т. Д.
    • Текущий зарегистрированный пользователь, его профиль и т. Д.
    • Key Список значений
    • Ключевые поля ваших таблиц в базе данных, но не все поля, очищают хранилище через заданный интервал времени, отмечая его старым.

Правильно ли мое понимание выше?

Ответы [ 2 ]

0 голосов
/ 27 декабря 2018

Хранение всех данных на стороне клиента

Плюсы

  1. Как только данные загружены, рендеринг страницы будет быстрее

Минусы

  1. По мере роста вашего приложения ваши данные также будут расти, в какой-то момент они будут неустойчивыми
  2. Если ваш набор данных велик (что будетнаиболее вероятно) это займет так много времени для извлечения, а также по мере роста вы просто не сможете справиться с этим в пользовательском интерфейсе
  3. У вас может быть проблема с синхронизацией данных, так как нет никакого извлечения из бэкэнда, вы не можете убедитьсяВаши данные действительны

Это зависит от ваших application size и volume of data, которые вы хотите обработать.Если ваше приложение имеет только один или два источника данных, размер данных меньше 100, и вы можете пойти на это no transactions, но не для приложения, которое будет иметь дело с огромными наборами данных.

Ура!

0 голосов
/ 27 декабря 2018

Я не вижу большой проблемы с обработкой этих записей в режиме редукции, поэтому я советую вам для повышения производительности вместо того, чтобы запрашивать у вашего API все записи, реализовать что-то, что может дать вам X-записи, например, для разбитых на страницы таблиц, где большиеданные извлекаются на каждой странице, пользователь и приставка будут иметь только около 3 страниц из 25 записей, и вы можете очистить старые, если увидите, что такой объем данных замедляет работу, имея эту страницу, страница вашего браузера не займетвозраст загрузки, потому что он не ожидает ответа от больших данных с сервера, вместо этого он будет извлекать небольшие суммы.

Когда я говорю о разбиении на страницы, это может быть прокрутка с загрузкой, которая извлекает данные, когда достигает конца ...

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...