У кого-нибудь возникают проблемы с синхронизацией фреймворка v2.1 при инициализации базы данных? - PullRequest
0 голосов
/ 09 ноября 2010

Некоторые таблицы, которые я пытаюсь инициализировать, содержат от 2 до 16 миллионов записей. Я начал синхронизацию вчера вечером в 5 вечера и все еще ждал. Как эта структура является жизнеспособным вариантом для реального мира? Кто-нибудь, имеющий такой же опыт?

Это шаги, которые я предпринял ...

  1. Заполните базу данных клиента всеми данными из источника, используя SSIS.
  2. Предоставление клиентских БД и исходных БД.2.
  3. Синхронизация клиента с «только для загрузки» .3.
  4. Ждите вечности.

Ответы [ 2 ]

0 голосов
/ 09 ноября 2010

Да, среда синхронизации работает довольно медленно, особенно если вы не разбили ряды на ряды. Гораздо лучше использовать резервную копию вашего сервера для инициализации базы данных или, если они не симметричны, выполнить синхронизацию по быстрому сетевому соединению (например, по локальной сети вместо интернета).

Здесь я предполагаю, что узким местом является пропускная способность (как это было для меня большую часть времени) - если использование ЦП / памяти вызывает проблемы, тогда, очевидно, нам нужны другие альтернативы.

Однако эта структура жизнеспособна в реальном мире, когда вы ожидаете частой синхронизации и, следовательно, объем измененных данных невелик. Особенно полезно, если вы хотите использовать определенную логику или отфильтровать данные (например, продавец получает данные о продажах, относящиеся только к его счетам / регионам, а не ко всем данным).

0 голосов
/ 09 ноября 2010

Хорошо, давайте проанализируем то, что вы только что сказали:
Some of the tables that I am trying to intialize are anywhere from 2 to 16 million records.

Некоторые означают несколько, означающие более 1 и миллионы записей.Вы не дали нам никакой информации о схеме, поэтому я собираюсь предположить, что все они представляют собой BLOB-объекты по 500 КБ каждый.Это решит эту проблему.Я не понимаю, насколько важна синхронизация того, что, как я предполагаю, составляет сотни миллионов записей за 24 часа, которые, несомненно, имеют непересекающиеся типы данных.

...