Мне нужен совет от разработчиков, которые либо сталкивались, либо имеют опыт работы с ситуацией, аналогичной описанной ниже; просто чтобы не изобретать велосипед.
Положение:
У нас есть приложение C # Winform, работающее на нескольких сайтах (более 100), где каждый сайт генерирует в среднем 30 новых файлов данных в неделю, размер которых варьируется от 10-40 МБ на файл. Мы хотим сохранить хранилище данных для всех данных, сгенерированных в поле, используя одностороннюю синхронизацию. Это медицинское приложение, поэтому безопасность этих данных во время передачи чрезвычайно важна.
Наше решение:
Поскольку все новые данные создаются в новых файлах, мы считаем, что система репликации данных на основе различий (например, rsync) НЕ является необходимой. Вместо этого мы пишем пользовательское приложение, которое работает в фоновом режиме как служба Windows и использует оболочку SFTP.Net (chilkat) для регулярной загрузки новых файлов данных на наш сервер Linux. Данные с каждого сайта загружаются в отдельную предварительно настроенную папку на сервере. Наше клиентское приложение отслеживает, какие файлы были загружены в локальную базу данных SQLlite. API Chilkat позволяет нам проходить аутентификацию, используя имя пользователя / пароль или ключи.
Вопросы:
Считаете ли вы вышеуказанное решение склонным к недостаткам безопасности при передаче данных?
Будут ли у вас проблемы эффективности с нашим подходом?
Есть ли лучшие альтернативы, чем то, что мы предлагаем. Наш клиентский компьютер работает под управлением Windows, а сервер базируется на Linux (мы также можем перейти на сервер Windows, но это, конечно, не является предпочтением.)
Заранее спасибо ....
m.umer