Теоретически вы сможете использовать токены продолжения, не загружая фактические данные для первых 1000 записей, закрыв соединение, которое вы установили после первого запроса. И я имею в виду закрытие его на уровне TCP. И прежде чем читать все данные. Затем откройте новое соединение и используйте там токен продолжения. Два WebRequest не будут делать этого, так как реализация HTTP, вероятно, будет использовать keep alive, что означает, что все ваши данные будут читаться в фоновом режиме, даже если вы не читаете их в своем коде. На самом деле вы можете настроить свои HTTP-запросы так, чтобы они не поддерживали активность.
Тем не менее, другой способ естественен, если вы знаете RowKey и можете искать по нему, но я предполагаю, что вы не знаете, какие ключи строк будут в каждой партии 1000 сущностей.
В заключение я хотел бы спросить, почему у вас возникла эта проблема? А какой у вас шаблон доступа . Если вставки распространены, а получение этих записей - редко, я бы не стал делать это более эффективным. если это похоже на проблему с подкачкой, я, вероятно, получу все данные по первому запросу и кеширую их (в облаке). если вставки редки, но вам нужно часто выполнять этот запрос, я бы посоветовал сделать так, чтобы вставка данных имела один раздел на каждые 1000 сущностей и при необходимости перебалансировала (из-за сортировки) при вставке сущностей.