Azure Пределы запросов таблицы с ExecuteQuerySegmentedAsyn c против ExecuteQuery - PullRequest
0 голосов
/ 13 января 2020

Каковы пределы звонка ExecuteQuery()? Например, ограничивает количество объектов и размер загрузки .

Другими словами, когда приведенный ниже метод достигнет своих пределов?

 private static void ExecuteSimpleQuery(CloudTable table, string partitionKey, string startRowKey, string endRowKey)
        {
            try
            {
                // Create the range query using the fluid API 
                TableQuery<CustomerEntity> rangeQuery = new TableQuery<CustomerEntity>().Where(
                    TableQuery.CombineFilters(
                            TableQuery.GenerateFilterCondition("PartitionKey", QueryComparisons.Equal, partitionKey),
                            TableOperators.And,
                            TableQuery.CombineFilters(
                                TableQuery.GenerateFilterCondition("RowKey", QueryComparisons.GreaterThanOrEqual, startRowKey),
                                TableOperators.And,
                                TableQuery.GenerateFilterCondition("RowKey", QueryComparisons.LessThanOrEqual, endRowKey))));

                foreach (CustomerEntity entity in table.ExecuteQuery(rangeQuery))
                {
                    Console.WriteLine("Customer: {0},{1}\t{2}\t{3}", entity.PartitionKey, entity.RowKey, entity.Email, entity.PhoneNumber);
                }
            }
            catch (StorageException e)
            {
                Console.WriteLine(e.Message);
                Console.ReadLine();
                throw;
            }
        }

В приведенном ниже методе используется ExecuteQuerySegmentedAsync с TakeCount 50, но как определяется 50, что, я думаю, определяется моими вопросами выше.

 private static async Task PartitionRangeQueryAsync(CloudTable table, string partitionKey, string startRowKey, string endRowKey)
        {
            try
            {
                // Create the range query using the fluid API 
                TableQuery<CustomerEntity> rangeQuery = new TableQuery<CustomerEntity>().Where(
                    TableQuery.CombineFilters(
                            TableQuery.GenerateFilterCondition("PartitionKey", QueryComparisons.Equal, partitionKey),
                            TableOperators.And,
                            TableQuery.CombineFilters(
                                TableQuery.GenerateFilterCondition("RowKey", QueryComparisons.GreaterThanOrEqual, startRowKey),
                                TableOperators.And,
                                TableQuery.GenerateFilterCondition("RowKey", QueryComparisons.LessThanOrEqual, endRowKey))));

                // Request 50 results at a time from the server. 
                TableContinuationToken token = null;
                rangeQuery.TakeCount = 50;
                int segmentNumber = 0;
                do
                {
                    // Execute the query, passing in the continuation token.
                    // The first time this method is called, the continuation token is null. If there are more results, the call
                    // populates the continuation token for use in the next call.
                    TableQuerySegment<CustomerEntity> segment = await table.ExecuteQuerySegmentedAsync(rangeQuery, token);

                    // Indicate which segment is being displayed
                    if (segment.Results.Count > 0)
                    {
                        segmentNumber++;
                        Console.WriteLine();
                        Console.WriteLine("Segment {0}", segmentNumber);
                    }

                    // Save the continuation token for the next call to ExecuteQuerySegmentedAsync
                    token = segment.ContinuationToken;

                    // Write out the properties for each entity returned.
                    foreach (CustomerEntity entity in segment)
                    {
                        Console.WriteLine("\t Customer: {0},{1}\t{2}\t{3}", entity.PartitionKey, entity.RowKey, entity.Email, entity.PhoneNumber);
                    }

                    Console.WriteLine();
                }
                while (token != null);
            }
            catch (StorageException e)
            {
                Console.WriteLine(e.Message);
                Console.ReadLine();
                throw;
            }
        }

Примеры приведены по ссылке ниже: https://github.com/Azure-Samples/storage-table-dotnet-getting-started

1 Ответ

0 голосов
/ 13 января 2020

Для ExecuteQuerySegmentedAsync ограничение составляет 1000. Это основано на ограничении, налагаемом REST API, когда один запрос к табличному сервису может вернуть максимум 1000 объектов (Ref: https://docs.microsoft.com/en-us/rest/api/storageservices/query-timeout-and-pagination).

ExecuteQuery метод будет пытаться вернуть все объекты, соответствующие запросу. Внутренне он пытается извлечь максимум 1000 объектов за одну итерацию и попытается извлечь следующий набор объектов, если ответ от табличного сервиса включает маркер продолжения.

UPDATE

Если ExecuteQuery выполняет разбиение на страницы автоматически, кажется, что его проще использовать, чем ExecuteQuerySegmentedAsyn c. Почему я должен использовать ExecuteQuerySegmentedAsyn c? Как насчет размера загрузки? 1000 сущностей независимо от их размера?

С ExecuteQuery у вас нет возможности вырваться из l oop. Это становится проблематичным c, когда в таблице много сущностей. У вас есть такая гибкость с ExecuteQuerySegmentedAsync. Например, предположим, что вы хотите загрузить все объекты из очень большой таблицы и сохранить их локально. Если вы используете ExecuteQuerySegmentedAsync, вы можете сохранять объекты в разных файлах.

Что касается вашего комментария о 1000 сущностях независимо от размера, ответ - да. Помните, что максимальный размер каждого объекта может составлять 1 МБ.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...