Ограничение добавления Docplex слишком медленное - PullRequest
1 голос
/ 08 октября 2019

Это тот же вопрос, что и ниже, но разница в том, что я использую docplex.

cplex.linear_constraints.add слишком медленно для больших моделей

Какя могу добавить ограничения, используя индексы с docplex?

Мой код выглядит примерно так:

x = lm.binary_var_dict(range(n),name="x");
xv = [ax for i,ax in x.items()];

for i in range(l):
  Bx = {xv[j]:B[i,j] for j in range(n)};
  Bx = lm.linear_expr(Bx);
  lm.add_constraint(Bx == 1);

Ответы [ 2 ]

1 голос
/ 10 октября 2019

можете ли вы попытаться добавить ограничения в пакетах?

Добавление ограничений в модель пакетами с помощью Model.add_constraints () обычно более эффективно. Попробуйте сгруппировать ограничения в списках или в выражениях (оба работают).

Пример:

m.add_constraints((m.dotf(ys, lambda j_: i + (i+j_) % 3) >= i for i in rsize),
         ("ct_%d" % i for i in rsize))

С Написание эффективного кода DOcplex

0 голосов
/ 10 октября 2019

Существует несколько альтернативных способов создания ограничений. Например, вы можете использовать функции sum или scal_prod. И вы можете создать серию или нет. Вот небольшой тестовый код, который иллюстрирует различные варианты:

from docplex.mp.model import Model
import time

n = 1000
l = n
B = { (i, j) : i * n + j for i in range(l) for j in range(n) }
with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    for i in range(l):
        Bx = {xv[j]:B[i,j] for j in range(n)};
        Bx = m.linear_expr(Bx);
        m.add_constraint(Bx == 1);
    elapsed1 = time.time() - start
print('Original: %.2f' % elapsed1)

with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    m.add_constraints(m.linear_expr({xv[j]:B[i,j] for j in range(n)}) == 1 for i in range(l))
    elapsed2 = time.time() - start
print('Original batched: %.2f' % elapsed2)

with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    for i in range(l):
        m.add_constraint(m.sum(B[i,j] * xv[j] for j in range(n)) == 1)
    elapsed3 = time.time() - start
print('Sum: %.2f' % elapsed3)

with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    Bx = m.linear_expr(Bx);
    m.add_constraints(m.sum(B[i,j] * xv[j] for j in range(n)) == 1 for i in range(l))
    elapsed4 = time.time() - start
print('Sum batched: %.2f' % elapsed4)

with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    for i in range(l):
        m.add_constraint(m.scal_prod([xv[j] for j in range(n)],
                                     [B[i,j] for j in range(n)]) == 1)
    elapsed5 = time.time() - start
print('scal_prod: %.2f' % elapsed5)

with Model() as m:
    x = m.binary_var_dict(range(n),name="x");
    xv = [ax for i,ax in x.items()];

    start = time.time()
    Bx = m.linear_expr(Bx);
    m.add_constraints(m.scal_prod([xv[j] for j in range(n)],
                                  [B[i,j]for j in range(n)]) == 1 for i in range(l))
    elapsed6 = time.time() - start
print('scal_prod batched: %.2f' % elapsed6)

На моей коробке это дает

Original: 1.86
Original batched: 1.82
Sum: 2.84
Sum batched: 2.81
scal_prod: 1.55
scal_prod batched: 1.50

Таким образом, пакетная обработка не покупает слишком много, но scal_prod быстрее, чем linear_expr

...