Предположим, у меня есть следующее матричное выражение:
import sympy
sympy.init_printing(use_unicode=True)
x = sympy.MatrixSymbol('x', 2, 2)
y = sympy.MatrixSymbol('y', 2, 2)
a = x * y
Я хотел бы заменить вторую матрицу той же матрицей, умноженной на отрицательную:
a.subs(y, (-y))
Если бы x
и y
были обычными символами SymPy, это показывалось бы как -xy
. Но в этом случае это выглядит как x - y
. Даже если при замене значений матрицы она оценивается правильно (то есть как -xy
), эта демонстрация быстро становится неоднозначной. Как мне сделать так, чтобы он отображался правильно?
Когда sympy.init_printing()
не вызывается, оно однозначно отображается как x\*(-y)
.
Я использую это в Jupyter.